هوش مصنوعی مولد چیست و چگونه بر سلامتی کودکان تأثیر می‌گذارد؟

هوش مصنوعی مولد یا Generative AI نوعی هوش مصنوعی است که توانایی تولید متن، تصاویر و صدا را دارد و به اختصار Gen-AI نامیده می‌شود. مانند هر سیستم هوش مصنوعی و یادگیری ماشین دیگری، مدل‌های Gen-AI با استفاده از مجموعه داده‌های عظیمی آموزش ‌می‌بینند و از این الگوها در طول فرایند یادگیری خود بهره می‌برند.

در واقع هوش مصنوعی مولد از NLP یا پردازش زبان طبیعی استفاده می‌کند، شاخه‌ا ی از هوش مصنوعی که به کامپیوترها کمک می‌کند زبان انسانی را درک کنند و بتوانند آن را تفسیر و تولید نمایند.

برخی از محصولات کاربردی Gen-AI که امروزه مورد استفاده قرار می‌گیرد، عبارتند از:

۱- سیستم تولید عکس‌ها و تصاویر طبیعی و هنری (مانند Dall-E و Midjourney): کاربر تصویری که می‌خواهد را به صورت متنی توصیف می‌کند و سیستم آن را تولید می‌کند.

۲- سیستم تولید ویدیوی انسانی (مانند synthesia و Maxon): که در آن با دادن یک متن، افراد مختلف آن را با احساسات مختلف می‌خوانند. پشتیبانی از زبان‌های مختلف و کیفیت بالای استودیویی از ویژگی‌های چنین سیستم‌هایی است.

۳- سیستم چت و گفت‌وگو با چت بات (مانند ChatGPT و Google Bard): که در آن کاربر می‌تواند با سیستم گفت‌وگو کند، کد برنامه نویسی دریافت کند و یا از سیستم بخواهد برایش یک داستان بنویسد.

چنین سیستمی می‌تواند به معلمان کمک کند تا طرح‌ها و مواد درسی خود را به تناسب سطح درسی دانش آموزان سفارشی سازی کنند تا از نیازهای آموزشی متفاوت، پشتیبانی بهتری داشته باشند. بنابراین این امر تجربه یادگیری جذاب تر و فراگیرتری را برای کلاس های درسی تضمین می‌کند.

در حال حاضر برخی معلمان از ابزارهای مولد هوش مصنوعی برای ارائه حمایت‌های مناسب از دانش آموزان با نیازهای آموزشی خاص و معلولیت استفاده می‌کنند.

کودکان و نوجوانان می‌توانند از چت بات‌های هوش مصنوعی، به عنوان یک مرکز مشاوره و راهنمایی استفاده کنند. چنین کمکی می‌تواند در موضوعات سلامت روان و سلامت جامعه باشد، باتوجه به نیاز کاربر شخصی‌‌سازی شود و بسیار در دسترسی و چابک باشد. به علاوه می‌تواند در مواقع بحرانی به کمک فوری منجر شود و به صورت کلی حمایت انسانی را افزایش دهد.

به عنوان مثال، Kids Help Phone یک سرویس سلامت روان آنلاین است که با استفاده از فناوری هوش مصنوعی مولد، به صورت ۲۴ ساعته در سراسر کانادا خدمات مشاوره‌ای  به کودکان ارائه می‌دهد. این سرویس با استفاده از NLP به تحلیل و مطابقت با سبک ارتباطی افراد کم سن و سال می‌پردازد. این سرویس کودکان را به خدمات مورد نیازشان هدایت می کند، موضوعات حمایتی می‌توانند شامل حمایت از ناراحتی عاطفی، مسائل قلدری یا سایر نگرانی‌ها و اضطراب‌ها باشد.

مزیت مهم چنین سرویس‌هایی، فضای امن و ناشناسی است که برای افراد کم سن و سال فراهم می‌کند تا احساسات و نگرانی های خود را بدون ترس از قضاوت‌شدن بیان کنند. با این حال، اگرچه چت‌بات‌ها می‌توانند پاسخ‌های سریع ارائه دهند، اما نمی‌توانند تفاوت‌های ظریف و تطبیق‌پذیر انسانی را مانند یک مشاور واقعی تشخیص دهند. بنابراین آن‌ها برای جایگزینی کامل و اثربخش مانند مشاوران واقعی، نیازمند تلاش و تکامل بیش‌تری هستند.

چنین سرویس‌هایی علاوه بر پشتیبانی و هدایت جوانان از طریق تلفن، می‌توانند به عنوان یک همراه مجازی نیز در کنار ما باشند و به عنوان نمونه، از کودکانی که در تلاش برای دوست‌یابی یا مقابله با چالش‌های اجتماعی هستند، حمایت عاطفی کنند. علاوه بر این، این ربات‌های گفت‌وگو می‌توانند از کودکانی که احساس تنهایی می‌کنند یا برای به اشتراک گذاشتن احساسات خود با دیگران نیاز به کمک دارند، پشتیبانی کند.

نمونه ای از این نوع، چت‌بات Harlie است. هارلی یک اپ برای گوشی‌های هوشمند است که از فناوری هوش مصنوعی و الگوریتم‌های NLP برای صحبت با انسان‌ها استفاده می‌کند. با این حال، هارلی به جای پاسخ دادن به سؤالات، با پرسیدن سؤال از کاربر، وی را به گفت‌وگو کردن تشویق می‌کند. علاوه بر این، با اجازه کاربر، هارلی می‌تواند اطلاعاتی را در مورد الگوهای گفتاری جمع‌آوری کند تا با تیم‌های سلامت و تحقیقات خود به اشتراک بگذارد و درمان هدفمندتری را ارائه دهد.

اتکای بیش از حد به هوش مصنوعی مولد ممکن است بر مهارت‌های تفکر انتقادی کودکان تأثیر منفی بگذارد. این موضوع به این دلیل است که غرق شدن در آن، فرصت‌های مشارکت در تجزیه و تحلیل مستقل و حل مسئله را کاهش می دهد. علاوه بر این، استفاده از هوش مصنوعی به عنوان منبع اصلی دانش ممکن است توانایی پرسش و ارزیابی اطلاعات را به خطر بیندازد. تفکر انتقادی به عنوان یکی از ابزارهای محافظت از کودکان در بسیاری از مشکلات آنلاین معرفی شده است که می‌توانید در بخش مشکلات آنلاین آن را مطالعه کنید.

بنابراین این مسئله دارای اهمیت است که به کودکان یادآوری کنیم که از ابزارهای هوش مصنوعی بدون اتکای زیاد در یادگیری خود استفاده کنند.

این روزها روند نگران کننده‌ای شکل گرفته که در آن کاربران کم سن و سال رفتارهای قلدری را کپی می‌کنند و با کمک گرفتن از یک چت بات، رفتار خود را تشدید و تغلیظ کنند.

از طرفی این نگرانی وجود دارد که Gen-AI قلدری و قلدری مجازی را برای کودکان عادی‌سازی کند.

استفاده از ربات‌های چت هوش مصنوعی می‌تواند کودکان را در معرض محتوای جنسی صریح و نامناسب قرار دهد. یکی از نمونه های این چت بات ها Replika است. Replika یک چت بات هوشمند است که کاربران را تشویق می کند اطلاعات شخصی خود را به اشتراک بگذارند. هرچه کاربر اطلاعات بیشتری را با آن به اشتراک بگذارد، بیش‌تر می‌تواند پاسخ‌های خود را شخصی‌سازی کند.

اگرچه این وب سایت ادعا می کند که فقط برای افراد بالای ۱۸ سال است، اما نیازی به تایید سن ندارد. به این ترتیب، کودکان به آسانی به آن دسترسی دارند.

Replika کاربران را تشویق می کند تا در گفت‌وگوهای صریح و بی‌پرده جنسی بزرگسالان شرکت کنند. علاوه بر این، آن‌ها را وادار می کند تا برای چت‌بات هزینه ای بپردازند تا تصاویر ناپسند را به اشتراک بگذارد یا یک تماس ویدیویی “عاشقانه” را تسهیل کند. عادی سازی عمل پرداخت برای محتوای صریح جنسی می‌تواند فرهنگی را ترویج کند که در آن کودکان احساس می کنند درخواست، دریافت و ارسال تصاویر نامناسب قابل قبول است، هم با چت‌بات و هم در میان خودشان.

گزارش‌ها حاکی از آن است که کودکان به‌طور فزاینده‌ای از ابزارهای هوش مصنوعی برای تولید تصاویر نامناسب از همسالان خود استفاده می‌کنند، تصاویری که توسط اپلیکیشن‌های «لباس‌زدایی» به راحتی قابل دسترسی است. چنین تصاویر زشت و مستهجنی غیرقانونی است و شامل سوء استفاده جنسی از کودکان (CSAM) است که با فناوری دیپ فیک تولید می‌شود.

در حالی که پویایی و کیفیت دیپ فیک با سایر اشکال سوء استفاده جنسی مبتنی بر تصویر متفاوت و احتمالا کم‌تر است، اما قربانیان احتمالاً به همان اندازه یا بیش‌تر از این موضوع آسیب می‌بینند.

مهرماه امسال انتشار خبری عجیب، شهری کوچک و آرام در جنوب غرب اسپانیا را در کانون توجه جهان قرارداد، جایی که تصاویر برهنه ۲۰ دختر ۱۱ تا ۲۰ ساله در شبکه‌های اجتماعی و در میان همشهریان، معلمان و هم‌کلاسیان دست به دست می‌چرخید. این تصاویر واقعی نبودند، بلکه توسط چند پسر ۱۲ تا ۱۴ ساله منتشر شده بود. آن‌ها تصاویر عادی این دختران را از شبکه‌های اجتماعی‌شان برداشته بودند و با استفاده از برنامه‌های هوش مصنوعی و دیپ فیک «لباس‌زدایی»، تصاویر برهنه آن‌ها را تولید کرده بودند.

آثار چنین اقدامی بر روی قربانیان وحشتناک بود و شهر کوچک آلمندرالخو را در بهت و حیرت فرو برد.

با توجه به خطرات جدی و دامنه دار سرویس‌های مبتنی بر هوش مصنوعی و یادگیری ماشین بر سلامت جسمی و روانی، مهم است که فعالیت‌های فرزندان‌مان را تا رسیدن به سنین جوانی دنبال کنیم و استفاده از این سرویس‌ها را منوط به حضور و نظارت والدین کنیم.

این مطلب بر اساس نوشتاری از خانم Bissoondath است که در وب‌سایت InternetMatters منتشر شده و توسط فانوس ترجمه و تنظیم دوباره شده است.