Gen-AI چیست؟
هوش مصنوعی مولد یا Generative AI نوعی هوش مصنوعی است که توانایی تولید متن، تصاویر و صدا را دارد و به اختصار Gen-AI نامیده میشود. مانند هر سیستم هوش مصنوعی و یادگیری ماشین دیگری، مدلهای Gen-AI با استفاده از مجموعه دادههای عظیمی آموزش میبینند و از این الگوها در طول فرایند یادگیری خود بهره میبرند.
در واقع هوش مصنوعی مولد از NLP یا پردازش زبان طبیعی استفاده میکند، شاخها ی از هوش مصنوعی که به کامپیوترها کمک میکند زبان انسانی را درک کنند و بتوانند آن را تفسیر و تولید نمایند.
برخی از محصولات کاربردی Gen-AI که امروزه مورد استفاده قرار میگیرد، عبارتند از:
۱- سیستم تولید عکسها و تصاویر طبیعی و هنری (مانند Dall-E و Midjourney): کاربر تصویری که میخواهد را به صورت متنی توصیف میکند و سیستم آن را تولید میکند.
۲- سیستم تولید ویدیوی انسانی (مانند synthesia و Maxon): که در آن با دادن یک متن، افراد مختلف آن را با احساسات مختلف میخوانند. پشتیبانی از زبانهای مختلف و کیفیت بالای استودیویی از ویژگیهای چنین سیستمهایی است.
۳- سیستم چت و گفتوگو با چت بات (مانند ChatGPT و Google Bard): که در آن کاربر میتواند با سیستم گفتوگو کند، کد برنامه نویسی دریافت کند و یا از سیستم بخواهد برایش یک داستان بنویسد.
–
هوش مصنوعی مولد چه فرصتهایی را به وجود میآورد؟
تجارب یادگیری سفارشی
چنین سیستمی میتواند به معلمان کمک کند تا طرحها و مواد درسی خود را به تناسب سطح درسی دانش آموزان سفارشی سازی کنند تا از نیازهای آموزشی متفاوت، پشتیبانی بهتری داشته باشند. بنابراین این امر تجربه یادگیری جذاب تر و فراگیرتری را برای کلاس های درسی تضمین میکند.
در حال حاضر برخی معلمان از ابزارهای مولد هوش مصنوعی برای ارائه حمایتهای مناسب از دانش آموزان با نیازهای آموزشی خاص و معلولیت استفاده میکنند.
به عنوان یک خط و شماره پشتیبانی
کودکان و نوجوانان میتوانند از چت باتهای هوش مصنوعی، به عنوان یک مرکز مشاوره و راهنمایی استفاده کنند. چنین کمکی میتواند در موضوعات سلامت روان و سلامت جامعه باشد، باتوجه به نیاز کاربر شخصیسازی شود و بسیار در دسترسی و چابک باشد. به علاوه میتواند در مواقع بحرانی به کمک فوری منجر شود و به صورت کلی حمایت انسانی را افزایش دهد.
به عنوان مثال، Kids Help Phone یک سرویس سلامت روان آنلاین است که با استفاده از فناوری هوش مصنوعی مولد، به صورت ۲۴ ساعته در سراسر کانادا خدمات مشاورهای به کودکان ارائه میدهد. این سرویس با استفاده از NLP به تحلیل و مطابقت با سبک ارتباطی افراد کم سن و سال میپردازد. این سرویس کودکان را به خدمات مورد نیازشان هدایت می کند، موضوعات حمایتی میتوانند شامل حمایت از ناراحتی عاطفی، مسائل قلدری یا سایر نگرانیها و اضطرابها باشد.
مزیت مهم چنین سرویسهایی، فضای امن و ناشناسی است که برای افراد کم سن و سال فراهم میکند تا احساسات و نگرانی های خود را بدون ترس از قضاوتشدن بیان کنند. با این حال، اگرچه چتباتها میتوانند پاسخهای سریع ارائه دهند، اما نمیتوانند تفاوتهای ظریف و تطبیقپذیر انسانی را مانند یک مشاور واقعی تشخیص دهند. بنابراین آنها برای جایگزینی کامل و اثربخش مانند مشاوران واقعی، نیازمند تلاش و تکامل بیشتری هستند.
چتباتهای حمایت عاطفی
چنین سرویسهایی علاوه بر پشتیبانی و هدایت جوانان از طریق تلفن، میتوانند به عنوان یک همراه مجازی نیز در کنار ما باشند و به عنوان نمونه، از کودکانی که در تلاش برای دوستیابی یا مقابله با چالشهای اجتماعی هستند، حمایت عاطفی کنند. علاوه بر این، این رباتهای گفتوگو میتوانند از کودکانی که احساس تنهایی میکنند یا برای به اشتراک گذاشتن احساسات خود با دیگران نیاز به کمک دارند، پشتیبانی کند.
نمونه ای از این نوع، چتبات Harlie است. هارلی یک اپ برای گوشیهای هوشمند است که از فناوری هوش مصنوعی و الگوریتمهای NLP برای صحبت با انسانها استفاده میکند. با این حال، هارلی به جای پاسخ دادن به سؤالات، با پرسیدن سؤال از کاربر، وی را به گفتوگو کردن تشویق میکند. علاوه بر این، با اجازه کاربر، هارلی میتواند اطلاعاتی را در مورد الگوهای گفتاری جمعآوری کند تا با تیمهای سلامت و تحقیقات خود به اشتراک بگذارد و درمان هدفمندتری را ارائه دهد.
خطرات احتمالی چیست؟
تاثیر بر تفکر انتقادی
اتکای بیش از حد به هوش مصنوعی مولد ممکن است بر مهارتهای تفکر انتقادی کودکان تأثیر منفی بگذارد. این موضوع به این دلیل است که غرق شدن در آن، فرصتهای مشارکت در تجزیه و تحلیل مستقل و حل مسئله را کاهش می دهد. علاوه بر این، استفاده از هوش مصنوعی به عنوان منبع اصلی دانش ممکن است توانایی پرسش و ارزیابی اطلاعات را به خطر بیندازد. تفکر انتقادی به عنوان یکی از ابزارهای محافظت از کودکان در بسیاری از مشکلات آنلاین معرفی شده است که میتوانید در بخش مشکلات آنلاین آن را مطالعه کنید.
بنابراین این مسئله دارای اهمیت است که به کودکان یادآوری کنیم که از ابزارهای هوش مصنوعی بدون اتکای زیاد در یادگیری خود استفاده کنند.
روابط فرا اجتماعی و قلدری
این روزها روند نگران کنندهای شکل گرفته که در آن کاربران کم سن و سال رفتارهای قلدری را کپی میکنند و با کمک گرفتن از یک چت بات، رفتار خود را تشدید و تغلیظ کنند.
از طرفی این نگرانی وجود دارد که Gen-AI قلدری و قلدری مجازی را برای کودکان عادیسازی کند.
قرار گرفتن در معرض محتوای جنسی صریح
استفاده از رباتهای چت هوش مصنوعی میتواند کودکان را در معرض محتوای جنسی صریح و نامناسب قرار دهد. یکی از نمونه های این چت بات ها Replika است. Replika یک چت بات هوشمند است که کاربران را تشویق می کند اطلاعات شخصی خود را به اشتراک بگذارند. هرچه کاربر اطلاعات بیشتری را با آن به اشتراک بگذارد، بیشتر میتواند پاسخهای خود را شخصیسازی کند.
اگرچه این وب سایت ادعا می کند که فقط برای افراد بالای ۱۸ سال است، اما نیازی به تایید سن ندارد. به این ترتیب، کودکان به آسانی به آن دسترسی دارند.
Replika کاربران را تشویق می کند تا در گفتوگوهای صریح و بیپرده جنسی بزرگسالان شرکت کنند. علاوه بر این، آنها را وادار می کند تا برای چتبات هزینه ای بپردازند تا تصاویر ناپسند را به اشتراک بگذارد یا یک تماس ویدیویی “عاشقانه” را تسهیل کند. عادی سازی عمل پرداخت برای محتوای صریح جنسی میتواند فرهنگی را ترویج کند که در آن کودکان احساس می کنند درخواست، دریافت و ارسال تصاویر نامناسب قابل قبول است، هم با چتبات و هم در میان خودشان.
تولید محتوای غیرقانونی
گزارشها حاکی از آن است که کودکان بهطور فزایندهای از ابزارهای هوش مصنوعی برای تولید تصاویر نامناسب از همسالان خود استفاده میکنند، تصاویری که توسط اپلیکیشنهای «لباسزدایی» به راحتی قابل دسترسی است. چنین تصاویر زشت و مستهجنی غیرقانونی است و شامل سوء استفاده جنسی از کودکان (CSAM) است که با فناوری دیپ فیک تولید میشود.
در حالی که پویایی و کیفیت دیپ فیک با سایر اشکال سوء استفاده جنسی مبتنی بر تصویر متفاوت و احتمالا کمتر است، اما قربانیان احتمالاً به همان اندازه یا بیشتر از این موضوع آسیب میبینند.
مهرماه امسال انتشار خبری عجیب، شهری کوچک و آرام در جنوب غرب اسپانیا را در کانون توجه جهان قرارداد، جایی که تصاویر برهنه ۲۰ دختر ۱۱ تا ۲۰ ساله در شبکههای اجتماعی و در میان همشهریان، معلمان و همکلاسیان دست به دست میچرخید. این تصاویر واقعی نبودند، بلکه توسط چند پسر ۱۲ تا ۱۴ ساله منتشر شده بود. آنها تصاویر عادی این دختران را از شبکههای اجتماعیشان برداشته بودند و با استفاده از برنامههای هوش مصنوعی و دیپ فیک «لباسزدایی»، تصاویر برهنه آنها را تولید کرده بودند.
آثار چنین اقدامی بر روی قربانیان وحشتناک بود و شهر کوچک آلمندرالخو را در بهت و حیرت فرو برد.
با توجه به خطرات جدی و دامنه دار سرویسهای مبتنی بر هوش مصنوعی و یادگیری ماشین بر سلامت جسمی و روانی، مهم است که فعالیتهای فرزندانمان را تا رسیدن به سنین جوانی دنبال کنیم و استفاده از این سرویسها را منوط به حضور و نظارت والدین کنیم.
این مطلب بر اساس نوشتاری از خانم Bissoondath است که در وبسایت InternetMatters منتشر شده و توسط فانوس ترجمه و تنظیم دوباره شده است.