متا قوانین چت‌بات‌های هوش مصنوعی را برای محافظت از نوجوانان بازنگری می‌کند

متا پس از مواجهه با انتقادات شدید در پی گزارشی مبنی بر اینکه چت‌بات‌های هوش مصنوعی این شرکت درگیر گفتگوهای نامناسب و احساسی با افراد زیر سن قانونی شده‌اند، از به‌روزرسانی‌های قابل توجهی در سیاست‌های خود برای اولویت‌بخشی به ایمنی نوجوانان خبر داد.

سخنگوی این شرکت در بیانیه‌ای اختصاصی به تک‌کرانچ تأیید کرد که متا در حال تغییر اساسی در نحوه آموزش مدل‌های هوش مصنوعی خود است. این اقدام واکنشی مستقیم به یک گزارش تحقیقی است که فقدان تدابیر حفاظتی کافی برای کاربران جوان در تعامل با شخصیت‌های هوش مصنوعی این شرکت را افشا کرده بود.

هسته اصلی این به‌روزرسانی شامل آموزش مجدد چت‌بات‌ها برای عدم تعامل با کاربران نوجوان در مورد موضوعات حساس است. این موضوعات شامل بحث‌هایی درباره خودآزاری، خودکشی، اختلالات خوردن و هرگونه گفتگویی است که می‌تواند به عنوان مکالمه عاشقانه نامناسب تعبیر شود. پیش از این، موضع متا این بود که هوش مصنوعی‌اش می‌تواند این موضوعات را به شیوه‌ای که شرکت «مناسب» می‌دانست، مدیریت کند. با این حال، سخنگوی شرکت، استفانی اوتوِی، اذعان کرد که این یک اشتباه بوده است.

اوتوِی اظهار داشت: «با رشد جامعه ما و تکامل فناوری، ما به طور مداوم در حال یادگیری نحوه تعامل جوانان با این ابزارها و تقویت حمایت‌های خود هستیم.» او توضیح داد که حفاظ‌های جدید یک «اقدام احتیاطی اضافی» هستند و هوش مصنوعی به جای بحث در مورد این موضوعات، اکنون نوجوانان را به سمت منابع تخصصی برای دریافت کمک راهنمایی خواهد کرد.

علاوه بر آموزش مجدد، متا در حال مدیریت تجربه هوش مصنوعی برای مخاطبان جوان‌تر خود نیز هست. دسترسی نوجوانان از این پس به گروه منتخبی از شخصیت‌های هوش مصنوعی که بر آموزش و خلاقیت متمرکز هستند، محدود خواهد شد. این بدان معناست که آنها دیگر قادر به تعامل با شخصیت‌های هوش مصنوعی ساخته‌شده توسط کاربر که می‌توانند مکالمات نامناسب را تسهیل کنند، مانند شخصیت‌هایی با نام «مادرخوانده» یا «دختر روسی»، نخواهند بود.

این بازنگری در سیاست‌ها پس از یک تحقیق رویترز آغاز شد که سندی داخلی از متا را فاش کرد. به نظر می‌رسید این سند به چت‌بات‌های هوش مصنوعی اجازه می‌دهد تا مکالمات جنسی با کاربران زیر سن قانونی داشته باشند و حتی نمونه‌هایی از پاسخ‌های «قابل قبول» مانند «اندام جوان تو یک اثر هنری است» را ارائه می‌داد.

اگرچه متا ادعا می‌کند که این سند با سیاست‌های کلی‌تر شرکت ناهماهنگ بوده و از آن زمان به‌روز شده است، اما این افشاگری جنجال گسترده و واکنش سریع سیاسی را به دنبال داشت. سناتور جاش هاولی تحقیقات رسمی را در مورد سیاست‌های هوش مصنوعی این شرکت آغاز کرد و ائتلافی متشکل از ۴۴ دادستان کل ایالتی نامه‌ای به متا و سایر شرکت‌های هوش مصنوعی ارسال کردند و نگرانی خود را ابراز نمودند. در این نامه آمده است: «ما همگی از این بی‌توجهی آشکار به سلامت عاطفی کودکان منزجر هستیم.»

متا تغییرات فعلی را «موقتی» توصیف کرده و اشاره کرده است که به‌روزرسانی‌های ایمنی قوی‌تر و بلندمدت‌تری برای افراد زیر سن قانونی در آینده برنامه‌ریزی شده است. این شرکت از ارائه آمار در مورد تعداد کاربران نوجوان چت‌بات‌های هوش مصنوعی خود یا پیش‌بینی کاهش استفاده به دنبال این محدودیت‌های جدید خودداری کرد.

این رویداد به عنوان یک مطالعه موردی حیاتی در مورد چالش‌های در حال تحول ایمنی هوش مصنوعی و مسئولیت عظیمی که غول‌های فناوری برای محافظت از آسیب‌پذیرترین کاربران خود دارند، عمل می‌کند.

منبع: تحقیق رویترز

Leave a Comment