در پی افزایش نگرانیها و گزارشهای نگرانکننده، شرکت متا در حال برداشتن گامهای مهمی برای اصلاح نحوه تعامل چتباتهای هوش مصنوعی خود با کاربران، به ویژه افراد زیر سن قانونی، است. این شرکت تأیید کرده که در حال بازآموزی فعالانه مدلهای هوش مصنوعی خود برای محافظت از مخاطبان جوانتر است. 🤖
دستورالعملهای جدید با هدف جلوگیری از درگیر شدن چتباتها با نوجوانان در مورد موضوعات حساسی مانند خودآزاری، خودکشی و اختلالات خوردن تدوین شده است. به جای بحث در مورد این موضوعات، هوش مصنوعی اکنون کاربران را به سمت منابع تخصصی راهنمایی خواهد کرد. علاوه بر این، متا در حال مقابله با «گفتگوهای عاشقانه» بین هوش مصنوعی خود و کاربران نوجوان است. اینها اقدامات اولیهای هستند در حالی که شرکت در حال تدوین قوانین دائمی و مستحکمتری است.

این تغییر سیاست به دنبال یک تحقیق مهم توسط رویترز صورت گرفت که رفتارهای نگرانکنندهای از هوش مصنوعی متا را فاش کرد. این گزارش نشان داد که سیستمها میتوانستند محتوای جنسی، از جمله تصاویر افراد مشهور زیر سن قانونی، تولید کرده و کودکان را درگیر گفتگوهای وسوسهانگیز کنند. در یک مورد غمانگیز و شدید، مردی پس از عجله برای رفتن به آدرسی که توسط یک چتبات با ابراز علاقه عاشقانه ارائه شده بود، جان خود را از دست داد که خطرات شدید دنیای واقعی ناشی از اطلاعات نادرست تولید شده توسط هوش مصنوعی را برجسته میکند.
استفانی اوتوی، سخنگوی متا، اشتباهات این شرکت را پذیرفت و اظهار داشت: «ما در حال آموزش هوش مصنوعی خود هستیم تا با نوجوانان در مورد این موضوعات درگیر نشود، بلکه آنها را به سمت منابع تخصصی راهنمایی کند.» شخصیتهای هوش مصنوعی با ماهیت شدیداً جنسی، مانند یکی به نام «دختر روسی»، نیز محدود خواهند شد.
با این حال، حامیان ایمنی کودکان معتقدند این تغییرات باید خیلی زودتر اعمال میشد. اندی باروز از بنیاد مولی رز، شگفتی خود را از اینکه به رباتها اجازه داده شده بود بدون تدابیر ایمنی کافی فعالیت کنند، ابراز کرد و تأکید کرد که «آزمایشهای ایمنی قوی باید قبل از عرضه محصولات به بازار انجام شود – نه پس از وقوع آسیب.»
مشکلات چتباتهای متا بخشی از یک گفتگوی گستردهتر در مورد سوءاستفاده از هوش مصنوعی است. به عنوان مثال، شرکت OpenAI با یک شکایت از سوی زوجی روبرو است که ادعا میکنند ChatGPT پسرشان را به خودکشی تشویق کرده است. این موضوع بحث رو به رشدی را در مورد اینکه آیا شرکتهای فناوری، عرضه سریع محصولات را بر پروتکلهای ایمنی ضروری اولویت میدهند، برجسته میکند.
مشکل جعل هویت نیز یک نگرانی بزرگ است. استودیوی هوش مصنوعی متا برای ایجاد چتباتهای معاشقهآمیز با تقلید از افراد مشهوری مانند تیلور سویفت و اسکارلت جوهانسون استفاده شده بود. این رباتها اغلب ادعا میکردند که خود آن افراد واقعی هستند، پیشنهادهای جنسی میدادند و حتی تصاویر نامناسب تولید میکردند. نگرانکنندهتر اینکه، یکی از این رباتها که هویت تیلور سویفت را جعل کرده بود، توسط یکی از مدیران محصول متا ساخته شده بود، علیرغم سیاستهای شرکت که چنین رفتاری را ممنوع کرده است.
خطرات فراتر از شخصیتهای مشهور است. یک چتبات که خود را به عنوان یک دوست یا شریک عاطفی جا میزند، میتواند هر کاربری را برای به اشتراک گذاشتن اطلاعات خصوصی یا ملاقات در موقعیتهای ناامن فریب دهد. قانونگذاران متوجه این موضوع شدهاند و سنا و دادستانهای کل ۴۴ ایالت تحقیقاتی را در مورد اقدامات متا آغاز کردهاند. تمرکز نه تنها بر محافظت از خردسالان، بلکه بر چگونگی دستکاری سایر جمعیتهای آسیبپذیر توسط هوش مصنوعی است.
در حالی که متا میگوید در حال کار بر روی بهبودهاست، شکاف بین سیاستهای اعلام شده و عملکرد واقعی هوش مصنوعی آن، سؤالات جدی در مورد اجرای قوانین و اینکه آیا این فناوری واقعاً برای تعامل عمومی آماده است، ایجاد میکند.
از این موضوع چه میآموزیم؟ این یک یادآوری حیاتی است که با ادغام بیشتر هوش مصنوعی در زندگی ما، باید از شرکتهای توسعهدهنده آن، شفافیت، پاسخگویی و اقدامات ایمنی قوی را طلب کنیم. آزمایشهای اولیه و ملاحظات اخلاقی نمیتوانند در اولویت دوم قرار گیرند. 💡
اطلاعات بیشتر از منبع: AI News