چگونه هوش مصنوعی «اجتماعی» بودن را از شبکه‌های اجتماعی می‌گیرد

آیا تا به حال برایتان پیش آمده که در حال گشت‌وگذار بی‌پایان در فید شبکه‌های اجتماعی خود باشید، اما بیش از هر زمان دیگری احساس انزوا و قطع ارتباط کنید؟ پلتفرم‌هایی که زمانی برای نزدیک‌تر کردن ما به دوستان و خانواده طراحی شده بودند، اکنون اغلب فضایی از هم گسیخته و غیرشخصی به نظر می‌رسند. در حالی که مدت‌هاست با محتوای بیش از حد ویرایش‌شده و غیرواقعی دست و پنجه نرم می‌کنیم، موج جدیدی از فناوری در حال تبدیل کردن این تجربه به چیزی بی‌نهایت منزوی‌کننده‌تر است: محتوای بی‌ارزش هوش مصنوعی (AI slop) و دیپ‌فیک‌ها.

کلاژی که صفحه لپ‌تاپ با عبارت «هوش مصنوعی» و لوگوهای شبکه‌های اجتماعی را نشان می‌دهد.

ظهور ابزارهای قدرتمند هوش مصنوعی مولد مانند Sora از OpenAI و Veo از گوگل، سیلی از محتوای دیجیتالی را به راه انداخته است. با یک دستور متنی ساده، هر کسی می‌تواند ویدیوها و تصاویر شگفت‌انگیز، خلاقانه یا فریبنده تولید کند. این امر منجر به گسترش «AI slop» شده است—اصطلاحی برای محتوای بی‌کیفیت و تولید انبوه که فیدهای ما را پر کرده است. به ویدیوهایی از حیوانات با ویژگی‌های عجیب و غریب انسانی یا شوخی‌هایی که قوانین فیزیک را نقض می‌کنند، فکر کنید. در کنار این‌ها، دیپ‌فیک‌هایی از شخصیت‌های عمومی که حرف‌هایی می‌زنند و کارهایی می‌کنند که هرگز انجام نداده‌اند، به کالایی نگران‌کننده تبدیل شده‌اند.

از ارتباط انسانی تا اعتیاد به پلتفرم

اینجا این سوال پیش می‌آید: آیا هدف بنیادین شبکه‌های اجتماعی—یعنی در تماس ماندن با مردم—رسماً از بین رفته است؟ الکسیوس مانتزارلیس، مدیر طرح امنیت، اعتماد و ایمنی در دانشگاه کرنل، پاسخی بدبینانه اما قابل قبول ارائه می‌دهد: «هدف شبکه‌های اجتماعی اکنون این است که شما را به ابزار متصل نگه دارند، نه به یکدیگر.» غول‌های فناوری توانایی‌های هوش مصنوعی خود را برای افزایش قیمت سهامشان به نمایش می‌گذارند، که اغلب به قیمت تجربه کاربری تمام می‌شود.

این مصنوعی‌شدن فزاینده، مستقیماً با اصالتی که بسیاری از ما به دنبال آن هستیم، در تضاد است. حتی قبل از هوش مصنوعی مولد، پلتفرم‌هایی مانند اینستاگرام شروع به جایگزین کردن پست‌های دوستان و آشنایان ما با محتوای تولیدکنندگان محتوای پرمخاطبی کردند که حتی آن‌ها را دنبال نمی‌کنیم. اگرچه این کار می‌تواند ما را با علایق جدیدی آشنا کند، اما ما را از افرادی که واقعاً می‌شناسیم دورتر می‌کند. اکنون، با ورود هوش مصنوعی به این معادله، هر نشانی از اصالت در حال محو شدن است. ما دیگر فقط خودمان را با عکس‌های روتوش‌شده از افراد واقعی مقایسه نمی‌کنیم؛ بلکه اکنون با عکس‌های تعطیلات کاملاً تولیدشده توسط هوش مصنوعی و اینفلوئنسرهای هوش مصنوعی که استانداردهای زیبایی واقعاً «غیرواقعی» را ترویج می‌کنند، روبرو هستیم.

نبرد نافرجام علیه عدم اصالت

شرکت‌های شبکه‌های اجتماعی مانند متا و تیک‌تاک متعهد شده‌اند که محتوای تولیدشده توسط هوش مصنوعی را برچسب‌گذاری کنند. تیک‌تاک حتی در حال آزمایش کنترل‌هایی است که به کاربران اجازه می‌دهد میزان محتوای هوش مصنوعی در فید خود را انتخاب کنند. با این حال، این تلاش‌ها سطحی به نظر می‌رسند. در غیاب قوانین دولتی قوی—که به دلیل بن‌بست‌های سیاسی و لابی‌گری شدید شرکت‌های فناوری متوقف شده است—این خود شرکت‌ها هستند که باید بر خود نظارت کنند. با توجه به حجم عظیم محتوا، این یک وظیفه بزرگ است که در آن موفق نبوده‌اند.

این عدم نظارت، بی‌اعتمادی را پرورش می‌دهد. مطالعه‌ای توسط Raptive نشان داد که وقتی مردم حتی شک می‌کنند که محتوایی توسط هوش مصنوعی تولید شده است، آن را کمتر قابل اعتماد می‌دانند و ارتباط عاطفی کمتری با آن برقرار می‌کنند. این موضوع یک تضاد اصلی را برجسته می‌کند: پلتفرم‌ها در حال ترویج هوش مصنوعی هستند، اما کاربران به طور غریزی از آن فاصله می‌گیرند.

ابزاری برای خلاقیت یا هرج‌ومرج؟

البته، هوش مصنوعی تنها یک نیروی منفی نیست. طرفداران آن استدلال می‌کنند که این فناوری تولید محتوا را دموکراتیزه می‌کند و کار را برای افراد بیشتری برای تبدیل شدن به خالق محتوا آسان‌تر می‌سازد. همانطور که پل بنیستر از Raptive اشاره می‌کند، «مانند هر فناوری جدیدی، همیشه کاربردهای خوب و بد وجود دارد.» حتی پشت مضحک‌ترین محتوای هوش مصنوعی، هنوز جرقه‌ای از خلاقیت انسانی وجود دارد. امید این است که اشکال جدید و شگفت‌انگیزی از سرگرمی و به اشتراک‌گذاری اطلاعات از این فناوری پدید آید.

با این حال، ما در حال حاضر در مرحله «آشغال» آن غرق شده‌ایم و پتانسیل تاریک آن وحشتناک است. شبکه‌های اجتماعی در حال حاضر یک اتاق پژواک هستند که تعصبات را تقویت کرده و اطلاعات نادرست را گسترش می‌دهند. با هوش مصنوعی، هر کسی می‌تواند به راحتی واقعیت خود را بسازد و آن را با جهان به اشتراک بگذارد، که این امر تنش‌های اجتماعی را تشدید کرده و شکاف‌ها را در درک مشترک ما از حقیقت عمیق‌تر می‌کند. آیا ما برای آن آماده‌ایم؟ اگر حق انتخاب برای کاهش محتوای هوش مصنوعی در فیدهایمان را داشته باشیم، بسیاری از ما، مانند نویسنده مقاله اصلی، احتمالاً آن را به طور کامل روی صفر تنظیم می‌کنیم.

منبع: CNET

Leave a Comment