آیا تا به حال برایتان پیش آمده که در حال گشتوگذار بیپایان در فید شبکههای اجتماعی خود باشید، اما بیش از هر زمان دیگری احساس انزوا و قطع ارتباط کنید؟ پلتفرمهایی که زمانی برای نزدیکتر کردن ما به دوستان و خانواده طراحی شده بودند، اکنون اغلب فضایی از هم گسیخته و غیرشخصی به نظر میرسند. در حالی که مدتهاست با محتوای بیش از حد ویرایششده و غیرواقعی دست و پنجه نرم میکنیم، موج جدیدی از فناوری در حال تبدیل کردن این تجربه به چیزی بینهایت منزویکنندهتر است: محتوای بیارزش هوش مصنوعی (AI slop) و دیپفیکها.

ظهور ابزارهای قدرتمند هوش مصنوعی مولد مانند Sora از OpenAI و Veo از گوگل، سیلی از محتوای دیجیتالی را به راه انداخته است. با یک دستور متنی ساده، هر کسی میتواند ویدیوها و تصاویر شگفتانگیز، خلاقانه یا فریبنده تولید کند. این امر منجر به گسترش «AI slop» شده است—اصطلاحی برای محتوای بیکیفیت و تولید انبوه که فیدهای ما را پر کرده است. به ویدیوهایی از حیوانات با ویژگیهای عجیب و غریب انسانی یا شوخیهایی که قوانین فیزیک را نقض میکنند، فکر کنید. در کنار اینها، دیپفیکهایی از شخصیتهای عمومی که حرفهایی میزنند و کارهایی میکنند که هرگز انجام ندادهاند، به کالایی نگرانکننده تبدیل شدهاند.
از ارتباط انسانی تا اعتیاد به پلتفرم
اینجا این سوال پیش میآید: آیا هدف بنیادین شبکههای اجتماعی—یعنی در تماس ماندن با مردم—رسماً از بین رفته است؟ الکسیوس مانتزارلیس، مدیر طرح امنیت، اعتماد و ایمنی در دانشگاه کرنل، پاسخی بدبینانه اما قابل قبول ارائه میدهد: «هدف شبکههای اجتماعی اکنون این است که شما را به ابزار متصل نگه دارند، نه به یکدیگر.» غولهای فناوری تواناییهای هوش مصنوعی خود را برای افزایش قیمت سهامشان به نمایش میگذارند، که اغلب به قیمت تجربه کاربری تمام میشود.
این مصنوعیشدن فزاینده، مستقیماً با اصالتی که بسیاری از ما به دنبال آن هستیم، در تضاد است. حتی قبل از هوش مصنوعی مولد، پلتفرمهایی مانند اینستاگرام شروع به جایگزین کردن پستهای دوستان و آشنایان ما با محتوای تولیدکنندگان محتوای پرمخاطبی کردند که حتی آنها را دنبال نمیکنیم. اگرچه این کار میتواند ما را با علایق جدیدی آشنا کند، اما ما را از افرادی که واقعاً میشناسیم دورتر میکند. اکنون، با ورود هوش مصنوعی به این معادله، هر نشانی از اصالت در حال محو شدن است. ما دیگر فقط خودمان را با عکسهای روتوششده از افراد واقعی مقایسه نمیکنیم؛ بلکه اکنون با عکسهای تعطیلات کاملاً تولیدشده توسط هوش مصنوعی و اینفلوئنسرهای هوش مصنوعی که استانداردهای زیبایی واقعاً «غیرواقعی» را ترویج میکنند، روبرو هستیم.
نبرد نافرجام علیه عدم اصالت
شرکتهای شبکههای اجتماعی مانند متا و تیکتاک متعهد شدهاند که محتوای تولیدشده توسط هوش مصنوعی را برچسبگذاری کنند. تیکتاک حتی در حال آزمایش کنترلهایی است که به کاربران اجازه میدهد میزان محتوای هوش مصنوعی در فید خود را انتخاب کنند. با این حال، این تلاشها سطحی به نظر میرسند. در غیاب قوانین دولتی قوی—که به دلیل بنبستهای سیاسی و لابیگری شدید شرکتهای فناوری متوقف شده است—این خود شرکتها هستند که باید بر خود نظارت کنند. با توجه به حجم عظیم محتوا، این یک وظیفه بزرگ است که در آن موفق نبودهاند.
این عدم نظارت، بیاعتمادی را پرورش میدهد. مطالعهای توسط Raptive نشان داد که وقتی مردم حتی شک میکنند که محتوایی توسط هوش مصنوعی تولید شده است، آن را کمتر قابل اعتماد میدانند و ارتباط عاطفی کمتری با آن برقرار میکنند. این موضوع یک تضاد اصلی را برجسته میکند: پلتفرمها در حال ترویج هوش مصنوعی هستند، اما کاربران به طور غریزی از آن فاصله میگیرند.
ابزاری برای خلاقیت یا هرجومرج؟
البته، هوش مصنوعی تنها یک نیروی منفی نیست. طرفداران آن استدلال میکنند که این فناوری تولید محتوا را دموکراتیزه میکند و کار را برای افراد بیشتری برای تبدیل شدن به خالق محتوا آسانتر میسازد. همانطور که پل بنیستر از Raptive اشاره میکند، «مانند هر فناوری جدیدی، همیشه کاربردهای خوب و بد وجود دارد.» حتی پشت مضحکترین محتوای هوش مصنوعی، هنوز جرقهای از خلاقیت انسانی وجود دارد. امید این است که اشکال جدید و شگفتانگیزی از سرگرمی و به اشتراکگذاری اطلاعات از این فناوری پدید آید.
با این حال، ما در حال حاضر در مرحله «آشغال» آن غرق شدهایم و پتانسیل تاریک آن وحشتناک است. شبکههای اجتماعی در حال حاضر یک اتاق پژواک هستند که تعصبات را تقویت کرده و اطلاعات نادرست را گسترش میدهند. با هوش مصنوعی، هر کسی میتواند به راحتی واقعیت خود را بسازد و آن را با جهان به اشتراک بگذارد، که این امر تنشهای اجتماعی را تشدید کرده و شکافها را در درک مشترک ما از حقیقت عمیقتر میکند. آیا ما برای آن آمادهایم؟ اگر حق انتخاب برای کاهش محتوای هوش مصنوعی در فیدهایمان را داشته باشیم، بسیاری از ما، مانند نویسنده مقاله اصلی، احتمالاً آن را به طور کامل روی صفر تنظیم میکنیم.
منبع: CNET