«اثر بازدارنده»: چگونه ترس از اپلیکیشنهای «برهنهساز» و دیپفیکهای هوش مصنوعی، زنان هندی را از اینترنت دور نگه میدارد
گسترش روزافزون هوش مصنوعی با خود راههای جدیدی برای آزار و اذیت آنلاین زنان به همراه آورده است.
گاتا سارواییا دوست دارد در شبکههای اجتماعی پست بگذارد و کارهایش را آنلاین به اشتراک بگذارد. او که یک فارغالتحصیل حقوق هندی در اوایل دهه بیست زندگیاش است، در مراحل اولیه مسیر شغلی خود قرار دارد و سعی میکند یک چهره عمومی برای خود بسازد. مشکل اینجاست که با افزایش دیپفیکهای مبتنی بر هوش مصنوعی، دیگر هیچ تضمینی وجود ندارد که تصاویری که او پست میکند، به چیزی توهینآمیز یا زننده تبدیل نشوند.
سارواییا که در بمبئی زندگی میکند، میگوید: «این فکر فوراً به ذهنم خطور میکند که “خب، شاید امن نباشد. شاید مردم بتوانند عکسهای ما را بردارند و هر کاری با آنها بکنند.”»
روهینی لاکشانه، پژوهشگر حقوق جنسیتی و سیاست دیجیتال مستقر در میسورو که او نیز از انتشار عکسهای خود به صورت آنلاین خودداری میکند، میگوید: «اثر بازدارنده واقعیت دارد. این واقعیت که میتوان به راحتی از آنها سوءاستفاده کرد، مرا بیش از حد محتاط میکند.»
پیامد مواجهه با آزار و اذیت آنلاین، ساکت کردن خود یا کمفعال شدن در فضای مجازی است.
در سالهای اخیر، هند به یکی از مهمترین بسترهای آزمایشی برای ابزارهای هوش مصنوعی تبدیل شده است. این کشور دومین بازار بزرگ جهان برای OpenAI است و این فناوری به طور گسترده در مشاغل مختلف به کار گرفته شده است.
اما گزارشی که روز دوشنبه منتشر شد و بر اساس دادههای جمعآوریشده توسط «بنیاد راتی» (Rati Foundation)، یک موسسه خیریه که خط تلفن سراسری برای قربانیان آزارهای آنلاین را اداره میکند، تهیه شده، نشان میدهد که گسترش روزافزون هوش مصنوعی، راه قدرتمند جدیدی برای آزار و اذیت زنان ایجاد کرده است.
در این گزارش که توسط بنیاد راتی و Tattle (شرکتی که برای کاهش اطلاعات نادرست در رسانههای اجتماعی هند فعالیت میکند) تهیه شده، آمده است: «در سه سال گذشته مشخص شده که اکثریت قریب به اتفاق محتوای تولیدشده توسط هوش مصنوعی برای هدف قرار دادن زنان و اقلیتهای جنسیتی استفاده میشود.»
به طور خاص، این گزارش دریافته است که استفاده از ابزارهای هوش مصنوعی برای ساخت تصاویر یا ویدیوهای دستکاریشده دیجیتالی از زنان افزایش یافته است – چه به صورت برهنه و چه تصاویری که ممکن است در آمریکا از نظر فرهنگی مناسب باشند، اما در بسیاری از جوامع هند انگزننده هستند، مانند ابراز محبت در ملاء عام.

حدود ۱۰ درصد از صدها پرونده گزارششده به این خط تلفن، اکنون شامل این تصاویر هستند. در این گزارش آمده است: «هوش مصنوعی، ساخت محتوای واقعگرایانه را بسیار آسانتر میکند.»
موارد پر سر و صدایی از زنان سرشناس هندی وجود داشته که تصاویرشان توسط ابزارهای هوش مصنوعی دستکاری شده است: برای مثال، آشا بوسله، خواننده بالیوود، که چهره و صدایش با استفاده از هوش مصنوعی شبیهسازی و در یوتیوب منتشر شد. رعنا ایوب، روزنامهنگاری که به تحقیق در مورد فساد سیاسی و پلیس شهرت دارد، سال گذشته هدف یک کارزار افشای اطلاعات شخصی قرار گرفت که منجر به انتشار تصاویر جنسی دیپفیک از او در رسانههای اجتماعی شد.
این موارد به یک گفتگوی سراسری در جامعه منجر شده است که در آن برخی چهرهها، مانند بوسله، با موفقیت برای حقوق قانونی بر سر صدا یا تصویر خود مبارزه کردهاند. با این حال، کمتر به تأثیری که چنین مواردی بر زنان عادی دارد پرداخته شده است؛ زنانی که مانند سارواییا، به طور فزایندهای در مورد حضور آنلاین خود احساس عدم اطمینان میکنند.
تارونیما پرابهاکار، یکی از بنیانگذاران Tattle میگوید: «پیامد مواجهه با آزار و اذیت آنلاین، در واقع ساکت کردن خود یا کمفعال شدن در فضای مجازی است.» سازمان او به مدت دو سال در سراسر هند از گروههای متمرکز برای درک چگونگی تأثیر آزارهای دیجیتال بر جامعه استفاده کرد.
او میگوید: «احساسی که ما شناسایی کردهایم، خستگی و فرسودگی است. و پیامد این فرسودگی این است که شما به کلی از این فضاهای آنلاین کنارهگیری میکنید.»
در چند سال گذشته، سارواییا و دوستانش موارد پر سر و صدای آزار آنلاین با دیپفیک را دنبال کردهاند، مانند مورد رعنا ایوب یا راشمیکا ماندانا، بازیگر بالیوود. او میگوید: «این برای زنان اینجا کمی ترسناک است.»
اکنون، سارواییا برای انتشار هر چیزی در رسانههای اجتماعی تردید دارد و اینستاگرام خود را خصوصی کرده است. او نگران است که حتی این کار هم برای محافظت از او کافی نباشد: گاهی اوقات از زنان در فضاهای عمومی مانند مترو عکس گرفته میشود و آن تصاویر ممکن است بعداً به صورت آنلاین ظاهر شوند.
او میگوید: «شاید آنقدر که فکر میکنید رایج نباشد، اما شما که از شانس خود خبر ندارید، درست است؟ دوستانِ دوستان ما در حال باجگیری شدن هستند – به معنای واقعی کلمه، از طریق اینترنت.»
لاکشانه میگوید که او اکنون اغلب در رویدادها، حتی آنهایی که در آنها سخنران است، درخواست میکند که از او عکس گرفته نشود. اما با وجود رعایت احتیاط، او برای این احتمال که ممکن است روزی یک ویدیو یا تصویر دیپفیک از او منتشر شود، آماده است. در اپلیکیشنها، او به جای عکس، تصویری از خودش را به عنوان عکس پروفایل قرار داده است.
او میگوید: «ترس از سوءاستفاده از تصاویر وجود دارد، به ویژه برای زنانی که حضور عمومی دارند، در فضای آنلاین صاحب صدا هستند و مواضع سیاسی اتخاذ میکنند.»
گزارش بنیاد راتی تشریح میکند که چگونه ابزارهای هوش مصنوعی، مانند اپلیکیشنهای «برهنهساز» – که میتوانند لباس را از روی تصاویر حذف کنند – باعث شدهاند موارد آزاری که زمانی شدید و نادر تلقی میشدند، بسیار رایجتر شوند. در یک مورد که در گزارش توصیف شده، زنی پس از آنکه عکسی که برای درخواست وام ارسال کرده بود برای اخاذی از او استفاده شد، به خط تلفن مراجعه کرد.
در گزارش آمده است: «وقتی او از ادامه پرداختها خودداری کرد، عکس آپلودشدهاش با استفاده از یک اپلیکیشن برهنهساز به صورت دیجیتالی تغییر داده شد و روی یک تصویر پورنوگرافیک قرار گرفت.»
آن عکس، به همراه شماره تلفنش، در واتساپ پخش شد و منجر به «سیل تماسها و پیامهای جنسی صریح از سوی افراد ناشناس» شد. آن زن به خط تلفن راتی گفت که احساس «شرمساری و انگ اجتماعی» میکند، گویی که «درگیر کار کثیفی شده است.»

در هند، مانند بسیاری از نقاط جهان، دیپفیکها در یک منطقه خاکستری قانونی فعالیت میکنند – هیچ قانون خاصی آنها را به عنوان اشکال متمایز آسیب به رسمیت نمیشناسد، اگرچه گزارش راتی به چندین قانون هند اشاره میکند که میتوانند در مورد آزار و اذیت و ارعاب آنلاین اعمال شوند و زنان میتوانند بر اساس آنها دیپفیکهای هوش مصنوعی را گزارش دهند.
سارواییا، که استدلال کرده است که سیستم حقوقی هند هنوز برای مقابله با دیپفیکهای هوش مصنوعی مجهز نیست، میگوید: «اما این فرآیند بسیار طولانی است و برای رسیدن به نقطهای که برای آنچه انجام شده عدالت اجرا شود، بوروکراسی زیادی دارد.»
بخشی از مسئولیت بر عهده پلتفرمهایی است که این تصاویر در آنها به اشتراک گذاشته میشوند – اغلب یوتیوب، متا، ایکس، اینستاگرام و واتساپ. بر اساس گزارشی که روز سهشنبه توسط Equality Now، سازمانی که برای حقوق زنان کمپین میکند، منتشر شد، سازمانهای اجرای قانون هند فرآیند وادار کردن این شرکتها به حذف محتوای توهینآمیز را «غیرشفاف، نیازمند منابع زیاد، ناهماهنگ و اغلب ناکارآمد» توصیف میکنند.
در حالی که اپل و متا اخیراً اقداماتی را برای محدود کردن گسترش اپلیکیشنهای برهنهساز انجام دادهاند، گزارش راتی به چندین مورد اشاره میکند که در آنها این پلتفرمها به آزار و اذیت آنلاین به طور ناکافی پاسخ دادهاند.
بنیاد راتی گزارش داد که واتساپ در نهایت در پرونده اخاذی اقدام کرد اما پاسخ آن «ناکافی» بود، زیرا تصاویر برهنه دیگر در سراسر اینترنت پخش شده بودند. در موردی دیگر، که یک تولیدکننده محتوای هندی در اینستاگرام توسط یک ترول که ویدیوهای برهنه از او منتشر میکرد مورد آزار قرار گرفت، اینستاگرام تنها پس از «تلاش مستمر» با پاسخی «دیرهنگام و ناکافی» واکنش نشان داد.
این گزارش میگوید که قربانیان اغلب هنگام گزارش آزار و اذیت به این پلتفرمها نادیده گرفته میشدند، که باعث میشد به خط تلفن مراجعه کنند. علاوه بر این، حتی اگر یک پلتفرم حسابی را که محتوای توهینآمیز پخش میکرد حذف کند، آن محتوا اغلب در جای دیگری دوباره ظاهر میشد، پدیدهای که راتی آن را «بازگشت محتوا» مینامد.
راتی میگوید: «یکی از ویژگیهای پایدار آزار و اذیت تولیدشده توسط هوش مصنوعی، تمایل آن به تکثیر است. به راحتی ایجاد میشود، به طور گسترده به اشتراک گذاشته میشود و تمایل دارد بارها و بارها ظاهر شود.» رسیدگی به آن «نیازمند شفافیت و دسترسی به دادههای بسیار بیشتری از خود پلتفرمها خواهد بود.»