تبلیغات توییتر توسط برندهای برتر به دلیل استثمار کودکان به حالت تعلیق درآمد


دست‌کم 30 تبلیغ‌کننده بزرگ پس از اینکه مشخص شد تبلیغات آنها در کنار توییت‌هایی که محتوای غیرقانونی کودک آزاری را درخواست می‌کنند، نمایش داده می‌شود، تبلیغات را در توییتر کنار گذاشتند.

به عنوان مثال، یک توییت تبلیغ شده توسط بیمارستان کودکان اسکاتلندی رایت در تگزاس در کنار توئیت های سمی مرتبط با سوء استفاده جنسی از کودکان نشان داده شد.

شورش تبلیغ کنندگان علیه توییتر

رویترز گزارش داد که حداقل 30 برند بزرگ حساب های خود را متوقف کرده اند، زمانی که مشخص شد توییت های تبلیغاتی آنها در کنار توییت های سمی نشان داده شده است.

به نقل از یک سخنگوی توییتر، تحقیقات و نتیجه‌گیری‌های شرکت امنیت سایبری (که توییت‌ها و حساب‌ها را در بیست روز اول سپتامبر ۲۰۲۲ مورد مطالعه قرار داد) نشان‌دهنده تلاش‌های توییتر برای مبارزه با فعالیت‌های غیرقانونی نیست.

اما مقاله رویترز به نقل از چندین تبلیغ کننده برندهای بزرگ اشاره کرد که به آنها اطلاع داده شد که تبلیغات آنها در کنار توییت های سمی ظاهر شده است.

رویترز به نقل از یکی از مدیران کول هان گفت:

دیوید مدوکس، رئیس برند کول هان، پس از اطلاع از اینکه تبلیغات این شرکت در کنار چنین توییت هایی ظاهر شده است، به رویترز گفت: «ما وحشت زده ایم.

«یا توییتر این مشکل را برطرف می‌کند، یا ما آن را به هر وسیله‌ای که می‌توانیم، که شامل نخریدن تبلیغات توییتر هم می‌شود، برطرف خواهیم کرد.»

ناتوانی توییتر در تشخیص دقیق محتوای سمی

پیشینه مشکل محتوای سمی توییتر برای اولین بار در مقاله ای که توسط The Verge منتشر شد آشکار شد.

این مقاله یک پروژه توییتر برای ایجاد یک پلتفرم شبیه به OnlyFans را بازگو می کند که در آن کاربران می توانند برای به اشتراک گذاری محتوای غیراخلاقی جنسی پول پرداخت کنند.

قبل از راه‌اندازی سرویس جدید، توییتر گروهی از کارمندان را موظف کرد تا آزمایش کنند که آیا توییتر می‌تواند در حذف محتوای مضر موفق باشد تا این پلتفرم به اشتراک‌گذاری محتوای غیرقانونی واگذار نشود.

این گروه از کارمندان را تیم قرمز می نامیدند.

پروژه توییتر زمانی متوقف شد که تیم قرمز تشخیص داد توییتر قادر به تشخیص محتوای توهین آمیز و سمی نیست.

طبق مقاله The Verge:

«آنچه تیم قرمز کشف کرد، پروژه را از مسیر خارج کرد: توییتر نمی‌توانست با خیال راحت به سازندگان بزرگسال اجازه دهد اشتراک‌ها را بفروشند، زیرا این شرکت به طور مؤثر محتوای جنسی مضر در این پلتفرم را کنترل نمی‌کرد – و هنوز هم نیست.

تیم Red در آوریل 2022 به این نتیجه رسید: «تویتر نمی‌تواند به‌دقت استثمار جنسی کودکان و برهنگی بدون رضایت را در مقیاس بزرگ تشخیص دهد.» تیم دریافت که این شرکت همچنین فاقد ابزارهایی برای تأیید اینکه سازندگان و مصرف‌کنندگان محتوای بزرگسالان در سن قانونی هستند، وجود ندارد.

بنابراین، در بهار 2022 توییتر به این نتیجه رسید که برای راه اندازی این سرویس مجهز نیست و آن را متوقف کرد.

با این حال، به گفته شرکت امنیت سایبری Ghost Data، توییتر همچنان در دستگیری کاربران سرکش و حساب‌هایی که محتوای غیرقانونی را به اشتراک می‌گذاشتند، با مشکل مواجه بود.

Ghost Data تحقیقاتی را در سپتامبر 2022 انجام داد تا کشف کند که مشکل استثمار کودکان در توییتر چقدر گسترده است.

با شروع با گروهی از حساب‌های شناخته شده استثمار کودکان، آنها حساب‌های سمی را از طریق پیوندهای اجتماعی فالوور بین حساب‌ها ترسیم کردند و در نهایت بیش از 500 حساب مسئول نزدیک به 5000 توییت مربوط به فعالیت‌های غیرقانونی کودک آزاری را شناسایی کردند.

محققان خاطرنشان کردند که این حساب‌ها همگی به زبان انگلیسی هستند و در مورد شبکه‌های توئیتر کودک آزاری به زبان‌های دیگر تحقیق نکرده‌اند.

آنها به این نتیجه رسیدند که تحقیقات بیشتر در مورد حساب‌های موجود در حساب‌های غیرانگلیسی ممکن است حتی کاربران بیشتری را نشان دهد که محتوای کودک آزاری را به اشتراک می‌گذارند.

محققان ادعا می کنند توییتر بی اثر است

یک یافته شگفت‌انگیز از این گزارش این است که توییتر در طول دوره تحقیقاتی که بیست روز اول سپتامبر 2022 را پوشش می‌دهد، تنها علیه بیش از 25 درصد از حساب‌هایی که به‌عنوان اشتراک‌گذاری محتوای صریح کودک آزاری شناسایی کرده‌اند، اقدام کرد.

محققان نوشتند (PDF):

ما متوجه شدیم که توییتر (sic) کمتر از 30٪ (27.5٪) از کاربرانی را که به طور عمومی پیوندها، مطالب و مراجع پورنوگرافی کودکان را به اشتراک گذاشته بودند، در 20 روز اول سپتامبر معلق کرد.

تا به امروز، هنوز بیش از 400 کاربر پس از «پاکسازی» فعال هستند.

بسیاری از این کاربران ماه‌هاست که فعال بوده‌اند.»

محققان به این نتیجه رسیدند که اگرچه بسیاری از فعالیت‌ها و حساب‌های غیرقانونی را در توییتر شناسایی کردند، اما تخمین می‌زنند که این تنها کسری از دامنه واقعی مشکل است.

آنها مشاهده کردند که توییتر می تواند کار بهتری در توقف فعالیت های سمی انجام دهد:

«این نتایج مشکل نگران‌کننده‌ای را تأیید می‌کند که قبلاً توسط کارمندان داخلی کشف شده و توسط رسانه‌های آنلاین افشا شده است: توییتر (sic) نمی‌تواند به‌طور دقیق استثمار جنسی از کودکان را تشخیص دهد و مدیران آن تقریباً هیچ کاری برای رسیدگی به این فاجعه انجام نمی‌دهند.

ما همچنین شواهدی را کشف کردیم که نشان می‌دهد چنین سیاست‌های سهل‌آمیز در مورد محتوای مستهجن، کاربران را به پست کردن ویدیوهای غیررضایت‌آمیز و تجاوز جنسی ترغیب می‌کند، به غیر از خردسالانی که تلاش می‌کنند محتوای برهنگی یا جنسی خود را بفروشند.

احتمالاً یک سرمایه‌گذاری متوسط ​​و یک تیم اختصاصی، حتی با استفاده از تکنیک‌های اولیه خودمان، برای یافتن آسان و کاهش شدید فعالیت‌های غیرقانونی کافی است.»

نتیجه گیری شرکت امنیت سایبری Ghost Data ظاهراً با بیانیه منتشر شده توسط توییتر و گزارش رویترز مبنی بر «تحمل صفر» برای این نوع فعالیت‌ها در تناقض است، زیرا ماه‌هاست که تیم قرمز توییتر مشکلاتی را در تشخیص محتوای سمی شناسایی کرده است.

رویترز همچنین گزارش داد که توییتر اعلام کرده است که کارکنان بیشتری را برای “اجرای راه حل ها” استخدام می کند.


استناد

گزارش کامل شرکت امنیت سایبری Ghost Data (PDF) را بخوانید.

گزارش رویترز را بخوانید

برندهای انحصاری توییتر را برای تبلیغات در کنار اکانت های پورنوگرافی کودکان منفجر می کنند

گزارش The Verge را بخوانید که چگونه توییتر یک رقیب OnlyFans را کنار گذاشت

چگونه مشکل پورن کودک توییتر برنامه های آن را برای یک رقیب OnlyFans خراب کرد

تصویر برجسته توسط Shutterstock/Pixel-Shot





منبع