متا درخواست رسمی دیگری برای اطلاعات (RFI) از قانونگذاران اتحادیه اروپا دریافت کرده است که در آن درخواست جزئیات بیشتر در مورد پاسخ خود به نگرانیهای ایمنی کودکان در اینستاگرام – از جمله اقداماتی که برای مبارزه با خطرات مرتبط با اشتراکگذاری مطالب سوء استفاده ، از کودکان توسط خود ایجاد میکند (SG-) شده است. CSAM) در شبکه اجتماعی.
این درخواست بر اساس مقررات آنلاین بلوک که اخیراً راهاندازی مجدد شده است، قانون خدمات دیجیتال (DSA) انجام میشود که از اواخر ماه اوت برای پلتفرمهای بزرگتر (از جمله اینستاگرام) اعمال میشود.
DSA تعهدی را برای Big Tech برای مبارزه با محتوای غیرقانونی، از جمله با اعمال تدابیر و محافظتهایی برای جلوگیری از سوء استفاده از خدمات آنها، تحمیل میکند. این مقررات همچنین تاکید زیادی بر حمایت از خردسالان دارد. بنابراین تعجب آور نیست که تعدادی از درخواست های اولیه برای اطلاعات توسط کمیسیون اروپا در مورد ایمنی کودکان صادر شده است.
آخرین درخواست کمیسیون از متا به دنبال گزارش WSJ است که نشان میدهد اینستاگرام در حال تلاش برای رفع مشکل CSAM است که در تابستان امسال افشا شد – زمانی که گزارش داد الگوریتمهای اینستاگرام شبکهای از حسابها را به هم متصل میکنند که برای ایجاد حسابها استفاده میشوند. ، خرید و تبادل محتوای ، با خردسالان.
در ژوئن، پس از افشای WSJ، اتحادیه اروپا به متا هشدار داد که اگر به سرعت برای حل مسائل مربوط به حمایت از کودکان اقدام نکند، با خطر “تحریم های سنگین” مواجه خواهد شد.
اکنون، چند ماه بعد، گزارش دیگری از WSJ ادعا میکند که متا در رسیدگی به مسائل شناساییشده شکست خورده است – علیرغم اینکه این شرکت یک کارگروه ایمنی کودکان را ایجاد کرده است تا از «سیستمهای خود از فعالسازی و حتی تبلیغ شبکه گسترده حسابهای پدوفیل» جلوگیری کند. . همانطور که روزنامه می گوید.
او گزارش میدهد: «پنج ماه بعد، آزمایشهای انجامشده توسط مجله و همچنین مرکز کانادایی حمایت از کودکان نشان میدهد که سیستمهای توصیه متا همچنان چنین محتوایی را تبلیغ میکنند (یعنی حسابهای اختصاصی برای تولید و اشتراکگذاری محتوای ، با خردسالان). این شرکت هشتگهای مرتبط با پدوفیلیا را حذف کرده است، اما سیستمهای آن گاهی اوقات هشتگهای جدیدی را با تغییرات جزئی توصیه میکنند. حتی زمانی که متا به حسابها و گروههای کاربری مشکلدار هشدار داده میشود، نتوانسته است آنها را حذف کند.
عملکرد نابرابر متا در مبارزه با اشتراکگذاری غیرقانونی CSAM/SG-CSAM و عدم اقدام مؤثر در مورد خطرات مربوط به ایمنی کودکان میتواند هزینه گزافی برای شرکت در اتحادیه اروپا داشته باشد: DSA به کمیسیون این اختیار را میدهد تا جریمههایی تا 6 درصد از مبلغ جریمهها را اعمال کند. گردش مالی کلی سالانه اگر تشخیص دهد که قوانین مقررات نقض شده است.
کمی بیش از یک سال پیش، متا کمتر از نیم میلیارد دلار جریمه شد، زیرا اینستاگرام قوانین اروپا را برای محافظت از دادههای خردسالان نقض کرد.
«کمیسیون از متا میخواهد اطلاعات بیشتری در مورد اقداماتی که برای پیروی از تعهدات ارزیابی ریسک انجام داده و اقدامات مؤثر کاهشدهنده مربوط به حفاظت از خردسالان، از جمله در مورد پخش SG-CSAM در اینستاگرام، ارائه دهد. همچنین اطلاعاتی در مورد سیستم توصیه اینستاگرام و تقویت محتوای بالقوه مضر درخواست شده است.
علاوه بر احتمال تحریمهای مالی، اگر تنظیمکنندههای اروپایی مکررا رویکرد آن را برای حمایت از خردسالان زیر سوال ببرند، میتواند شهرت متا در خطر باشد.
این سومین متای RFI است که از زمانی که انطباق DSA در این شرکت اعمال شد – و دومین موردی است که بر ایمنی کودکان در اینستاگرام تمرکز دارد. (اتحادیه اروپا همچنین از متا جزئیات بیشتری در مورد مدیریت خطرات محتوای مربوط به جنگ بین اسرائیل و حماس و اقداماتی که برای تضمین امنیت انتخابات انجام می دهد، خواست.)
تاکنون، اتحادیه اروپا هیچ گونه رویه تحقیق رسمی تحت DSA را اعلام نکرده است. اما موج اول درخواست اطلاعات نشان میدهد که این شرکت در حال انجام ارزیابیهایی است که میتواند منجر به چنین اقدامی شود و در صورت تایید تخلف، راه را برای تحریمهای بعدی هموار کند.
متا تا 22 دسامبر فرصت داده شده است تا آخرین بخش از داده های ایمنی کودک درخواست شده را به کمیسیون ارائه دهد. عدم رعایت RFIها – برای مثال با ارسال اطلاعات نادرست، ناقص یا گمراه کننده در پاسخ به یک درخواست – ممکن است منجر به تحریم DSA شود.
برای اظهار نظر در مورد آخرین RFI با متا تماس گرفته شد.
منبع: https://techcrunch.com/2023/12/01/meta-dsa-rfi-2-child-safety/