متا در اروپا در مورد خطرات ایمنی کودکان در اینستاگرام با سوالات بیشتری مواجه است

متا درخواست رسمی دیگری برای اطلاعات (RFI) از قانون‌گذاران اتحادیه اروپا دریافت کرده است که در آن درخواست جزئیات بیشتر در مورد پاسخ خود به نگرانی‌های ایمنی کودکان در اینستاگرام – از جمله اقداماتی که برای مبارزه با خطرات مرتبط با اشتراک‌گذاری مطالب سوء استفاده ، از کودکان توسط خود ایجاد می‌کند (SG-) شده است. CSAM) در شبکه اجتماعی.

این درخواست بر اساس مقررات آنلاین بلوک که اخیراً راه‌اندازی مجدد شده است، قانون خدمات دیجیتال (DSA) انجام می‌شود که از اواخر ماه اوت برای پلتفرم‌های بزرگتر (از جمله اینستاگرام) اعمال می‌شود.

DSA تعهدی را برای Big Tech برای مبارزه با محتوای غیرقانونی، از جمله با اعمال تدابیر و محافظت‌هایی برای جلوگیری از سوء استفاده از خدمات آنها، تحمیل می‌کند. این مقررات همچنین تاکید زیادی بر حمایت از خردسالان دارد. بنابراین تعجب آور نیست که تعدادی از درخواست های اولیه برای اطلاعات توسط کمیسیون اروپا در مورد ایمنی کودکان صادر شده است.

آخرین درخواست کمیسیون از متا به دنبال گزارش WSJ است که نشان می‌دهد اینستاگرام در حال تلاش برای رفع مشکل CSAM است که در تابستان امسال افشا شد – زمانی که گزارش داد الگوریتم‌های اینستاگرام شبکه‌ای از حساب‌ها را به هم متصل می‌کنند که برای ایجاد حساب‌ها استفاده می‌شوند. ، خرید و تبادل محتوای ، با خردسالان.

در ژوئن، پس از افشای WSJ، اتحادیه اروپا به متا هشدار داد که اگر به سرعت برای حل مسائل مربوط به حمایت از کودکان اقدام نکند، با خطر “تحریم های سنگین” مواجه خواهد شد.

اکنون، چند ماه بعد، گزارش دیگری از WSJ ادعا می‌کند که متا در رسیدگی به مسائل شناسایی‌شده شکست خورده است – علی‌رغم اینکه این شرکت یک کارگروه ایمنی کودکان را ایجاد کرده است تا از «سیستم‌های خود از فعال‌سازی و حتی تبلیغ شبکه گسترده حساب‌های پدوفیل» جلوگیری کند. . همانطور که روزنامه می گوید.

  Microsoft Project Pro یا Microsoft Visio Pro را با 20 دلار دریافت کنید

او گزارش می‌دهد: «پنج ماه بعد، آزمایش‌های انجام‌شده توسط مجله و همچنین مرکز کانادایی حمایت از کودکان نشان می‌دهد که سیستم‌های توصیه متا همچنان چنین محتوایی را تبلیغ می‌کنند (یعنی حساب‌های اختصاصی برای تولید و اشتراک‌گذاری محتوای ، با خردسالان). این شرکت هشتگ‌های مرتبط با پدوفیلیا را حذف کرده است، اما سیستم‌های آن گاهی اوقات هشتگ‌های جدیدی را با تغییرات جزئی توصیه می‌کنند. حتی زمانی که متا به حساب‌ها و گروه‌های کاربری مشکل‌دار هشدار داده می‌شود، نتوانسته است آنها را حذف کند.

عملکرد نابرابر متا در مبارزه با اشتراک‌گذاری غیرقانونی CSAM/SG-CSAM و عدم اقدام مؤثر در مورد خطرات مربوط به ایمنی کودکان می‌تواند هزینه گزافی برای شرکت در اتحادیه اروپا داشته باشد: DSA به کمیسیون این اختیار را می‌دهد تا جریمه‌هایی تا 6 درصد از مبلغ جریمه‌ها را اعمال کند. گردش مالی کلی سالانه اگر تشخیص دهد که قوانین مقررات نقض شده است.

کمی بیش از یک سال پیش، متا کمتر از نیم میلیارد دلار جریمه شد، زیرا اینستاگرام قوانین اروپا را برای محافظت از داده‌های خردسالان نقض کرد.

«کمیسیون از متا می‌خواهد اطلاعات بیشتری در مورد اقداماتی که برای پیروی از تعهدات ارزیابی ریسک انجام داده و اقدامات مؤثر کاهش‌دهنده مربوط به حفاظت از خردسالان، از جمله در مورد پخش SG-CSAM در اینستاگرام، ارائه دهد. همچنین اطلاعاتی در مورد سیستم توصیه اینستاگرام و تقویت محتوای بالقوه مضر درخواست شده است.

علاوه بر احتمال تحریم‌های مالی، اگر تنظیم‌کننده‌های اروپایی مکررا رویکرد آن را برای حمایت از خردسالان زیر سوال ببرند، می‌تواند شهرت متا در خطر باشد.

این سومین متای RFI است که از زمانی که انطباق DSA در این شرکت اعمال شد – و دومین موردی است که بر ایمنی کودکان در اینستاگرام تمرکز دارد. (اتحادیه اروپا همچنین از متا جزئیات بیشتری در مورد مدیریت خطرات محتوای مربوط به جنگ بین اسرائیل و حماس و اقداماتی که برای تضمین امنیت انتخابات انجام می دهد، خواست.)

  تصویر روز ناسا: ابرهای هیدروژنی M33

تاکنون، اتحادیه اروپا هیچ گونه رویه تحقیق رسمی تحت DSA را اعلام نکرده است. اما موج اول درخواست اطلاعات نشان می‌دهد که این شرکت در حال انجام ارزیابی‌هایی است که می‌تواند منجر به چنین اقدامی شود و در صورت تایید تخلف، راه را برای تحریم‌های بعدی هموار کند.

متا تا 22 دسامبر فرصت داده شده است تا آخرین بخش از داده های ایمنی کودک درخواست شده را به کمیسیون ارائه دهد. عدم رعایت RFIها – برای مثال با ارسال اطلاعات نادرست، ناقص یا گمراه کننده در پاسخ به یک درخواست – ممکن است منجر به تحریم DSA شود.

برای اظهار نظر در مورد آخرین RFI با متا تماس گرفته شد.

منبع: https://techcrunch.com/2023/12/01/meta-dsa-rfi-2-child-safety/