با شروع فصل انتخابات در سراسر جهان، متا در ماههای آینده شروع به برچسبگذاری عکسهای تولید شده توسط هوش مصنوعی در فیسبوک، اینستاگرام و Threads خواهد کرد. این شرکت همچنین شروع به مجازات کاربرانی خواهد کرد که نتوانند فاش کنند که آیا ویدیو یا قطعه صوتی واقعی با هوش مصنوعی ساخته شده است.
نیک کلگ، رئیس امور جهانی متا، در مصاحبه ای گفت که هدف از این حرکت ها “گالوانیزه ،” صنعت فناوری است زیرا تشخیص رسانه های تولید شده توسط هوش مصنوعی از واقعیت به طور فزاینده ای دشوار می شود. کاخ سفید بر شرکتها فشار آورده است تا محتوای تولید شده توسط هوش مصنوعی را واترمارک کنند. به گفته کلگ، در همین حال، متا در حال ساخت ابزارهایی برای شناسایی رسانه های مصنوعی است، حتی اگر ابرداده های آن برای پنهان ، نقش هوش مصنوعی در ایجاد آن تغییر یافته باشد.
متا در حال حاضر واترمارک “Imagined with AI” را روی تصاویر ایجاد شده با مولد Imagine AI خود اعمال کرده است و این شرکت همین کار را برای عکس های تولید شده توسط هوش مصنوعی که با ابزارهایی از Google، OpenAI، Microsoft، Adobe، Midjourney و Shutterstock ساخته شده اند، آغاز خواهد کرد. کلگ گفت که صنعت در ساخت استانداردهای شناسایی ویدیو و صدای تولید شده توسط هوش مصنوعی عقب تر است. و در حالی که متا در مورد چگونگی استفاده از چنین رسانههایی برای فریب دادن در حالت آمادهباش قرار دارد، این شرکت نمیتواند به تنهایی همه چیز را بفهمد.
او گفت: «برای کسانی که نگران این هستند که محتوای ویدیویی و صوتی برای گمراه ، مادی مردم در مورد یک موضوع مهم سیاسی در آستانه انتخابات طراحی شده است، ما کاملاً هوشیار خواهیم بود. “آیا فکر میکنم ممکن است اتفاقی بیفتد و حتی اگر سریع تشخیص داده شود یا به سرعت شناسایی شود، باز هم به نوعی متهم به انداختن توپ هستیم؟ بله، من فکر می کنم ممکن است، حتی محتمل.
کلگ گفت که متا به زودی از کاربران خود می خواهد تا زمانی که پست های ویدیویی یا صوتی واقعی با هوش مصنوعی ساخته می شوند را فاش کنند. او گفت که اگر آنها این کار را انجام ندهند، “محدوده تحریم هایی که اعمال خواهد شد، دامنه ای از هشدار تا حذف” پست متخلف را در بر خواهد گرفت.
در حال حاضر نمونههای زیادی از پستهای ویروسی ایجاد شده توسط هوش مصنوعی از سوی سیاستمداران وجود دارد، اما کلگ شانس تسلط این پدیده بر پلتفرم متا را در طول یک سال انتخاباتی کم اهمیت جلوه داد. او گفت: «من فکر میکنم بعید است که شما یک ویدیو یا صوتی کاملاً مصنوعی، با اهمیت سیاسی بسیار مهم، که ما به اندازه کافی سریع آن را نبینیم، دریافت کنید. “فقط فکر نمیکنم اوضاع اینطور پیش برود.”
متا همچنین شروع به آزمایش داخلی استفاده از مدلهای زبان بزرگ (LLM) میکند که بر اساس استانداردهای جامعه خود آموزش دیدهاند و آن را «مکانیسم مرتبسازی» مؤثر برای دهها هزار ناظر انسانی خود مینامد. “به نظر می رسد روشی بسیار موثر و بسیار دقیق برای اطمینان از اینکه آنچه به ارزیاب های انسانی ما داده می شود، در واقع همان موارد حاشیه ای است که شما می خواهید قضاوت انسانی برای آنها داشته باشید.”
منبع: https://www.theverge.com/2024/2/6/24062388/meta-ai-photo-watermark-facebook-instagram-threads