در اخبار این هفته
- استیکرهای متا تولید شده توسط هوش مصنوعی که هفته گذشته عرضه شد، هستند در حال حاضر باعث هرج و مرج شده است. کاربران به سرعت متوجه شدند که می توانند از آنها برای ایجاد تصاویر زشت مانند ایلان ماسک با سینه ها، سربازان کودک و نسخه های تشنه به خون شخصیت های دیزنی استفاده کنند. همینطور برای ویژگی تولید تصویر Bing مایکروسافت، که جرقه ای را ایجاد کرد که در آن کاربران تصاویری از افراد مشهور و شخصیت های بازی های ویدیویی ایجاد می کنند. حملات 11 سپتامبر را انجام دهید.
- در سانفرانسیسکو یک نفر دیگر بر اثر رباتاکسی کروز مجروح شد. مقتول ابتدا با ماشینی که توسط انسان هدایت می شد مورد اصابت قرار گرفت اما بعداً مورد اصابت قرار گرفت توسط خودروی خودکار له شده است، که روی او ایستاد و با وجود گریه های او حاضر به حرکت نشد. به نظر می رسد همین است “بهبود ایمنی جاده ها” آنچه سازندگان خودروهای خودران در بیانیه ماموریت خود انجام داده اند هنوز به نتیجه نرسیده است.
- آخرین اما نه کم اهمیت: یک گزارش جدید نشان می دهد که هوش مصنوعی در حال حاضر توسط دولت های خودکامه در سراسر جهان مورد استفاده قرار می گیرد. خانه آزادی یافت که رهبران از ابزارهای جدید هوش مصنوعی برای سرکوب مخالفان و انتشار اطلاعات نادرست آنلاین استفاده می کنند. ما با یکی از محققان مرتبط با گزارش مصاحبه این هفته مصاحبه کردیم.
داستان برتر: کودتای خلاقانه هوش مصنوعی
اگرچه مروجین صنعت مولد هوش مصنوعی از اعتراف آن بیزارند، محصولات آنها نه مولد هستند و نه به ویژه هوشمند. در عوض، محتوای خودکاری که پلتفرمهایی مانند ChatGPT و DALL-E آن را با قدرت شدید رد میکنند، ممکن است بهطور دقیقتر بهعنوان شیب مشتقشده توصیف شود – بازگرداندن یک ترکیب الگوریتمی از هزاران اثر خلاق واقعی که توسط هنرمندان و نویسندگان انسانی خلق شدهاند. به طور خلاصه: “هنر” هوش مصنوعی هنر نیست: این فقط یک محصول تجاری خسته کننده است که توسط نرم افزار تولید شده و برای ادغام آسان سازمانی طراحی شده است. یک کمیسیون تجارت فدرال حضاربه طور مجازی از طریق پخش زنده اینترنتی سازماندهی شد، این واقعیت را به وضوح نشان داد.
جلسه استماع این هفته، با عنوان «اقتصاد خلاق و هوش مصنوعی مولد» طراحی شده است تا به نمایندگان مشاغل مختلف خلاق اجازه دهد تا نگرانی های خود را در مورد اختلالات فناوری اخیر که صنایع آنها را فرا گرفته است، بیان کنند. از همه طرفها یک درخواست قوی برای مقررات مؤثر برای محافظت از کارگران وجود دارد.
این تمایل به این اقدام احتمالاً توسط داگلاس پرستون، یکی از ده ها نویسنده ای که در حال حاضر به عنوان شاکیان در یک دعوای حقوقی دسته جمعی علیه OpenAI ذکر شده است، نشان داده شده است. این شرکت از سخت افزار خود برای آموزش الگوریتم های خود استفاده می کند. طی سخنان خود، پرستون اشاره کرد که “ChatGPT بدون کتابهای ما مزخرف و بیفایده خواهد بود” و افزود: “تصور کنید اگر فقط از متون برگرفته از وبلاگهای وب، نظرات، داستانهای گربهها، پورنوگرافی و غیره شکل میگرفت، چگونه میشد.” او در نهایت گفت: این کار زندگی ماست، ما دل و جان خود را در کتاب هایمان می ریزیم. »
مشکل برای هنرمندان بسیار زیبا به نظر می رسد واضح: حالشون چطوره در بازاری زنده خواهند ماند که در آن شرکتهای بزرگ میتوانند از هوش مصنوعی برای جایگزینی آنها استفاده کنند یا به عبارت دقیقتر، فرصتها و قدرت چانهزنی خود را با خودکار ، بخش بزرگی از خدمات خلاق کاهش دهند.?
در همین حال، مشکل شرکتهای هوش مصنوعی این است که سؤالات حقوقی حلنشدهای در رابطه با بایتهای بیشماری کار اختصاصی وجود دارد که شرکتهایی مانند OpenAI برای آموزش الگوریتمهای جایگزین هنرمندان خود استفاده کردهاند.نویسندگان/موسیسینها. ChatGPT نمیتوانست با یک کلیک شعر و داستان کوتاه بسازد، و DALL-E نیز توانایی پخش تصاویر عجیب و غریب خود را نداشت، اگر شرکت پشت آن دهها هزار صفحه از نویسندگان و تصاویر منتشر شده را نخورده بود. . هنرمندان بنابراین، آینده صنعت هوش مصنوعی – و در واقع آینده خلاقیت انسان – با یک بحث مداوم در حال حاضر در سیستم قضایی ایالات متحده تعیین خواهد شد.
مصاحبه: الی فانک توضیح می دهد که چگونه هوش مصنوعی توسط حکومت های خودکامه مسلح می شود
این هفته ما این لذت را داشتیم که با الی فانک، مدیر تحقیقات فناوری و دموکراسی در خانه آزادی صحبت کنیم. خانه آزادی، که آزادی های مدنی و مسائل حقوق بشر را در سراسر جهان دنبال می کند، اخیرا گزارش سالانه وضعیت آزادی اینترنت خود را منتشر کرده است. امسال گزارش تمرکز بر این است که چگونه ابزارهای هوش مصنوعی جدید، رویکردهای دولتهای مستبد را برای سانسور، اطلاعات نادرست و سرکوب کلی آزادیهای دیجیتال تقویت میکنند. همانطور که ممکن است انتظار داشته باشید، اوضاع در این بخش به خوبی پیش نمی رود. این مصاحبه برای وضوح و اختصار کمی ویرایش شده است.
یکی از نکات کلیدی که در گزارش درباره آن صحبت می کنید این است که چگونه هوش مصنوعی به سانسور دولتی کمک می کند. ممکن است کمی در مورد این نتایج به ما بگویید؟
چیزی که ما کشف کردیم این است که هوش مصنوعی در واقع به دولت ها اجازه می دهد تا رویکرد خود را به سانسور توسعه دهند. دولت چین، به ویژه، تلاش کرده است تا چت بات ها را تنظیم کند تا کنترل آنها بر اطلاعات را تقویت کند. آنها این کار را با دو روش مختلف انجام می دهند. اولین مورد این است که آنها تلاش می کنند اطمینان حاصل کنند که شهروندان چینی به چت بات های ایجاد شده توسط شرکت های مستقر در ایالات متحده دسترسی ندارند. آنها شرکت های فناوری چینی را مجبور می کنند که ChatGPT را در محصولات خود ادغام نکنند… آنها همچنین در حال کار برای ایجاد ربات های گفتگوی خود هستند تا بتوانند چک های سانسور را در داده های آموزشی ربات های خود ایجاد کنند. مقررات دولتی ایجاب میکند که دادههای آموزشی ارنی، ربات چت بایدو، با آنچه حکچ (حزب جامعه چین) میخواهد و با عناصر اساسی تبلیغات سوسیالیستی مطابقت داشته باشد. اگر با آن بازی کنید می توانید این را ببینید. او از پاسخ دادن به سوالات در مورد کشتار میدان تیان آن من خودداری می کند.
اطلاعات نادرست یکی دیگر از زمینه هایی است که شما در مورد آن صحبت می کنید. کمی در مورد اینکه هوش مصنوعی با این فضا چه می کند توضیح دهید.
ما سالهاست که این گزارشها را مینویسیم و آنچه واضح است این است که کمپینهای اطلاعات نادرست دولتی این روزها فقط یک ویژگی عادی فضای اطلاعاتی است. در گزارش امسال، ما متوجه شدیم که از 70 کشور، حداقل 47 دولت مفسرانی را به کار گرفتند که از تاکتیکهای فریبنده یا پنهانی برای دستکاری در بحثهای آنلاین استفاده کردند. این شبکههای (اطلاعات غلط) برای مدت طولانی وجود داشتهاند. در بسیاری از کشورها آنها کاملاً پیچیده هستند. بازار کاملی از خدمات برای استخدام برای حمایت از این نوع کمپین ها پدید آمده است. بنابراین میتوانید به سادگی یک اینفلوئنسر رسانههای اجتماعی یا سایر عوامل مشابه را استخدام کنید تا برای شما کار کند و بسیاری از شرکتهای روابط عمومی پنهانی وجود دارند که این نوع کار را برای دولتها انجام میدهند.
من فکر می کنم مهم است که بدانیم هوش مصنوعی برای مدت طولانی بخشی از کل این فرآیند اطلاعات نادرست بوده است. شما الگوریتم های پلتفرمی دارید که مدت هاست برای انتشار اطلاعات تحریک آمیز یا غیرقابل اعتماد استفاده می شود. شما ربات هایی دارید که در شبکه های اجتماعی برای تسهیل توزیع این کمپین ها استفاده می شوند. بنابراین استفاده از هوش مصنوعی برای اهداف نادرست جدید نیست. اما ما انتظار داریم هوش مصنوعی مولد مانع ورود به بازار اطلاعات نادرست را کاهش دهد زیرا بسیار مقرون به صرفه، استفاده آسان و در دسترس است. وقتی در مورد این فضا صحبت می کنیم، فقط در مورد چت بات ها صحبت نمی کنیم، بلکه در مورد ابزارهایی صحبت می کنیم که می توانند تصاویر، ویدیوها و صدا تولید کنند.
به نظر شما، چه نوع راهحلهای نظارتی باید برای کاهش آسیبهایی که هوش مصنوعی آنلاین میتواند ایجاد کند در نظر گرفت؟
ما معتقدیم که بسیاری از درسهای آموختهشده از بحثهای دهه گذشته در مورد خطمشی اینترنت را میتوان برای هوش مصنوعی به کار برد. بسیاری از توصیههایی که قبلاً در مورد آزادی اینترنت ارائه کردهایم میتوانند در مبارزه با هوش مصنوعی مفید باشند. بنابراین، برای مثال، برای دولتها میتواند بسیار مفید باشد که بخش خصوصی را مجبور به شفافتر ، در مورد نحوه طراحی محصولات و تأثیر آن بر حقوق بشر کنند. در این میان، تحویل دادهها از پلتفرم به محققان مستقل یکی دیگر از توصیههای کلیدی است که ارائه کردهایم. محققان مستقل میتوانند تأثیر پلتفرمها بر جمعیتها، تأثیر آنها بر حقوق بشر را مطالعه کنند. چیز دیگری که من واقعاً توصیه می کنم تقویت مقررات حفظ حریم خصوصی و اصلاح قوانین نظارت مشکل ساز است. یکی از مواردی که قبلاً به آن نگاه کردیم، مقرراتی است که تضمین می کند دولت ها نمی توانند از ابزارهای نظارتی هوش مصنوعی سوء استفاده کنند.
به همه چیز رسیدگی کن اخبار هوش مصنوعی Gizmodo در اینجایا ببینید همه آخرین اخبار اینجا. برای به روز رسانی روزانه، در خبرنامه رایگان Gizmodo مشترک شوید.
منبع: https://gizmodo.com/ai-this-week-ais-threat-to-creative-freedom-1850903052