تهدید هوش مصنوعی برای آزادی خلاق

در اخبار این هفته

  • استیکرهای متا تولید شده توسط هوش مصنوعی که هفته گذشته عرضه شد، هستند در حال حاضر باعث هرج و مرج شده است. کاربران به سرعت متوجه شدند که می توانند از آنها برای ایجاد تصاویر زشت مانند ایلان ماسک با سینه ها، سربازان کودک و نسخه های تشنه به خون شخصیت های دیزنی استفاده کنند. همینطور برای ویژگی تولید تصویر Bing مایکروسافت، که جرقه ای را ایجاد کرد که در آن کاربران تصاویری از افراد مشهور و شخصیت های بازی های ویدیویی ایجاد می کنند. حملات 11 سپتامبر را انجام دهید.
  • در سانفرانسیسکو یک نفر دیگر بر اثر رباتاکسی کروز مجروح شد. مقتول ابتدا با ماشینی که توسط انسان هدایت می شد مورد اصابت قرار گرفت اما بعداً مورد اصابت قرار گرفت توسط خودروی خودکار له شده است، که روی او ایستاد و با وجود گریه های او حاضر به حرکت نشد. به نظر می رسد همین است “بهبود ایمنی جاده ها” آنچه سازندگان خودروهای خودران در بیانیه ماموریت خود انجام داده اند هنوز به نتیجه نرسیده است.
  • آخرین اما نه کم اهمیت: یک گزارش جدید نشان می دهد که هوش مصنوعی در حال حاضر توسط دولت های خودکامه در سراسر جهان مورد استفاده قرار می گیرد. خانه آزادی یافت که رهبران از ابزارهای جدید هوش مصنوعی برای سرکوب مخالفان و انتشار اطلاعات نادرست آنلاین استفاده می کنند. ما با یکی از محققان مرتبط با گزارش مصاحبه این هفته مصاحبه کردیم.

داستان برتر: کودتای خلاقانه هوش مصنوعی

سام آلتمن، مدیر عامل OpenAI.

سام آلتمن، مدیر عامل OpenAI.
عکس: Jamesonwu 1972 (شاتر استاک)

اگرچه مروجین صنعت مولد هوش مصنوعی از اعتراف آن بیزارند، محصولات آنها نه مولد هستند و نه به ویژه هوشمند. در عوض، محتوای خودکاری که پلتفرم‌هایی مانند ChatGPT و DALL-E آن را با قدرت شدید رد می‌کنند، ممکن است به‌طور دقیق‌تر به‌عنوان شیب مشتق‌شده توصیف شود – بازگرداندن یک ترکیب الگوریتمی از هزاران اثر خلاق واقعی که توسط هنرمندان و نویسندگان انسانی خلق شده‌اند. به طور خلاصه: “هنر” هوش مصنوعی هنر نیست: این فقط یک محصول تجاری خسته کننده است که توسط نرم افزار تولید شده و برای ادغام آسان سازمانی طراحی شده است. یک کمیسیون تجارت فدرال حضاربه طور مجازی از طریق پخش زنده اینترنتی سازماندهی شد، این واقعیت را به وضوح نشان داد.

  ایلان ماسک دلیل انفجار دومین ماموریت فضاپیما را توضیح داد

جلسه استماع این هفته، با عنوان «اقتصاد خلاق و هوش مصنوعی مولد» طراحی شده است تا به نمایندگان مشاغل مختلف خلاق اجازه دهد تا نگرانی های خود را در مورد اختلالات فناوری اخیر که صنایع آنها را فرا گرفته است، بیان کنند. از همه طرف‌ها یک درخواست قوی برای مقررات مؤثر برای محافظت از کارگران وجود دارد.

این تمایل به این اقدام احتمالاً توسط داگلاس پرستون، یکی از ده ها نویسنده ای که در حال حاضر به عنوان شاکیان در یک دعوای حقوقی دسته جمعی علیه OpenAI ذکر شده است، نشان داده شده است. این شرکت از سخت افزار خود برای آموزش الگوریتم های خود استفاده می کند. طی سخنان خود، پرستون اشاره کرد که “ChatGPT بدون کتاب‌های ما مزخرف و بی‌فایده خواهد بود” و افزود: “تصور کنید اگر فقط از متون برگرفته از وبلاگ‌های وب، نظرات، داستان‌های گربه‌ها، پورنوگرافی و غیره شکل می‌گرفت، چگونه می‌شد.” او در نهایت گفت: این کار زندگی ماست، ما دل و جان خود را در کتاب هایمان می ریزیم. »

مشکل برای هنرمندان بسیار زیبا به نظر می رسد واضح: حالشون چطوره در بازاری زنده خواهند ماند که در آن شرکت‌های بزرگ می‌توانند از هوش مصنوعی برای جایگزینی آن‌ها استفاده کنند یا به عبارت دقیق‌تر، فرصت‌ها و قدرت چانه‌زنی خود را با خودکار ، بخش بزرگی از خدمات خلاق کاهش دهند.?

در همین حال، مشکل شرکت‌های هوش مصنوعی این است که سؤالات حقوقی حل‌نشده‌ای در رابطه با بایت‌های بی‌شماری کار اختصاصی وجود دارد که شرکت‌هایی مانند OpenAI برای آموزش الگوریتم‌های جایگزین هنرمندان خود استفاده کرده‌اند.نویسندگان/موسیسین‌ها. ChatGPT نمی‌توانست با یک کلیک شعر و داستان کوتاه بسازد، و DALL-E نیز توانایی پخش تصاویر عجیب و غریب خود را نداشت، اگر شرکت پشت آن ده‌ها هزار صفحه از نویسندگان و تصاویر منتشر شده را نخورده بود. . هنرمندان بنابراین، آینده صنعت هوش مصنوعی – و در واقع آینده خلاقیت انسان – با یک بحث مداوم در حال حاضر در سیستم قضایی ایالات متحده تعیین خواهد شد.

مصاحبه: الی فانک توضیح می دهد که چگونه هوش مصنوعی توسط حکومت های خودکامه مسلح می شود

تصویری از مقاله با عنوان هوش مصنوعی این هفته: تهدید هوش مصنوعی برای آزادی خلاق

عکس: خانه آزادی

این هفته ما این لذت را داشتیم که با الی فانک، مدیر تحقیقات فناوری و دموکراسی در خانه آزادی صحبت کنیم. خانه آزادی، که آزادی های مدنی و مسائل حقوق بشر را در سراسر جهان دنبال می کند، اخیرا گزارش سالانه وضعیت آزادی اینترنت خود را منتشر کرده است. امسال گزارش تمرکز بر این است که چگونه ابزارهای هوش مصنوعی جدید، رویکردهای دولت‌های مستبد را برای سانسور، اطلاعات نادرست و سرکوب کلی آزادی‌های دیجیتال تقویت می‌کنند. همانطور که ممکن است انتظار داشته باشید، اوضاع در این بخش به خوبی پیش نمی رود. این مصاحبه برای وضوح و اختصار کمی ویرایش شده است.

یکی از نکات کلیدی که در گزارش درباره آن صحبت می کنید این است که چگونه هوش مصنوعی به سانسور دولتی کمک می کند. ممکن است کمی در مورد این نتایج به ما بگویید؟

  مدیر عامل شرکت جومیا می گوید: جومیا تحویل غذا را به دلیل رقبای "تهاجمی" متوقف کرد.

چیزی که ما کشف کردیم این است که هوش مصنوعی در واقع به دولت ها اجازه می دهد تا رویکرد خود را به سانسور توسعه دهند. دولت چین، به ویژه، تلاش کرده است تا چت بات ها را تنظیم کند تا کنترل آنها بر اطلاعات را تقویت کند. آنها این کار را با دو روش مختلف انجام می دهند. اولین مورد این است که آنها تلاش می کنند اطمینان حاصل کنند که شهروندان چینی به چت بات های ایجاد شده توسط شرکت های مستقر در ایالات متحده دسترسی ندارند. آنها شرکت های فناوری چینی را مجبور می کنند که ChatGPT را در محصولات خود ادغام نکنند… آنها همچنین در حال کار برای ایجاد ربات های گفتگوی خود هستند تا بتوانند چک های سانسور را در داده های آموزشی ربات های خود ایجاد کنند. مقررات دولتی ایجاب می‌کند که داده‌های آموزشی ارنی، ربات چت بایدو، با آنچه ح‌ک‌چ (حزب جامعه چین) می‌خواهد و با عناصر اساسی تبلیغات سوسیالیستی مطابقت داشته باشد. اگر با آن بازی کنید می توانید این را ببینید. او از پاسخ دادن به سوالات در مورد کشتار میدان تیان آن من خودداری می کند.

اطلاعات نادرست یکی دیگر از زمینه هایی است که شما در مورد آن صحبت می کنید. کمی در مورد اینکه هوش مصنوعی با این فضا چه می کند توضیح دهید.

ما سال‌هاست که این گزارش‌ها را می‌نویسیم و آنچه واضح است این است که کمپین‌های اطلاعات نادرست دولتی این روزها فقط یک ویژگی عادی فضای اطلاعاتی است. در گزارش امسال، ما متوجه شدیم که از 70 کشور، حداقل 47 دولت مفسرانی را به کار گرفتند که از تاکتیک‌های فریبنده یا پنهانی برای دستکاری در بحث‌های آنلاین استفاده کردند. این شبکه‌های (اطلاعات غلط) برای مدت طولانی وجود داشته‌اند. در بسیاری از کشورها آنها کاملاً پیچیده هستند. بازار کاملی از خدمات برای استخدام برای حمایت از این نوع کمپین ها پدید آمده است. بنابراین می‌توانید به سادگی یک اینفلوئنسر رسانه‌های اجتماعی یا سایر عوامل مشابه را استخدام کنید تا برای شما کار کند و بسیاری از شرکت‌های روابط عمومی پنهانی وجود دارند که این نوع کار را برای دولت‌ها انجام می‌دهند.

  مایکروسافت معتقد است تراشه جدید کوالکام بهتر از اپل خواهد بود

من فکر می کنم مهم است که بدانیم هوش مصنوعی برای مدت طولانی بخشی از کل این فرآیند اطلاعات نادرست بوده است. شما الگوریتم های پلتفرمی دارید که مدت هاست برای انتشار اطلاعات تحریک آمیز یا غیرقابل اعتماد استفاده می شود. شما ربات هایی دارید که در شبکه های اجتماعی برای تسهیل توزیع این کمپین ها استفاده می شوند. بنابراین استفاده از هوش مصنوعی برای اهداف نادرست جدید نیست. اما ما انتظار داریم هوش مصنوعی مولد مانع ورود به بازار اطلاعات نادرست را کاهش دهد زیرا بسیار مقرون به صرفه، استفاده آسان و در دسترس است. وقتی در مورد این فضا صحبت می کنیم، فقط در مورد چت بات ها صحبت نمی کنیم، بلکه در مورد ابزارهایی صحبت می کنیم که می توانند تصاویر، ویدیوها و صدا تولید کنند.

به نظر شما، چه نوع راه‌حل‌های نظارتی باید برای کاهش آسیب‌هایی که هوش مصنوعی آنلاین می‌تواند ایجاد کند در نظر گرفت؟

ما معتقدیم که بسیاری از درس‌های آموخته‌شده از بحث‌های دهه گذشته در مورد خط‌مشی اینترنت را می‌توان برای هوش مصنوعی به کار برد. بسیاری از توصیه‌هایی که قبلاً در مورد آزادی اینترنت ارائه کرده‌ایم می‌توانند در مبارزه با هوش مصنوعی مفید باشند. بنابراین، برای مثال، برای دولت‌ها می‌تواند بسیار مفید باشد که بخش خصوصی را مجبور به شفاف‌تر ، در مورد نحوه طراحی محصولات و تأثیر آن بر حقوق بشر کنند. در این میان، تحویل داده‌ها از پلتفرم به محققان مستقل یکی دیگر از توصیه‌های کلیدی است که ارائه کرده‌ایم. محققان مستقل می‌توانند تأثیر پلتفرم‌ها بر جمعیت‌ها، تأثیر آنها بر حقوق بشر را مطالعه کنند. چیز دیگری که من واقعاً توصیه می کنم تقویت مقررات حفظ حریم خصوصی و اصلاح قوانین نظارت مشکل ساز است. یکی از مواردی که قبلاً به آن نگاه کردیم، مقرراتی است که تضمین می کند دولت ها نمی توانند از ابزارهای نظارتی هوش مصنوعی سوء استفاده کنند.

به همه چیز رسیدگی کن اخبار هوش مصنوعی Gizmodo در اینجایا ببینید همه آخرین اخبار اینجا. برای به روز رسانی روزانه، در خبرنامه رایگان Gizmodo مشترک شوید.

منبع: https://gizmodo.com/ai-this-week-ais-threat-to-creative-freedom-1850903052