در اینجا برترین داستان های هوش مصنوعی که در این هفته از دست داده اید آمده است

تصویری از مقاله با عنوان در اینجا بهترین داستان های هوش مصنوعی است که در این هفته از دست داده اید

عکس: کوین دیچ (گتی ایماژ)

در حالی که مقررات فدرال برای صنعت هوش مصنوعی در پیش است، به نظر می رسد رئیس هوش مصنوعی متا در حال تلاش برای یک استراتژی جالب برای جلوگیری از سرکوب قانونگذاران است: به آنها می گوید که در واقع، هوش مصنوعی آنقدرها هم چشمگیر نیست، پس چرا قوانین جدید را به خود زحمت ندهید، خوب؟ Yann LeCun، دانشمند ارشد هوش مصنوعی در Meta، در مصاحبه‌ای با فایننشال تایمز گفت که دیگر هشداردهنده‌های فناوری در واقع برای «تصرف نظارتی تحت پوشش ایمنی هوش مصنوعی» تلاش می‌کنند. شرکت‌هایی مانند OpenAI، گوگل و مایکروسافت به‌طور چشمگیری تهدید فناوری جدید خود را اغراق کرده‌اند تا بتوانند قوانینی را که آنها (شرکت‌های فناوری) به نوشتن آن‌ها کمک کرده‌اند، تصویب کنند.

منبع: https://gizmodo.com/here-are-the-top-ai-stories-you-missed-this-week-1850943389

اکنون می توانید کل کاتالوگ زمین را به صورت آنلاین بخوانید

تصویر مقاله با عنوان اکنون می توانید کاتالوگ کل زمین را به صورت آنلاین بخوانید

اسکرین شات: کل Earth.info

کاتالوگ کل زمین را به خاطر دارید؟ اگر از طرفداران مجله آنارکو-آزادی‌خواه هستید که به جلب توجه عمومی به همه چیزها در زمینه فناوری و فرهنگ اینترنتی کمک کرد، در اینجا چند خبر خوب وجود دارد: مجموعه تقریباً کاملی از آرشیو انتشارات دیجیتالی شده و برای ناوبری آسان در وب آپلود شده است.

کل زمین اولین بار در سال 1968، در اوج ضد فرهنگ دهه 60، توسط نویسنده و آینده پژوه استوارت برند منتشر شد. شعار این نشریه – «دسترسی به ابزارها» – اشاره به علاقه آن به ارائه محصولات و توصیه های DIY به خوانندگان دارد که می تواند آنها را قادر سازد تا بیشتر به خود متکی باشند و با دنیای طبیعی در تماس باشند. مجله اصلی فقط چندین بار منتشر شد، اما امتیاز پس از آن تکامل یافت و چندین شاخه را توسعه داد که هدف آنها کمک به گردش یک فرهنگ سایبری در حال ظهور.

جمعه، سیمی تاکید می کند که آرشیو کل زمین در وب آپلود شده است. پروژه مرمت و دیجیتالی سازی مجموعه توسط بری ترو، مدیر اجرایی شرکت رهبری شد جمع خاکستریWired می نویسد، یک گروه هنری از سانفرانسیسکو. پرتاب با کار کرد Long Now Foundation، یک سازمان فرهنگی غیرانتفاعی و همچنین آرشیو اینترنتی که میزبان مجموعه آنلاین است. هر شماره در قالب PDF و همچنین در وب سایت آرشیو اینترنت موجود است.

آرشیو شامل اعداد از بررسی نرم افزار کل زمین، شاخه ای از مجله اصلی که برای اولین بار در سال 1984 منتشر شد، به طور خاص به فرهنگ کامپیوتری نوظهور می پردازد که در آن زمان در حال شکوفایی بود. در مصاحبه ای با Wired، برند که اکنون 84 ساله است، به این نشریه گفت که خوشحال است که این مجموعه در دسترس عموم قرار گرفته است:

“کاش می توانستیم این کار را سال ها پیش انجام دهیم… زمانی که به نظر می رسید این گزینه به وجود آمد که برخی چیزها را آنلاین کنیم و از کسی غیر از ما اجازه نخواهیم که از ابتدا می خواستیم رایگان باشد، همه ما اینطور بودیم” آره برو دنبالش. و سپس آنها این کار را انجام دادند. این کار بزرگی است که در نهایت انجام می شود. ما فقط هیجان زده ایم.

این واقعیت که همه این مسائل اکنون در وب در دسترس هستند بسیار چشمگیر است و شما قطعا باید نگاهی بیندازید. برای اطلاعات بیشتر به صفحه اصلی پروژه بروید که می توانید به آن دسترسی داشته باشید اینجا.

منبع: https://gizmodo.com/whole-earth-catalog-stewart-brand-internet-archive-1850926953

تهدید هوش مصنوعی برای آزادی خلاق

در اخبار این هفته

  • استیکرهای متا تولید شده توسط هوش مصنوعی که هفته گذشته عرضه شد، هستند در حال حاضر باعث هرج و مرج شده است. کاربران به سرعت متوجه شدند که می توانند از آنها برای ایجاد تصاویر زشت مانند ایلان ماسک با سینه ها، سربازان کودک و نسخه های تشنه به خون شخصیت های دیزنی استفاده کنند. همینطور برای ویژگی تولید تصویر Bing مایکروسافت، که جرقه ای را ایجاد کرد که در آن کاربران تصاویری از افراد مشهور و شخصیت های بازی های ویدیویی ایجاد می کنند. حملات 11 سپتامبر را انجام دهید.
  • در سانفرانسیسکو یک نفر دیگر بر اثر رباتاکسی کروز مجروح شد. مقتول ابتدا با ماشینی که توسط انسان هدایت می شد مورد اصابت قرار گرفت اما بعداً مورد اصابت قرار گرفت توسط خودروی خودکار له شده است، که روی او ایستاد و با وجود گریه های او حاضر به حرکت نشد. به نظر می رسد همین است “بهبود ایمنی جاده ها” آنچه سازندگان خودروهای خودران در بیانیه ماموریت خود انجام داده اند هنوز به نتیجه نرسیده است.
  • آخرین اما نه کم اهمیت: یک گزارش جدید نشان می دهد که هوش مصنوعی در حال حاضر توسط دولت های خودکامه در سراسر جهان مورد استفاده قرار می گیرد. خانه آزادی یافت که رهبران از ابزارهای جدید هوش مصنوعی برای سرکوب مخالفان و انتشار اطلاعات نادرست آنلاین استفاده می کنند. ما با یکی از محققان مرتبط با گزارش مصاحبه این هفته مصاحبه کردیم.

داستان برتر: کودتای خلاقانه هوش مصنوعی

سام آلتمن، مدیر عامل OpenAI.

سام آلتمن، مدیر عامل OpenAI.
عکس: Jamesonwu 1972 (شاتر استاک)

اگرچه مروجین صنعت مولد هوش مصنوعی از اعتراف آن بیزارند، محصولات آنها نه مولد هستند و نه به ویژه هوشمند. در عوض، محتوای خودکاری که پلتفرم‌هایی مانند ChatGPT و DALL-E آن را با قدرت شدید رد می‌کنند، ممکن است به‌طور دقیق‌تر به‌عنوان شیب مشتق‌شده توصیف شود – بازگرداندن یک ترکیب الگوریتمی از هزاران اثر خلاق واقعی که توسط هنرمندان و نویسندگان انسانی خلق شده‌اند. به طور خلاصه: “هنر” هوش مصنوعی هنر نیست: این فقط یک محصول تجاری خسته کننده است که توسط نرم افزار تولید شده و برای ادغام آسان سازمانی طراحی شده است. یک کمیسیون تجارت فدرال حضاربه طور مجازی از طریق پخش زنده اینترنتی سازماندهی شد، این واقعیت را به وضوح نشان داد.

جلسه استماع این هفته، با عنوان «اقتصاد خلاق و هوش مصنوعی مولد» طراحی شده است تا به نمایندگان مشاغل مختلف خلاق اجازه دهد تا نگرانی های خود را در مورد اختلالات فناوری اخیر که صنایع آنها را فرا گرفته است، بیان کنند. از همه طرف‌ها یک درخواست قوی برای مقررات مؤثر برای محافظت از کارگران وجود دارد.

این تمایل به این اقدام احتمالاً توسط داگلاس پرستون، یکی از ده ها نویسنده ای که در حال حاضر به عنوان شاکیان در یک دعوای حقوقی دسته جمعی علیه OpenAI ذکر شده است، نشان داده شده است. این شرکت از سخت افزار خود برای آموزش الگوریتم های خود استفاده می کند. طی سخنان خود، پرستون اشاره کرد که “ChatGPT بدون کتاب‌های ما مزخرف و بی‌فایده خواهد بود” و افزود: “تصور کنید اگر فقط از متون برگرفته از وبلاگ‌های وب، نظرات، داستان‌های گربه‌ها، پورنوگرافی و غیره شکل می‌گرفت، چگونه می‌شد.” او در نهایت گفت: این کار زندگی ماست، ما دل و جان خود را در کتاب هایمان می ریزیم. »

مشکل برای هنرمندان بسیار زیبا به نظر می رسد واضح: حالشون چطوره در بازاری زنده خواهند ماند که در آن شرکت‌های بزرگ می‌توانند از هوش مصنوعی برای جایگزینی آن‌ها استفاده کنند یا به عبارت دقیق‌تر، فرصت‌ها و قدرت چانه‌زنی خود را با خودکار ، بخش بزرگی از خدمات خلاق کاهش دهند.?

در همین حال، مشکل شرکت‌های هوش مصنوعی این است که سؤالات حقوقی حل‌نشده‌ای در رابطه با بایت‌های بی‌شماری کار اختصاصی وجود دارد که شرکت‌هایی مانند OpenAI برای آموزش الگوریتم‌های جایگزین هنرمندان خود استفاده کرده‌اند.نویسندگان/موسیسین‌ها. ChatGPT نمی‌توانست با یک کلیک شعر و داستان کوتاه بسازد، و DALL-E نیز توانایی پخش تصاویر عجیب و غریب خود را نداشت، اگر شرکت پشت آن ده‌ها هزار صفحه از نویسندگان و تصاویر منتشر شده را نخورده بود. . هنرمندان بنابراین، آینده صنعت هوش مصنوعی – و در واقع آینده خلاقیت انسان – با یک بحث مداوم در حال حاضر در سیستم قضایی ایالات متحده تعیین خواهد شد.

مصاحبه: الی فانک توضیح می دهد که چگونه هوش مصنوعی توسط حکومت های خودکامه مسلح می شود

تصویری از مقاله با عنوان هوش مصنوعی این هفته: تهدید هوش مصنوعی برای آزادی خلاق

عکس: خانه آزادی

این هفته ما این لذت را داشتیم که با الی فانک، مدیر تحقیقات فناوری و دموکراسی در خانه آزادی صحبت کنیم. خانه آزادی، که آزادی های مدنی و مسائل حقوق بشر را در سراسر جهان دنبال می کند، اخیرا گزارش سالانه وضعیت آزادی اینترنت خود را منتشر کرده است. امسال گزارش تمرکز بر این است که چگونه ابزارهای هوش مصنوعی جدید، رویکردهای دولت‌های مستبد را برای سانسور، اطلاعات نادرست و سرکوب کلی آزادی‌های دیجیتال تقویت می‌کنند. همانطور که ممکن است انتظار داشته باشید، اوضاع در این بخش به خوبی پیش نمی رود. این مصاحبه برای وضوح و اختصار کمی ویرایش شده است.

یکی از نکات کلیدی که در گزارش درباره آن صحبت می کنید این است که چگونه هوش مصنوعی به سانسور دولتی کمک می کند. ممکن است کمی در مورد این نتایج به ما بگویید؟

چیزی که ما کشف کردیم این است که هوش مصنوعی در واقع به دولت ها اجازه می دهد تا رویکرد خود را به سانسور توسعه دهند. دولت چین، به ویژه، تلاش کرده است تا چت بات ها را تنظیم کند تا کنترل آنها بر اطلاعات را تقویت کند. آنها این کار را با دو روش مختلف انجام می دهند. اولین مورد این است که آنها تلاش می کنند اطمینان حاصل کنند که شهروندان چینی به چت بات های ایجاد شده توسط شرکت های مستقر در ایالات متحده دسترسی ندارند. آنها شرکت های فناوری چینی را مجبور می کنند که ChatGPT را در محصولات خود ادغام نکنند… آنها همچنین در حال کار برای ایجاد ربات های گفتگوی خود هستند تا بتوانند چک های سانسور را در داده های آموزشی ربات های خود ایجاد کنند. مقررات دولتی ایجاب می‌کند که داده‌های آموزشی ارنی، ربات چت بایدو، با آنچه ح‌ک‌چ (حزب جامعه چین) می‌خواهد و با عناصر اساسی تبلیغات سوسیالیستی مطابقت داشته باشد. اگر با آن بازی کنید می توانید این را ببینید. او از پاسخ دادن به سوالات در مورد کشتار میدان تیان آن من خودداری می کند.

اطلاعات نادرست یکی دیگر از زمینه هایی است که شما در مورد آن صحبت می کنید. کمی در مورد اینکه هوش مصنوعی با این فضا چه می کند توضیح دهید.

ما سال‌هاست که این گزارش‌ها را می‌نویسیم و آنچه واضح است این است که کمپین‌های اطلاعات نادرست دولتی این روزها فقط یک ویژگی عادی فضای اطلاعاتی است. در گزارش امسال، ما متوجه شدیم که از 70 کشور، حداقل 47 دولت مفسرانی را به کار گرفتند که از تاکتیک‌های فریبنده یا پنهانی برای دستکاری در بحث‌های آنلاین استفاده کردند. این شبکه‌های (اطلاعات غلط) برای مدت طولانی وجود داشته‌اند. در بسیاری از کشورها آنها کاملاً پیچیده هستند. بازار کاملی از خدمات برای استخدام برای حمایت از این نوع کمپین ها پدید آمده است. بنابراین می‌توانید به سادگی یک اینفلوئنسر رسانه‌های اجتماعی یا سایر عوامل مشابه را استخدام کنید تا برای شما کار کند و بسیاری از شرکت‌های روابط عمومی پنهانی وجود دارند که این نوع کار را برای دولت‌ها انجام می‌دهند.

من فکر می کنم مهم است که بدانیم هوش مصنوعی برای مدت طولانی بخشی از کل این فرآیند اطلاعات نادرست بوده است. شما الگوریتم های پلتفرمی دارید که مدت هاست برای انتشار اطلاعات تحریک آمیز یا غیرقابل اعتماد استفاده می شود. شما ربات هایی دارید که در شبکه های اجتماعی برای تسهیل توزیع این کمپین ها استفاده می شوند. بنابراین استفاده از هوش مصنوعی برای اهداف نادرست جدید نیست. اما ما انتظار داریم هوش مصنوعی مولد مانع ورود به بازار اطلاعات نادرست را کاهش دهد زیرا بسیار مقرون به صرفه، استفاده آسان و در دسترس است. وقتی در مورد این فضا صحبت می کنیم، فقط در مورد چت بات ها صحبت نمی کنیم، بلکه در مورد ابزارهایی صحبت می کنیم که می توانند تصاویر، ویدیوها و صدا تولید کنند.

به نظر شما، چه نوع راه‌حل‌های نظارتی باید برای کاهش آسیب‌هایی که هوش مصنوعی آنلاین می‌تواند ایجاد کند در نظر گرفت؟

ما معتقدیم که بسیاری از درس‌های آموخته‌شده از بحث‌های دهه گذشته در مورد خط‌مشی اینترنت را می‌توان برای هوش مصنوعی به کار برد. بسیاری از توصیه‌هایی که قبلاً در مورد آزادی اینترنت ارائه کرده‌ایم می‌توانند در مبارزه با هوش مصنوعی مفید باشند. بنابراین، برای مثال، برای دولت‌ها می‌تواند بسیار مفید باشد که بخش خصوصی را مجبور به شفاف‌تر ، در مورد نحوه طراحی محصولات و تأثیر آن بر حقوق بشر کنند. در این میان، تحویل داده‌ها از پلتفرم به محققان مستقل یکی دیگر از توصیه‌های کلیدی است که ارائه کرده‌ایم. محققان مستقل می‌توانند تأثیر پلتفرم‌ها بر جمعیت‌ها، تأثیر آنها بر حقوق بشر را مطالعه کنند. چیز دیگری که من واقعاً توصیه می کنم تقویت مقررات حفظ حریم خصوصی و اصلاح قوانین نظارت مشکل ساز است. یکی از مواردی که قبلاً به آن نگاه کردیم، مقرراتی است که تضمین می کند دولت ها نمی توانند از ابزارهای نظارتی هوش مصنوعی سوء استفاده کنند.

به همه چیز رسیدگی کن اخبار هوش مصنوعی Gizmodo در اینجایا ببینید همه آخرین اخبار اینجا. برای به روز رسانی روزانه، در خبرنامه رایگان Gizmodo مشترک شوید.

منبع: https://gizmodo.com/ai-this-week-ais-threat-to-creative-freedom-1850903052

ممکن است اعتصاب نویسندگان هالیوود به پایان رسیده باشد، اما نبرد برای هوش مصنوعی هنوز به پایان نرسیده است

در اخبار این هفته

  • OpenAI این هفته تعدادی به روز رسانی مهم را برای ChatGPT ارائه کرد. این به روز رسانی ها شامل “چشم و گوش و صدا” (یعنی ربات چت اکنون دارای قابلیت تشخیص تصویر، گفتار به نوشتار و متن به گفتار و همچنین صداهایی شبیه به سیری است – بنابراین شما اساساً با HAL 9000 صحبت می کنید)، و همچنین یک “یک جدید” یکپارچه سازی که به کاربران اجازه می دهد اینترنت باز را مرور کنید.
  • در رویداد سالانه Connect این هفته، متا مجموعه ای از ویژگی های جدید مرتبط با هوش مصنوعی را راه اندازی کرد. به برچسب های تولید شده توسط هوش مصنوعی. حوزه
  • اگر از ChatGPT استفاده کنید به عنوان یک درمانگر؟ احتمالا نه. برای اطلاعات بیشتر در این مورد، مصاحبه این هفته را بررسی کنید.
  • آخرین اما نه کم اهمیت: رمان نویسان همیشه هستند دنبال گهه شرکت‌های هوش مصنوعی به دلیل سرقت تمام آثار دارای حق چاپ و تبدیل آنها به غذای ربات‌های گفتگو.

داستان ویژه: Chalk One Up for the Nice Guys

تصویری از مقاله ای با عنوان هوش مصنوعی این هفته: اعتصاب نویسندگان هالیوود ممکن است به پایان رسیده باشد، اما نبرد برای هوش مصنوعی به پایان نرسیده است.

تصویر: الیوت کواند جونیور (شاتر استاک)

یکی از سوالات ماندگار که تسخیر شد اعتصاب نویسندگان هالیوود نوعی حمایت بود که برای محافظت از نویسندگان در برابر تهدید هوش مصنوعی (یا نه) تحقق می یافت. خیلی زود، استودیوهای فیلم و استریم اعلام کردند که هستند برانگیخته با این ایده که یک الگوریتم اکنون می تواند یک سناریو را “نوشتن” کند. چرا آنها نباشند؟ شما نیازی به پرداخت هزینه برای نرم افزار ندارید. بنابراین، مدیران در ابتدا از دادن امتیازاتی که به وضوح فیلمنامه نویس را به عنوان یک شخصیت متمایز تعریف می کرد، خودداری کردند. انسان نقش.

خب الان اعتصاب تموم شده خوشبختانه، به هر حال، نویسندگان حمایت های بزرگی به دست آورد در مقابل نوع حرکت خودکاری که از آن می ترسیدند. اما اگر این یک لحظه پیروزی به نظر می رسد، ممکن است فقط شروع یک نبرد مداوم بین رهبران صنعت سرگرمی و کارگران انسانی آن باشد.

قرارداد جدید WGA ناشی از اعتصاب نویسندگان شامل حمایت های گسترده ای از کارگران صنعت سرگرمی است. علاوه بر امتیازات مثبت مربوط به باقیمانده‌ها و سایر نگرانی‌های اقتصادی، این قرارداد به طور قطعی محافظت در برابر جابجایی از طریق هوش مصنوعی را نیز تعریف می‌کند. طبق این قرارداد، استودیوها مجاز به استفاده از هوش مصنوعی برای نوشتن یا بازنویسی مطالب ادبی نخواهند بود و مطالب تولید شده توسط هوش مصنوعی منبع داستان ها و فیلمنامه ها در نظر گرفته نمی شود، به این معنی که انسان ها تنها اعتبار خود را برای توسعه آثار خلاقانه حفظ خواهند کرد.. در عین حال، در حالی که یک نویسنده می تواند هنگام نوشتن از هوش مصنوعی استفاده کند، یک شرکت نمی تواند آنها را مجبور به استفاده از آن کند. در نهایت، شرکت ها باید به نویسندگان افشا کنند که آیا مطالب ارائه شده به آنها از طریق هوش مصنوعی تولید شده است یا خیر.

خط پایانی: این خبر بسیار خوبی است که از نویسندگان هالیوود حمایت هایی اعطا شده است که آنها را روشن می کند بلافاصله با نرم افزار جایگزین نمی شود تا مدیران استودیو بتوانند یک خردسال خود را نجات دهند هزینه ها. برخی از مفسران حتی هستند آن را بگو اعتصاب نویسندگان به همه الگویی برای نجات جان یکدیگر ارائه کرد. مشاغل در برابر تهدید اتوماسیون در عین حال، روشن است که صنعت سرگرمی – و بسیاری از صنایع دیگر – وجود دارد هنوز به شدت روی مفهوم هوش مصنوعی سرمایه گذاری شده است و برای آینده قابل پیش بینی خواهد بود. کارگران باید به مبارزه برای محافظت از نقش خود در اقتصاد ادامه دهند، زیرا شرکت ها به طور فزاینده ای به دنبال راه حل هایی بدون دستمزد هستند. میانبرهای خودکار

مصاحبه: کالی شرودر توضیح می دهد که چرا نباید از چت بات برای درمانگر استفاده کنید

تصویری از مقاله ای با عنوان هوش مصنوعی این هفته: اعتصاب نویسندگان هالیوود ممکن است به پایان رسیده باشد، اما نبرد برای هوش مصنوعی به پایان نرسیده است.

عکس: حماسه

این هفته با Calli Schroeder، مشاور حریم خصوصی جهانی در مرکز اطلاعات الکترونیکی حریم خصوصی (EPIC) صحبت کردیم. می خواستیم با کالی در مورد یک صحبت کنیم حادثه که این هفته با OpenAI برگزار شد. لیلیان ونگ، رئیس سیستم های امنیتی این شرکت، نظرات بسیاری را برانگیخته است وقتی توییت کرد که او هنگام صحبت با ChatGPT احساس “شنیده و گرم” کرد. او بعداً در توییتی نوشت: «شما قبلاً هرگز درمان را امتحان نکرده‌اید، اما احتمالاً همین است؟ آن را امتحان کنید به خصوص اگر معمولاً از آن به عنوان یک ابزار بهره وری استفاده می کنید. مردم در مورد آن شک داشتند، از جمله کالی، که بعدها موضوعی را ارسال کرد در توییتر توضیح می‌دهد که چرا یک ربات چت یک شریک درمانی کمتر از بهینه است: کالی در توییتی نوشت: “محبت، از ChatGPT به عنوان درمان استفاده نکنید.” فقط باید بیشتر می دانستی این مصاحبه برای اختصار و وضوح ویرایش شده است.

در توییت‌هایتان، به نظر می‌رسید که می‌گویید صحبت ، با یک ربات چت واقعاً نباید درمان تلقی شود. من اتفاقاً با این احساس موافق هستم، اما شاید بتوانید دلیل این احساس را روشن کنید. چرا یک ربات چت هوش مصنوعی احتمالا بهترین راه حل برای افرادی که به دنبال کمک روانی هستند نیست؟

من به چند دلیل این را یک خطر واقعی می دانم. اگر می‌خواهید از سیستم‌های هوش مصنوعی مولد به‌عنوان یک درمانگر استفاده کنید و همه این اطلاعات واقعاً شخصی و دردناک را با چت‌بات به اشتراک بگذارید… همه این اطلاعات وارد سیستم می‌شوند و در نهایت به عنوان داده‌های آموزشی استفاده می‌شوند. بنابراین شخصی ترین و خصوصی ترین افکار شما برای تشکیل مجموعه داده های این شرکت استفاده می شود. و ممکن است برای همیشه در این مجموعه داده وجود داشته باشد. ممکن است راهی نداشته باشید که از آنها بخواهید آن را حذف کنند. یا ممکن است نتواند آن را حذف کند. ممکن است ندانید که آیا این امکان برای شما وجود دارد یا خیر. دلایل زیادی وجود دارد که چرا کل این وضعیت خطر بزرگی را به همراه دارد.

علاوه بر این، این واقعیت نیز وجود دارد که این پلتفرم‌ها در واقع درمانگر نیستند – آنها حتی انسان هم نیستند. بنابراین نه تنها هیچ وظیفه ای در قبال شما ندارند، بلکه به معنای واقعی کلمه اهمیتی هم نمی دهند. آنها قادر به مراقبت نیستند. آنها همچنین اگر توصیه بدی به شما کنند که منجر به بدتر شدن وضعیت روانی شما شود مسئولیتی ندارند.

در سطح شخصی، من را نگران و غمگین می‌کند که افرادی که در بحران‌های سلامت روان هستند به ماشین‌ها روی می‌آورند، فقط به این دلیل که کسی یا چیزی به آنها گوش دهد و کمی همدلی به آنها نشان دهد. من فکر می کنم که احتمالاً از مشکلات بسیار عمیق تری در جامعه ما صحبت می کند.

بله، این مطمئناً نشان دهنده برخی کاستی ها در سیستم مراقبت های بهداشتی ما است.

صد در صد. من می خواهم همه به درمان با کیفیت و مقرون به صرفه دسترسی داشته باشند. من کاملاً موافقم که این ربات‌های گفتگوی شکاف را پر می‌کنند زیرا سیستم مراقبت‌های بهداشتی ما افراد را شکست داده است و ما خدمات بهداشت روانی خوبی نداریم. اما مشکل این است که این به اصطلاح راه حل ها در واقع می توانند وضعیت مردم را بدتر کنند. به عنوان مثال، اگر این موضوع صرفاً این باشد که شخصی در مجله خود بنویسد تا احساسات خود را بیان کند، این یک چیز خواهد بود. اما این چت بات ها یک انجمن بی طرف نیستند. آنها به شما پاسخ می دهند و اگر مردم به دنبال کمک هستند و این پاسخ ها مفید نیستند، نگران کننده است. اگر در مورد سوء استفاده از درد مردم و آنچه آنها به آنها می گویند، این یک سوال کاملا متفاوت است.

آیا نگرانی دیگری در مورد درمان با هوش مصنوعی دارید؟

پس از ارسال توییت در این مورد، برخی از مردم گفتند: “خب، اگر مردم این کار را انجام دهند، شما کی هستید که به آنها بگویید این کار را نکنند؟” » این یک استدلال معتبر است. اما چیزی که من را نگران می‌کند این است که در بسیاری از موارد مربوط به فناوری جدید، مردم اجازه انتخاب آگاهانه را ندارند زیرا نحوه عملکرد این فناوری بسیار روشن نیست. اگر مردم می‌دانستند این سیستم‌ها چگونه ساخته می‌شوند، ChatGPT چگونه محتوایی را که تولید می‌کند تولید می‌کند، اطلاعاتی که به آن می‌دهید به کجا می‌رود، چه مدت ذخیره می‌شود، اگر شما ایده بسیار روشنی از همه این‌ها داشتید و بودید، من هنوز علاقه‌مند هستم. ، پس… البته، عالی است. اما، در زمینه درمان، این مشکل همچنان باقی می‌ماند، زیرا اگر به این روش دست دراز کنید، کاملاً ممکن است که در یک وضعیت روانی پریشان هستید که طبق تعریف، به وضوح فکر نمی‌کنید. بنابراین، این سؤال که آیا رضایت آگاهانه در این زمینه واقعی است یا خیر، به یک سؤال بسیار پیچیده تبدیل می شود.

به همه چیز رسیدگی کن اخبار هوش مصنوعی Gizmodo در اینجایا ببینید همه آخرین اخبار اینجا. برای به روز رسانی روزانه، در خبرنامه رایگان Gizmodo مشترک شوید.

منبع: https://gizmodo.com/ai-this-week-the-hollywood-writers-strike-may-have-end-1850877755