در حالی که مقررات فدرال برای صنعت هوش مصنوعی در پیش است، به نظر می رسد رئیس هوش مصنوعی متا در حال تلاش برای یک استراتژی جالب برای جلوگیری از سرکوب قانونگذاران است: به آنها می گوید که در واقع، هوش مصنوعی آنقدرها هم چشمگیر نیست، پس چرا قوانین جدید را به خود زحمت ندهید، خوب؟ Yann LeCun، دانشمند ارشد هوش مصنوعی در Meta، در مصاحبهای با فایننشال تایمز گفت که دیگر هشداردهندههای فناوری در واقع برای «تصرف نظارتی تحت پوشش ایمنی هوش مصنوعی» تلاش میکنند. شرکتهایی مانند OpenAI، گوگل و مایکروسافت بهطور چشمگیری تهدید فناوری جدید خود را اغراق کردهاند تا بتوانند قوانینی را که آنها (شرکتهای فناوری) به نوشتن آنها کمک کردهاند، تصویب کنند.
کاتالوگ کل زمین را به خاطر دارید؟ اگر از طرفداران مجله آنارکو-آزادیخواه هستید که به جلب توجه عمومی به همه چیزها در زمینه فناوری و فرهنگ اینترنتی کمک کرد، در اینجا چند خبر خوب وجود دارد: مجموعه تقریباً کاملی از آرشیو انتشارات دیجیتالی شده و برای ناوبری آسان در وب آپلود شده است.
پیکسل 8 و 8 پرو گوگل جدید و تا حدودی بهبود یافته اند
کل زمین اولین بار در سال 1968، در اوج ضد فرهنگ دهه 60، توسط نویسنده و آینده پژوه استوارت برند منتشر شد. شعار این نشریه – «دسترسی به ابزارها» – اشاره به علاقه آن به ارائه محصولات و توصیه های DIY به خوانندگان دارد که می تواند آنها را قادر سازد تا بیشتر به خود متکی باشند و با دنیای طبیعی در تماس باشند. مجله اصلی فقط چندین بار منتشر شد، اما امتیاز پس از آن تکامل یافت و چندین شاخه را توسعه داد که هدف آنها کمک به گردش یک فرهنگ سایبری در حال ظهور.
جمعه، سیمی تاکید می کند که آرشیو کل زمین در وب آپلود شده است. پروژه مرمت و دیجیتالی سازی مجموعه توسط بری ترو، مدیر اجرایی شرکت رهبری شد جمع خاکستریWired می نویسد، یک گروه هنری از سانفرانسیسکو. پرتاب با کار کرد Long Now Foundation، یک سازمان فرهنگی غیرانتفاعی و همچنین آرشیو اینترنتی که میزبان مجموعه آنلاین است. هر شماره در قالب PDF و همچنین در وب سایت آرشیو اینترنت موجود است.
آرشیو شامل اعداد از بررسی نرم افزار کل زمین، شاخه ای از مجله اصلی که برای اولین بار در سال 1984 منتشر شد، به طور خاص به فرهنگ کامپیوتری نوظهور می پردازد که در آن زمان در حال شکوفایی بود. در مصاحبه ای با Wired، برند که اکنون 84 ساله است، به این نشریه گفت که خوشحال است که این مجموعه در دسترس عموم قرار گرفته است:
“کاش می توانستیم این کار را سال ها پیش انجام دهیم… زمانی که به نظر می رسید این گزینه به وجود آمد که برخی چیزها را آنلاین کنیم و از کسی غیر از ما اجازه نخواهیم که از ابتدا می خواستیم رایگان باشد، همه ما اینطور بودیم” آره برو دنبالش. و سپس آنها این کار را انجام دادند. این کار بزرگی است که در نهایت انجام می شود. ما فقط هیجان زده ایم.
این واقعیت که همه این مسائل اکنون در وب در دسترس هستند بسیار چشمگیر است و شما قطعا باید نگاهی بیندازید. برای اطلاعات بیشتر به صفحه اصلی پروژه بروید که می توانید به آن دسترسی داشته باشید اینجا.
استیکرهای متا تولید شده توسط هوش مصنوعی که هفته گذشته عرضه شد، هستند در حال حاضر باعث هرج و مرج شده است. کاربران به سرعت متوجه شدند که می توانند از آنها برای ایجاد تصاویر زشت مانند ایلان ماسک با سینه ها، سربازان کودک و نسخه های تشنه به خون شخصیت های دیزنی استفاده کنند. همینطور برای ویژگی تولید تصویر Bing مایکروسافت، که جرقه ای را ایجاد کرد که در آن کاربران تصاویری از افراد مشهور و شخصیت های بازی های ویدیویی ایجاد می کنند. حملات 11 سپتامبر را انجام دهید.
در سانفرانسیسکو یک نفر دیگر بر اثر رباتاکسی کروز مجروح شد. مقتول ابتدا با ماشینی که توسط انسان هدایت می شد مورد اصابت قرار گرفت اما بعداً مورد اصابت قرار گرفت توسط خودروی خودکار له شده است، که روی او ایستاد و با وجود گریه های او حاضر به حرکت نشد. به نظر می رسد همین است “بهبود ایمنی جاده ها” آنچه سازندگان خودروهای خودران در بیانیه ماموریت خود انجام داده اند هنوز به نتیجه نرسیده است.
آخرین اما نه کم اهمیت: یک گزارش جدید نشان می دهد که هوش مصنوعی در حال حاضر توسط دولت های خودکامه در سراسر جهان مورد استفاده قرار می گیرد. خانه آزادی یافت که رهبران از ابزارهای جدید هوش مصنوعی برای سرکوب مخالفان و انتشار اطلاعات نادرست آنلاین استفاده می کنند. ما با یکی از محققان مرتبط با گزارش مصاحبه این هفته مصاحبه کردیم.
آیا هوش مصنوعی می تواند به سلامت روان کمک کند؟
داستان برتر: کودتای خلاقانه هوش مصنوعی
اگرچه مروجین صنعت مولد هوش مصنوعی از اعتراف آن بیزارند، محصولات آنها نه مولد هستند و نه به ویژه هوشمند. در عوض، محتوای خودکاری که پلتفرمهایی مانند ChatGPT و DALL-E آن را با قدرت شدید رد میکنند، ممکن است بهطور دقیقتر بهعنوان شیب مشتقشده توصیف شود – بازگرداندن یک ترکیب الگوریتمی از هزاران اثر خلاق واقعی که توسط هنرمندان و نویسندگان انسانی خلق شدهاند. به طور خلاصه: “هنر” هوش مصنوعی هنر نیست: این فقط یک محصول تجاری خسته کننده است که توسط نرم افزار تولید شده و برای ادغام آسان سازمانی طراحی شده است. یک کمیسیون تجارت فدرال حضاربه طور مجازی از طریق پخش زنده اینترنتی سازماندهی شد، این واقعیت را به وضوح نشان داد.
جلسه استماع این هفته، با عنوان «اقتصاد خلاق و هوش مصنوعی مولد» طراحی شده است تا به نمایندگان مشاغل مختلف خلاق اجازه دهد تا نگرانی های خود را در مورد اختلالات فناوری اخیر که صنایع آنها را فرا گرفته است، بیان کنند. از همه طرفها یک درخواست قوی برای مقررات مؤثر برای محافظت از کارگران وجود دارد.
این تمایل به این اقدام احتمالاً توسط داگلاس پرستون، یکی از ده ها نویسنده ای که در حال حاضر به عنوان شاکیان در یک دعوای حقوقی دسته جمعی علیه OpenAI ذکر شده است، نشان داده شده است. این شرکت از سخت افزار خود برای آموزش الگوریتم های خود استفاده می کند. طی سخنان خود، پرستون اشاره کرد که “ChatGPT بدون کتابهای ما مزخرف و بیفایده خواهد بود” و افزود: “تصور کنید اگر فقط از متون برگرفته از وبلاگهای وب، نظرات، داستانهای گربهها، پورنوگرافی و غیره شکل میگرفت، چگونه میشد.” او در نهایت گفت: این کار زندگی ماست، ما دل و جان خود را در کتاب هایمان می ریزیم. »
مشکل برای هنرمندان بسیار زیبا به نظر می رسد واضح: حالشون چطوره در بازاری زنده خواهند ماند که در آن شرکتهای بزرگ میتوانند از هوش مصنوعی برای جایگزینی آنها استفاده کنند یا به عبارت دقیقتر، فرصتها و قدرت چانهزنی خود را با خودکار ، بخش بزرگی از خدمات خلاق کاهش دهند.?
در همین حال، مشکل شرکتهای هوش مصنوعی این است که سؤالات حقوقی حلنشدهای در رابطه با بایتهای بیشماری کار اختصاصی وجود دارد که شرکتهایی مانند OpenAI برای آموزش الگوریتمهای جایگزین هنرمندان خود استفاده کردهاند.نویسندگان/موسیسینها. ChatGPT نمیتوانست با یک کلیک شعر و داستان کوتاه بسازد، و DALL-E نیز توانایی پخش تصاویر عجیب و غریب خود را نداشت، اگر شرکت پشت آن دهها هزار صفحه از نویسندگان و تصاویر منتشر شده را نخورده بود. . هنرمندان بنابراین، آینده صنعت هوش مصنوعی – و در واقع آینده خلاقیت انسان – با یک بحث مداوم در حال حاضر در سیستم قضایی ایالات متحده تعیین خواهد شد.
مصاحبه: الی فانک توضیح می دهد که چگونه هوش مصنوعی توسط حکومت های خودکامه مسلح می شود
این هفته ما این لذت را داشتیم که با الی فانک، مدیر تحقیقات فناوری و دموکراسی در خانه آزادی صحبت کنیم. خانه آزادی، که آزادی های مدنی و مسائل حقوق بشر را در سراسر جهان دنبال می کند، اخیرا گزارش سالانه وضعیت آزادی اینترنت خود را منتشر کرده است. امسال گزارش تمرکز بر این است که چگونه ابزارهای هوش مصنوعی جدید، رویکردهای دولتهای مستبد را برای سانسور، اطلاعات نادرست و سرکوب کلی آزادیهای دیجیتال تقویت میکنند. همانطور که ممکن است انتظار داشته باشید، اوضاع در این بخش به خوبی پیش نمی رود. این مصاحبه برای وضوح و اختصار کمی ویرایش شده است.
یکی از نکات کلیدی که در گزارش درباره آن صحبت می کنید این است که چگونه هوش مصنوعی به سانسور دولتی کمک می کند. ممکن است کمی در مورد این نتایج به ما بگویید؟
چیزی که ما کشف کردیم این است که هوش مصنوعی در واقع به دولت ها اجازه می دهد تا رویکرد خود را به سانسور توسعه دهند. دولت چین، به ویژه، تلاش کرده است تا چت بات ها را تنظیم کند تا کنترل آنها بر اطلاعات را تقویت کند. آنها این کار را با دو روش مختلف انجام می دهند. اولین مورد این است که آنها تلاش می کنند اطمینان حاصل کنند که شهروندان چینی به چت بات های ایجاد شده توسط شرکت های مستقر در ایالات متحده دسترسی ندارند. آنها شرکت های فناوری چینی را مجبور می کنند که ChatGPT را در محصولات خود ادغام نکنند… آنها همچنین در حال کار برای ایجاد ربات های گفتگوی خود هستند تا بتوانند چک های سانسور را در داده های آموزشی ربات های خود ایجاد کنند. مقررات دولتی ایجاب میکند که دادههای آموزشی ارنی، ربات چت بایدو، با آنچه حکچ (حزب جامعه چین) میخواهد و با عناصر اساسی تبلیغات سوسیالیستی مطابقت داشته باشد. اگر با آن بازی کنید می توانید این را ببینید. او از پاسخ دادن به سوالات در مورد کشتار میدان تیان آن من خودداری می کند.
اطلاعات نادرست یکی دیگر از زمینه هایی است که شما در مورد آن صحبت می کنید. کمی در مورد اینکه هوش مصنوعی با این فضا چه می کند توضیح دهید.
ما سالهاست که این گزارشها را مینویسیم و آنچه واضح است این است که کمپینهای اطلاعات نادرست دولتی این روزها فقط یک ویژگی عادی فضای اطلاعاتی است. در گزارش امسال، ما متوجه شدیم که از 70 کشور، حداقل 47 دولت مفسرانی را به کار گرفتند که از تاکتیکهای فریبنده یا پنهانی برای دستکاری در بحثهای آنلاین استفاده کردند. این شبکههای (اطلاعات غلط) برای مدت طولانی وجود داشتهاند. در بسیاری از کشورها آنها کاملاً پیچیده هستند. بازار کاملی از خدمات برای استخدام برای حمایت از این نوع کمپین ها پدید آمده است. بنابراین میتوانید به سادگی یک اینفلوئنسر رسانههای اجتماعی یا سایر عوامل مشابه را استخدام کنید تا برای شما کار کند و بسیاری از شرکتهای روابط عمومی پنهانی وجود دارند که این نوع کار را برای دولتها انجام میدهند.
من فکر می کنم مهم است که بدانیم هوش مصنوعی برای مدت طولانی بخشی از کل این فرآیند اطلاعات نادرست بوده است. شما الگوریتم های پلتفرمی دارید که مدت هاست برای انتشار اطلاعات تحریک آمیز یا غیرقابل اعتماد استفاده می شود. شما ربات هایی دارید که در شبکه های اجتماعی برای تسهیل توزیع این کمپین ها استفاده می شوند. بنابراین استفاده از هوش مصنوعی برای اهداف نادرست جدید نیست. اما ما انتظار داریم هوش مصنوعی مولد مانع ورود به بازار اطلاعات نادرست را کاهش دهد زیرا بسیار مقرون به صرفه، استفاده آسان و در دسترس است. وقتی در مورد این فضا صحبت می کنیم، فقط در مورد چت بات ها صحبت نمی کنیم، بلکه در مورد ابزارهایی صحبت می کنیم که می توانند تصاویر، ویدیوها و صدا تولید کنند.
به نظر شما، چه نوع راهحلهای نظارتی باید برای کاهش آسیبهایی که هوش مصنوعی آنلاین میتواند ایجاد کند در نظر گرفت؟
ما معتقدیم که بسیاری از درسهای آموختهشده از بحثهای دهه گذشته در مورد خطمشی اینترنت را میتوان برای هوش مصنوعی به کار برد. بسیاری از توصیههایی که قبلاً در مورد آزادی اینترنت ارائه کردهایم میتوانند در مبارزه با هوش مصنوعی مفید باشند. بنابراین، برای مثال، برای دولتها میتواند بسیار مفید باشد که بخش خصوصی را مجبور به شفافتر ، در مورد نحوه طراحی محصولات و تأثیر آن بر حقوق بشر کنند. در این میان، تحویل دادهها از پلتفرم به محققان مستقل یکی دیگر از توصیههای کلیدی است که ارائه کردهایم. محققان مستقل میتوانند تأثیر پلتفرمها بر جمعیتها، تأثیر آنها بر حقوق بشر را مطالعه کنند. چیز دیگری که من واقعاً توصیه می کنم تقویت مقررات حفظ حریم خصوصی و اصلاح قوانین نظارت مشکل ساز است. یکی از مواردی که قبلاً به آن نگاه کردیم، مقرراتی است که تضمین می کند دولت ها نمی توانند از ابزارهای نظارتی هوش مصنوعی سوء استفاده کنند.
به همه چیز رسیدگی کن اخبار هوش مصنوعی Gizmodo در اینجایا ببینید همه آخرین اخبار اینجا. برای به روز رسانی روزانه، در خبرنامه رایگان Gizmodo مشترک شوید.
OpenAI این هفته تعدادی به روز رسانی مهم را برای ChatGPT ارائه کرد. این به روز رسانی ها شامل “چشم و گوش و صدا” (یعنی ربات چت اکنون دارای قابلیت تشخیص تصویر، گفتار به نوشتار و متن به گفتار و همچنین صداهایی شبیه به سیری است – بنابراین شما اساساً با HAL 9000 صحبت می کنید)، و همچنین یک “یک جدید” یکپارچه سازی که به کاربران اجازه می دهد اینترنت باز را مرور کنید.
در رویداد سالانه Connect این هفته، متا مجموعه ای از ویژگی های جدید مرتبط با هوش مصنوعی را راه اندازی کرد. به برچسب های تولید شده توسط هوش مصنوعی. حوزه
اگر از ChatGPT استفاده کنید به عنوان یک درمانگر؟ احتمالا نه. برای اطلاعات بیشتر در این مورد، مصاحبه این هفته را بررسی کنید.
آخرین اما نه کم اهمیت: رمان نویسان همیشه هستند دنبال گهه شرکتهای هوش مصنوعی به دلیل سرقت تمام آثار دارای حق چاپ و تبدیل آنها به غذای رباتهای گفتگو.
چرا همه از شرکت های هوش مصنوعی شکایت می کنند؟ | فناوری آینده
داستان ویژه: Chalk One Up for the Nice Guys
یکی از سوالات ماندگار که تسخیر شد اعتصاب نویسندگان هالیوود نوعی حمایت بود که برای محافظت از نویسندگان در برابر تهدید هوش مصنوعی (یا نه) تحقق می یافت. خیلی زود، استودیوهای فیلم و استریم اعلام کردند که هستند برانگیخته با این ایده که یک الگوریتم اکنون می تواند یک سناریو را “نوشتن” کند. چرا آنها نباشند؟ شما نیازی به پرداخت هزینه برای نرم افزار ندارید. بنابراین، مدیران در ابتدا از دادن امتیازاتی که به وضوح فیلمنامه نویس را به عنوان یک شخصیت متمایز تعریف می کرد، خودداری کردند. انسان نقش.
خب الان اعتصاب تموم شده خوشبختانه، به هر حال، نویسندگان حمایت های بزرگی به دست آورد در مقابل نوع حرکت خودکاری که از آن می ترسیدند. اما اگر این یک لحظه پیروزی به نظر می رسد، ممکن است فقط شروع یک نبرد مداوم بین رهبران صنعت سرگرمی و کارگران انسانی آن باشد.
قرارداد جدید WGA ناشی از اعتصاب نویسندگان شامل حمایت های گسترده ای از کارگران صنعت سرگرمی است. علاوه بر امتیازات مثبت مربوط به باقیماندهها و سایر نگرانیهای اقتصادی، این قرارداد به طور قطعی محافظت در برابر جابجایی از طریق هوش مصنوعی را نیز تعریف میکند. طبق این قرارداد، استودیوها مجاز به استفاده از هوش مصنوعی برای نوشتن یا بازنویسی مطالب ادبی نخواهند بود و مطالب تولید شده توسط هوش مصنوعی منبع داستان ها و فیلمنامه ها در نظر گرفته نمی شود، به این معنی که انسان ها تنها اعتبار خود را برای توسعه آثار خلاقانه حفظ خواهند کرد.. در عین حال، در حالی که یک نویسنده می تواند هنگام نوشتن از هوش مصنوعی استفاده کند، یک شرکت نمی تواند آنها را مجبور به استفاده از آن کند. در نهایت، شرکت ها باید به نویسندگان افشا کنند که آیا مطالب ارائه شده به آنها از طریق هوش مصنوعی تولید شده است یا خیر.
خط پایانی: این خبر بسیار خوبی است که از نویسندگان هالیوود حمایت هایی اعطا شده است که آنها را روشن می کند بلافاصله با نرم افزار جایگزین نمی شود تا مدیران استودیو بتوانند یک خردسال خود را نجات دهند هزینه ها. برخی از مفسران حتی هستند آن را بگو اعتصاب نویسندگان به همه الگویی برای نجات جان یکدیگر ارائه کرد. مشاغل در برابر تهدید اتوماسیون در عین حال، روشن است که صنعت سرگرمی – و بسیاری از صنایع دیگر – وجود دارد هنوز به شدت روی مفهوم هوش مصنوعی سرمایه گذاری شده است و برای آینده قابل پیش بینی خواهد بود. کارگران باید به مبارزه برای محافظت از نقش خود در اقتصاد ادامه دهند، زیرا شرکت ها به طور فزاینده ای به دنبال راه حل هایی بدون دستمزد هستند. میانبرهای خودکار
مصاحبه: کالی شرودر توضیح می دهد که چرا نباید از چت بات برای درمانگر استفاده کنید
این هفته با Calli Schroeder، مشاور حریم خصوصی جهانی در مرکز اطلاعات الکترونیکی حریم خصوصی (EPIC) صحبت کردیم. می خواستیم با کالی در مورد یک صحبت کنیم حادثه که این هفته با OpenAI برگزار شد. لیلیان ونگ، رئیس سیستم های امنیتی این شرکت، نظرات بسیاری را برانگیخته است وقتی توییت کرد که او هنگام صحبت با ChatGPT احساس “شنیده و گرم” کرد. او بعداً در توییتی نوشت: «شما قبلاً هرگز درمان را امتحان نکردهاید، اما احتمالاً همین است؟ آن را امتحان کنید به خصوص اگر معمولاً از آن به عنوان یک ابزار بهره وری استفاده می کنید. مردم در مورد آن شک داشتند، از جمله کالی، که بعدها موضوعی را ارسال کرد در توییتر توضیح میدهد که چرا یک ربات چت یک شریک درمانی کمتر از بهینه است: کالی در توییتی نوشت: “محبت، از ChatGPT به عنوان درمان استفاده نکنید.” فقط باید بیشتر می دانستی این مصاحبه برای اختصار و وضوح ویرایش شده است.
در توییتهایتان، به نظر میرسید که میگویید صحبت ، با یک ربات چت واقعاً نباید درمان تلقی شود. من اتفاقاً با این احساس موافق هستم، اما شاید بتوانید دلیل این احساس را روشن کنید. چرا یک ربات چت هوش مصنوعی احتمالا بهترین راه حل برای افرادی که به دنبال کمک روانی هستند نیست؟
من به چند دلیل این را یک خطر واقعی می دانم. اگر میخواهید از سیستمهای هوش مصنوعی مولد بهعنوان یک درمانگر استفاده کنید و همه این اطلاعات واقعاً شخصی و دردناک را با چتبات به اشتراک بگذارید… همه این اطلاعات وارد سیستم میشوند و در نهایت به عنوان دادههای آموزشی استفاده میشوند. بنابراین شخصی ترین و خصوصی ترین افکار شما برای تشکیل مجموعه داده های این شرکت استفاده می شود. و ممکن است برای همیشه در این مجموعه داده وجود داشته باشد. ممکن است راهی نداشته باشید که از آنها بخواهید آن را حذف کنند. یا ممکن است نتواند آن را حذف کند. ممکن است ندانید که آیا این امکان برای شما وجود دارد یا خیر. دلایل زیادی وجود دارد که چرا کل این وضعیت خطر بزرگی را به همراه دارد.
علاوه بر این، این واقعیت نیز وجود دارد که این پلتفرمها در واقع درمانگر نیستند – آنها حتی انسان هم نیستند. بنابراین نه تنها هیچ وظیفه ای در قبال شما ندارند، بلکه به معنای واقعی کلمه اهمیتی هم نمی دهند. آنها قادر به مراقبت نیستند. آنها همچنین اگر توصیه بدی به شما کنند که منجر به بدتر شدن وضعیت روانی شما شود مسئولیتی ندارند.
در سطح شخصی، من را نگران و غمگین میکند که افرادی که در بحرانهای سلامت روان هستند به ماشینها روی میآورند، فقط به این دلیل که کسی یا چیزی به آنها گوش دهد و کمی همدلی به آنها نشان دهد. من فکر می کنم که احتمالاً از مشکلات بسیار عمیق تری در جامعه ما صحبت می کند.
بله، این مطمئناً نشان دهنده برخی کاستی ها در سیستم مراقبت های بهداشتی ما است.
صد در صد. من می خواهم همه به درمان با کیفیت و مقرون به صرفه دسترسی داشته باشند. من کاملاً موافقم که این رباتهای گفتگوی شکاف را پر میکنند زیرا سیستم مراقبتهای بهداشتی ما افراد را شکست داده است و ما خدمات بهداشت روانی خوبی نداریم. اما مشکل این است که این به اصطلاح راه حل ها در واقع می توانند وضعیت مردم را بدتر کنند. به عنوان مثال، اگر این موضوع صرفاً این باشد که شخصی در مجله خود بنویسد تا احساسات خود را بیان کند، این یک چیز خواهد بود. اما این چت بات ها یک انجمن بی طرف نیستند. آنها به شما پاسخ می دهند و اگر مردم به دنبال کمک هستند و این پاسخ ها مفید نیستند، نگران کننده است. اگر در مورد سوء استفاده از درد مردم و آنچه آنها به آنها می گویند، این یک سوال کاملا متفاوت است.
آیا نگرانی دیگری در مورد درمان با هوش مصنوعی دارید؟
پس از ارسال توییت در این مورد، برخی از مردم گفتند: “خب، اگر مردم این کار را انجام دهند، شما کی هستید که به آنها بگویید این کار را نکنند؟” » این یک استدلال معتبر است. اما چیزی که من را نگران میکند این است که در بسیاری از موارد مربوط به فناوری جدید، مردم اجازه انتخاب آگاهانه را ندارند زیرا نحوه عملکرد این فناوری بسیار روشن نیست. اگر مردم میدانستند این سیستمها چگونه ساخته میشوند، ChatGPT چگونه محتوایی را که تولید میکند تولید میکند، اطلاعاتی که به آن میدهید به کجا میرود، چه مدت ذخیره میشود، اگر شما ایده بسیار روشنی از همه اینها داشتید و بودید، من هنوز علاقهمند هستم. ، پس… البته، عالی است. اما، در زمینه درمان، این مشکل همچنان باقی میماند، زیرا اگر به این روش دست دراز کنید، کاملاً ممکن است که در یک وضعیت روانی پریشان هستید که طبق تعریف، به وضوح فکر نمیکنید. بنابراین، این سؤال که آیا رضایت آگاهانه در این زمینه واقعی است یا خیر، به یک سؤال بسیار پیچیده تبدیل می شود.
به همه چیز رسیدگی کن اخبار هوش مصنوعی Gizmodo در اینجایا ببینید همه آخرین اخبار اینجا. برای به روز رسانی روزانه، در خبرنامه رایگان Gizmodo مشترک شوید.