خطرات هوش مصنوعی چیست؟

برای جلوگیری از خنثی شدن توسط دشمن، این سلاح ها به گونهای طراحی شدهاند که “خاموش کردن” آنها بسیار دشوار است، بنابراین انسانها میتوانند به طور منطقی کنترل چنین وضعیتی را از دست سایت vector-robot بدهند. به طور کلی هوش مصنوعی سطحی از فناوری است که در آن ماشینها از درجه استقلال و انعطافپذیری بسیار بالاتری برخوردار هستند، که به آنها این امکان را میدهد تا تقریباً در همه کارهای شناختی از انسانها بهتر عمل کنند. تا سال 1965 این امکان وجود داشت که برنامه ای با حافظه و زمان کافی بتواند یک مشکل را توضیح دهد و سپس به دنبال راه حل باشد. یک متخصص غدد لنفاوی یک مورد دشوار از سیستم را توضیح می دهد و تشخیص آن را از طریق سیستم بررسی می کند. مانند ادراک تصویری، تشخیص صدا، تصمیمگیری، ترجمه از زبانی به زبان دیگر و … در این رویکرد هوش مصنوعی به مطالعه و ساخت بازیگران هوشمند می پردازد. هوش مصنوعی امروزه به درستی به عنوان هوش مصنوعی narrow (یا هوش مصنوعی ضعیف) شناخته میشود، از این نظر که برای انجام یک کار محدود طراحی شده است (به عنوان مثال کارهایی مانند تشخیص چهره یا جستجوی اینترنتی یا فقط رانندگی با ماشین و…).

درحالی که هوش مصنوعی ضعیف کاملا محدود است و توی هر وظیفهای بهتر از انسانها عمل میکند مانند حل معادلات یا بازی شطرنج. این خطر خطری است که حتی با هوش مصنوعی ضعیف (narrow) نیز وجود دارد، که با افزایش سطح هوش و استقلال هوش مصنوعی رشد میکند. مغرضانه عمل میکنند و این تعصب ممکن است ناخودآگاه در سیستمهای هوش مصنوعی که توسط بشر ساخته میشود نیز وارد شود. تعصب همچنین ممکن است به دلیل اطلاعات ناقصی که توسط انسان تولید میشود، به سیستمها وارد شود. با این تفاسیر سوال به وجود خواهد آمد که چگونه میتوانیم با این تعصب مقابله کنیم؟ اما، ما با یک سوال مهم مواجه هستیم. با این حال حتی قویترین و پیشرفتهترین هوش مصنوعی نیز به دست انسانها برنامهریزی میشوند و خطر در این زمینه تا حدودی وجود دارد. مطالعه هوش مصنوعی برای طراحی یک بازیگر باهوش دو مزیت دارد. بخش اول: هوش مصنوعی هنوز فضای کافی برای یک انیشتین کامل دارد! اما هوش مصنوعی هنوز در فازهای ابتدایی خود قرار دارد و همچنین اگر به درستی مدیریت نشود، میتواند آسیب بزرگی به همراه داشته باشد.

زمینههای زیادی وجود دارد که هوش مصنوعی در آنها میتواند خطری برای بشر ایجاد کند و بهتر است اکنون این خطرها مورد بحث قرار گیرد تا بتوان در آینده آنان را مدیریت کرد. عمل منطقی یعنی اینکه فرد بتواند با اصولی که در ذهن دارد به سمت رسیدن به اهداف حرکت کند. ما باید وارد ذهن انسان شویم. هنگامی که یک نظریه دقیق از ذهن انسان داشته باشیم، می توانیم آن نظریه را در یک برنامه کامپیوتری اعمال کنیم. این آزمایش به این صورت است که فرد به عنوان بازجو با یک ماشین و یک فرد به گفتگو می نشیند و سعی می کند ماشین را از شخص تشخیص دهد. در حالی که داستانهای علمی اغلب هوش مصنوعی را به عنوان رباتهایی با ویژگیهای انسانی به تصویر میکشند، اما هوش مصنوعی میتواند از الگوریتمهای جستجوی گوگل تا IBM’s Watson و سلاح های خودمختار باشد. اکثر محققان بر این نظرند که هر چقدر هم هوش مصنوعی پیشرفته و قوی باشد باز هم نمیتواند احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد به همین خاطر برخی از محققان هیچ نگرانی بابت خطرات هوش مصنوعی که ممکن است در آینده اتفاق بیفتد را ندارند. با این حال، هوش مصنوعی ممکن است در آینده باعث از بین رفتن حریم خصوصی شود.

حریم خصوصی یکی از حقوق اساسی بشر است که همگی انسانها لایق آن هستند. باشد. این یک نمونه بارز از این است که چگونه هوش مصنوعی میتواند منجر به دسترسی تمام قسمتهای زندگی و از بین رفتن حریم خصوصی شود. علاوه بر این، یک مسابقه تسلیحاتی هوش مصنوعی میتواند ناخواسته به جنگ هوش مصنوعی منجر شود که منجر به تلفات گسترده نیز میشود. در حالی که هوش مصنوعی میتواند بی اندازه به جهانیان کمک کند، اما متاسفانه میتواند به تروریستها برای انجام حملات تروریستی نیز کمک کند. بسیاری از آژانسهای تروریستی از پهپادها برای انجام حملات به سایر کشورها استفاده میکنند. استدلال مکانیزه: از اطلاعات ذخیره شده برای پاسخ به سوالات و بازیابی نتایج جدید استفاده کنید. اما متاسفانه ما هنوز نمیدانیم که AI (هوش مصنوعی) میتواند به کمک ما بیاید یا به ضرر ما کار کند و موجب نابودی بشر گردد. به طور مثال شما برای رسیدن به فرودگاه نیاز دارید تا از این نمونه خودروها استفاده کنید در این مرحله ممکن است هوش مصنوعی خودرو دچار مشکل شود و تمامی قوانین راهنمایی و رانندگی را نقض کند و در آخر موجب هرج و مرج و تصادف گردد.

هوش مصنوعی برای انجام کار مفیدی برنامهریزی شده است، اما برای رسیدن به هدف خود روشی مخرب را توسعه میدهد. هوش مصنوعی در حال حاضر ابزاری عالی برای توسعه است. تنها راه برای مقابله با این مسئله این است که محققان هوش مصنوعی هنگام توسعه و آموزش سیستمهای هوش مصنوعی و انتخاب دادهها، به طور دستی سعی کنند که این جهتگیری را از هوش مصنوعی به طور کامل حذف کنند. اگر خوشبینی را کنار بگذاریم، پیچیدگی روزافزون فناوریها و الگوریتمها ممکن است نتیجهی این باشد که هوش مصنوعی اگر اهداف و اجرای آن مغایر با انتظارات یا اهداف خود باشد، میتواند کاملا خطرناک است. در سطح فوق العاده یا قوی هوش AGI، یک سیستم مهندسی زمین یا کنترل آب و هوا را تصور کنید که برای اجرای برنامهنویسی خود به کارآمدترین شکل ممکن، آزاد باشد. مهندسی رباتیک: برای حرکت دادن این جسم. مامور مالیات، فردی است که یک سری قوانین را فراگرفتهاست و با استفاده از این اطلاعات و بر اساس دادههایی که به دستش میرسد، مقدار مالیات را محاسبه میکند و به عنوان نتیجه اعلام میکند. او می تواند از همین اشتباهات برای پیشرفت استفاده کند. هرچه هوش مصنوعی با اهداف ما همسو تر باشد ما میتوانیم سریع تر و بهتر در زمینه فناوری پیشرفت کنیم.

این فناوری در تمام صنایع انقلابی ایجاد کرده و بسیاری از مشکلات بشریت را برطرف کرده است. درحالی که امروزه فناوری به سمت هوش مصنوعی حرکت میکند، هوش مصنوعی بیش از هر انسانی دارای هوشمندی است و در حال حاضر هیچ راهی برای پیشبینی نحوه رفتار آن نداریم. هوش مصنوعی طیف وسیعی از لوازم هوشمندی که ما در حال استفاده از آن هستیم را در برگرفته است. هوش مصنوعی، سیستمی رایانهای است که قادر است، کارهایی انجام دهد که در حالت عادی برای انجام آن، نیاز به هوشمندی انسان است. هوش مصنوعی، شاخهای از علوم کامپیوتر است که سعی دارد، رفتار هوشمندانه را در رایانهها، شبیهسازی کند. هر زمان که نتوانیم اهداف AI را کاملاً با اهداف خود هماهنگ کنیم، این اتفاق میافتد که بسیار دشوار است. در حالی که هوش فوق العاده هوش مصنوعی قوی این توانایی را دارد که به ما کمک کند تا جنگ، بیماری و فقر را ریشه کن کنیم، اما در این سطح خطرات قابل توجهی از هوش مصنوعی وجود دارد. اگر بخواهیم طرز فکر رایانه ها را با طرز فکر مردم مقایسه کنیم، ابتدا باید بدانیم مردم چگونه فکر می کنند. در یک حادثه جداگانه، Google Photos با استفاده از تشخیص چهره، دو نفر از مردم آفریقایی-آمریکایی را به عنوان “گوریل” برچسبگذاری کرد.

چه میشود اگر آنها سرکش شوند و مردم بیگناه را بکشند. ارسطو اولین کسی بود که اصول «تفکر صحیح» را تدوین کرد. حریف او، High Tech، اولین برنامه ای بود که یک استاد بزرگ شطرنج را شکست داد. این نشانه روشنی از سوگیری نژادی بود که باعث شد الگوریتم برچسب نادرستی به انسان بزند. سلاحهای خودمختار سیستمهای هوش مصنوعی هستند که برای کشتن برنامهریزی شدهاند. چرا هوش مصنوعی در برخی زمینهها خطرناک است؟ کلیدهای تعیینکننده خطرناک بودن یا نبودن هوش مصنوعی تماما به نوع برنامهریزی و استقرار آن بستگی دارد. مسافر توضیح می دهد که قصد دارد 29 مهرماه با ارزان ترین بلیط موجود و بدون توقف به آنجا برود و یکشنبه برمی گردد. این دستگاه عوامل اصلی مؤثر در تصمیم گیری و تأثیر متقابل علائم این مورد را توضیح می دهد. با این حال، آزمون جامع تورینگ شامل یک سیگنال ویدیویی است تا پرسشگر بتواند توانایی های ادراکی دستگاه را اندازه گیری کند.

راننده به راحتی روی صندلی خود می نشیند و با سرعت 70 کیلومتر در ساعت حرکت می کند. از SIRI گرفته تا اتومبیلهای خودران، هوش مصنوعی (AI) به سرعت در حال پیشرفت است. این سیستم فرمان را می چرخاند و سرعت را از طریق داده های جمع آوری شده و تجربیات آموزشی تنظیم می کند. سیستم روباتیک راننده واقعی خودرو است که داده های لازم را از طریق دوربین فیلمبرداری، ردیاب صوتی و آشکارسازهای لیزری متصل به خودرو جمع آوری می کند. بازیگر هوشمند هر چیزی است که بتواند محیط را از طریق حسگرها درک کند و از طریق اپراتورها بر محیط تأثیر بگذارد. یک برنامه درک گفتار به نام پگاسوس به کل مکالمه نگاه می کند. دوربین های نصب شده در چراغ های راهنمایی در تقاطع ها به کنترل ترافیک کمک می کنند. همه انسان ها خواهند مرد. و تقریباً همه کشورهای پیشرفته فنی دنیا در حال تولید این رباتها هستند. در واقع، چین در حال حاضر بر روی یک سیستم اعتبار اجتماعی کار میکند که توسط هوش مصنوعی تأمین میشود. خب، حال چگونه اطمینان حاصل کنیم که هوش مصنوعی مانند برخی از انسانهای جهان نژادپرست یا جنسپرست نیست.

در حالی که این داستانها و کابوسها تنها در فیلمها و داستانهای طنزآمیز وجود دارد. اما داشتن این سلاحها خطرات زیادی دارد. اما ورودی یک عامل نرم افزاری می تواند چندین متغیر باشد که مقدار آن ها “actor” نامیده می شود. اما هوش مصنوعی قوی یا AGI تقریبا بدون محدودیت در هر کاری از انسانها میتواند پیشی بگیرد. این تست راهی برای سنجش هوش خودرو است. با این حال، هدف طولانی مدت بسیاری از محققان ایجاد AI کلی (AGI یا AI قوی) است. در ادامه این مقاله شما را با خطرات هوش مصنوعی آشنا میکنیم با ما همراه باشید. همانطور که این مثالها نشان میدهد، نگرانی در مورد هوش مصنوعی پیشرفته بدخواهی نیست، بلکه صلاحیت است. کار به دو صورت انجام می شود: 1. از طریق درون نگری: تلاش برای ثبت افکار خودمان همانطور که اتفاق می افتد. همانطور که اشاره کردیم، تفاوت هوش مصنوعی و یادگیری ماشین خیلی روشن است. یا حتی غم انگیزتر، چه میشود اگر آنها نتوانند بین اهداف خود و افراد بیگناه تفاوت قائل شوند و آنها را به اشتباه بکشند.

وقتی افراد کلمهی یادگیری عمیق را به کار میبرند، عمدتا منظورشان شبکههای عمیق عصبی (deep artificial neural networks) است و نه یادگیری تقویتی عمیق (deep reinforcement learning). البته نوع هوشمند این کار را به صورت خودکار در سطح میدان انجام می دهد. حتی امروزه دستگاههایی هستند که میتوانند چهره شما را در هر مکانی که باشید تشخیص دهند که البته تمامی دستگاههای امروزی مجهز به این نرم افزار میباشند. البته اینها تنها چند نمونه از محصولات هوش مصنوعی هستند. هرچه هوش مصنوعی بیشتر پیشرفت کند، بدیهی است مشاغلی را که قبلاً توسط انسانها انجام میشد، به عهده خواهد گرفت. به عنوان مثال، نیوول و سایمون که “سیستم حل مشکل” را اختراع کردند، از اینکه کامپیوتر به هیچ وجه راه حل را دریافت کرد، خوشحال نبودند. به عنوان مثال، «سقراط یک انسان است. در حقیقت، یک مدیر ارشد در یک شرکت دفاعی چین حتی اظهار داشت که جنگهای آینده توسط انسانها انجام نمیشود و سلاحهای خودمختار به جای انسانها در جنگ حضور دارند. خدمه معتقدند که اگر مارول نبود، مشکل نادیده گرفته می شد. هوش مصنوعی فوقالعاده هوشمند در تحقق اهداف خود بسیار خوب خواهد بود و اگر این اهداف با اهداف ما مطابقت نداشته باشد، ما با یک مشکل روبرو خواهیم شد.

دغدغه اصلی آنها این بود که مراحل حل مسئله این دستگاه را به مراحل تفکر انسان نزدیک کنند. در این میان چه کسی مسئول آن وضعیت خواهد بود؟ و داشتن نمره پایین ممکن است ممنوعیت سفر، داشتن وضعیت اجتماعی پایین تر و … بنابراین باید یک مجموعه جدید اجتماعی ایجاد شود تا همه انسانها حتی در این سناریو قادر به کسب درآمد باشند. بنابراین صاحبان شرکتهای مبتنی بر هوش مصنوعی تمام سود را کسب میکنند و ثروتمندتر میشوند. زیرا شبیه سازی فیزیکی یک فرد برای هوش غیر ضروری است. اولاً این رویکرد کلی تر از رویکرد قانون فکر است، زیرا «نتیجه گیری صحیح» در این رویکرد تنها یک مکانیسم ممکن برای دستیابی به عقلانیت است، نه یک مکانیسم ضروری. ثانیاً، رویکرد کنشگر هوشمند، مبنای علمی تری نسبت به سایر رویکردها دارد، زیرا معیار عقلانیت به خوبی تعریف شده و کاملاً کلی است. این سیستم به همه شهروندان چینی نمرهای بر اساس نحوه رفتار آنها میدهد. در واقع رفتار این کامپیوترها باید مطابق با اصول رفتار انسان باشد.

اگر ورودی / خروجی و زمان کامپیوتر با انسان سازگار باشد، این بدان معناست که مکانیسم با انسان نیز کار می کند. زمانی که هوش مصنوعی باید با انسان ها ارتباط برقرار کند، رفتار انسانی آن کامپیوتر یا ماشین نیز مورد بحث قرار می گیرد. “پس سقراط هم خواهد مرد.” تصور می شد که قوانین فکر بر عملیات ذهنی ما حاکم است. بر این اساس علم «منطق» آغاز شد. در حالی که انسانهایی که بیکار شدهاند فقیرتر خواهند شد. خساراتی که میتواند به زیرساختها و اکوسیستمها وارد کند میتواند فاجعه بار باشد. طبق گزارشی که توسط سازمان جهانی مک کینزی منتشر شده است، میتواند حدود ۸۰۰ میلیون شغل در سراسر جهان به دلیل اتوماسیون تا سال ۲۰۳۰ از بین برود. سلاحهای خودمختار یا “رباتهای قاتل” رباتهای نظامی هستند که میتوانند اهداف خود را جستجو کنند و طبق دستورالعملهای از قبل برنامهریزی شده به طور مستقل به هدف خود برسند. ترس دیگر این است که تروریستها بتوانند به “رباتهای قاتل” که در بالا ذکر کردیم دسترسی پیدا کنند و از آنها استفاده کنند. اگر رباتها در نیروی کار به خدمت گرفته شوند، این بدان معنی است که نیازی به پرداخت حقوق آنها مانند کارمندان انسانی نیست. این ممکن است شامل رفتاری مانند عدم پرداخت وام، پخش موسیقی با صدای بلند در قطارها، سیگار کشیدن در مناطق غیرسیگاری، بازیهای ویدئویی بسیار زیاد و …

این اتفاق ممکن است شکاف بین فقیر و غنی را بیش از پیش افزایش دهد. نمایش اطلاعات: اطلاعات را قبل یا در حین بازجویی ذخیره کنید. پردازش زبان طبیعیکامپیوتر باید بتواند به راحتی انگلیسی (یا زبان انسانی دیگر) صحبت کند. هرچه هوش مصنوعی پیچیدهتر و همه گیرتر میشود، صداهای هشدار دهنده نسبت به مشکلات فعلی و آینده آن بلندتر میشوند. به طور خلاصه، یادگیری عمیق (Deep Learning) زیرمجموعهی یادگیری ماشین (Machine Learning) و یادگیری ماشینی زیرمجموعهی هوش مصنوعی (Artificial Intelligence) است. اگر هوش مصنوعی به وسعت یک قاره باشد، یادگیری عمیق تنها یک استان در یکی از کشورهای این قاره (یادگیری ماشین!) است. در واقع تفاوت هوش مصنوعی و یادگیری عمیق مانند تفاوت یک قاره و یک استان است! تفاوت یادگیری ماشین و یادگیری عمیق، مانند تفاوت یک کشور و استان است. یادگیری ماشین: ماشینهایی که خودشان را تغییر میدهند! علاوه بر این، محقق این توانایی را دارد که اشیاء فیزیکی را از طریق “دریچه” به دستگاه بدهد. تصویر واضحی از این خطر هوش مصنوعی در خودروهای خودران وجود دارد. AI (هوش مصنوعی) چیست؟ موفقیت در ایجاد هوش مصنوعی موثر میتواند بزرگترین واقعه در تاریخ تمدن ما باشد. شاید در فیلم و سریالهای علمی-تخیلی دیده باشید که هوش مصنوعی (خطرات هوش مصنوعی) غالباً شامل رباتهای قاتل و سیستمهای رایانهای بسیار هوشمند هستند که بشریت را آزار دهندهای میدانند و باید انسانها را به خاطر محافظت از زمین از بین ببرند.

مارول یک سیستم خبره است که حجم زیادی از داده های ارسال شده توسط فضاپیما را بررسی می کند و هرگونه مشکل را گزارش می کند. خوشبختانه این آنالایزر از همان ابتدا می تواند این مشکل را حل کند. ظهور «منطق صوری» در اواخر قرن نوزدهم و اوایل قرن بیستم دستور مشخص کردن چیزها در جهان و ارتباطات بین آنها را داد. یک پیام قرمز رنگ بر روی صفحه نمایش ظاهر می شود مبنی بر اینکه یک “اشکال” در فضاپیمای وویجر در نزدیکی سیاره نپتون مشاهده شده است. او در 120 کیلومتر گذشته حتی به فرمان دست نزده است. او تشخیص سیستم را به سخره می گیرد. مخترعان این سیستم نگران نیستند و از پزشک می خواهند که دلیل این تشخیص را از سیستم بپرسد. این یک واقعیت تأسفآور است که انسانها گاهی اوقات در برابر سایر ادیان، جنسیتها، ملیتها و … اول از همه، قبولی در آزمون تورینگ در زمینه هوش مصنوعی کار دشواری است. هوش مصنوعی: هوش مصنوعی نمادین و منتقدان! برنامه یکی در ده کلمه را نمی فهمید. اگر راه حلی وجود نداشت، این برنامه هرگز جستجو را متوقف نمی کرد.

او امیدی ندارد و باید شکست را بپذیرد. او رفتار هوشمندانه را «توانایی انجام تمام وظایف ادراک در سطح انسانی» تعریف می کند. این تست فقط توسط متن و صفحه کلید و مانیتور کامپیوتر انجام می شود. استاد بین المللی شطرنج آرنولد دانکر به صفحه مانیتور روبروی خود خیره شده است. مسافر در میکروفون گفت: “من می خواهم از بوستون به سانفرانسیسکو بروم.” جواب می دهد چه روزی می خواهید سفر کنید؟ این سلاحها اگر در دست یک فرد اشتباه قرار گیرند میتوانند به راحتی تلفات جانی ایجاد کنند. اگر دستگاه بتواند سؤال کننده را فریب دهد تا در قضاوت خود اشتباه کند، می تواند آزمون را با موفقیت پشت سر بگذارد. در نهایت این کارشناس اشتباه خود را می پذیرد. آلن تورینگ (1950) آزمون تورینگ را پیشنهاد کرد. بنابراین، اگر فرضیه درستی از یک اتصال را بر اساس یک قیاس منطقی ارائه دهیم، نتیجه مطلوب حاصل می شود. سپس بر اساس مکانیسم تصمیم گیری تصمیم می گیرد. مسافر موفق می شود بلیط رزرو کند و 894 دلار کمتر خرج کند. آزمون تورینگ عمداً از برقراری ارتباط فیزیکی بین سؤال کننده و رایانه اجتناب می کند. 2. از طریق آزمایشات روانشناختی. فراگیری ماشین: سازگاری با شرایط جدید و کشف و برون یابی مدل ها.