آیا دولت ها می توانند صحبت در مورد ایمنی هوش مصنوعی را به عمل تبدیل کنند؟

هوش مصنوعی روی صفحه نمایش نشان داده می شود

آندری اونوفرینکو/گتی ایماژ

در نشست آسیا Tech x سنگاپور 2024، چندین سخنران آماده شرکت در بحث های سطح بالا و افزایش آگاهی در مورد اهمیت تبدیل شدن امنیت هوش مصنوعی (AI) به عمل بودند. بسیاری به دنبال این هستند که همه، از سازمان ها گرفته تا افراد، را با ابزارهای مورد نیاز برای به کارگیری صحیح این فناوری آماده کنند.

همچنین: نحوه استفاده از ChatGPT برای تجزیه و تحلیل PDF به صورت رایگان

ایوا مارتینکایت، رئیس تحقیقات و نوآوری گروه Telenor که در حاشیه این اجلاس با ZDNET صحبت کرد، گفت: “اقدام عملی و عملی. این چیزی است که گم شده است.” Martinekaite یکی از اعضای هیئت مدیره آزمایشگاه هوش مصنوعی باز نروژی و عضو شورای مشورتی سنگاپور در مورد استفاده اخلاقی از هوش مصنوعی و داده است. او همچنین از سال 2018 تا 2020 یکی از اعضای متخصص گروه کارشناسی ارشد کمیسیون اروپا در زمینه هوش مصنوعی بود.

مارتینکایت خاطرنشان کرد که مقامات ارشد نیز شروع به درک این مشکل کرده اند.

نمایندگان کنفرانس، که شامل وزرای ارشد کشورهای مختلف بودند، به شوخی گفتند که آنها با شرکت در نشست‌های سطح بالا در مورد اجلاس‌های امنیتی هوش مصنوعی، اخیراً در کره جنوبی و بریتانیا، سوخت جت می‌سوزانند هنوز. از نظر اقدامات مشخص

مارتینکایت گفت زمان آن فرا رسیده است که دولت‌ها و نهادهای بین‌المللی شروع به استقرار کتاب‌های راهنما، چارچوب‌ها و ابزارهای محک بزنند تا به کسب‌وکارها و کاربران کمک کنند تا اطمینان حاصل کنند که هوش مصنوعی را کاملاً ایمن استقرار و مصرف می‌کنند. وی افزود که سرمایه گذاری های مستمر نیز برای تسهیل این تلاش ها مورد نیاز است.

او هشدار داد که به‌ویژه دیپ‌فیک‌های تولید شده توسط هوش مصنوعی، خطرات قابل‌توجهی دارند و می‌توانند زیرساخت‌های حیاتی را تحت تأثیر قرار دهند. آنها در حال حاضر یک واقعیت امروزی هستند: تصاویر و ویدئوهایی از سیاستمداران، شخصیت های عمومی و حتی تیلور سویفت ظاهر شده است.

همچنین: دیپ فیک های سیاسی بیش از آنچه فکر می کنید وجود دارد

مارتینکایت اضافه کرد که فناوری در حال حاضر پیچیده‌تر از یک سال پیش است و شناسایی دیپ‌فیک‌ها را به طور فزاینده‌ای دشوار می‌کند. مجرمان سایبری می توانند از این فناوری برای سرقت اعتبارنامه ها و دسترسی غیرقانونی به سیستم ها و داده ها استفاده کنند.

او گفت: «هکرها هک نمی‌کنند، بلکه به هم متصل می‌شوند. این یک مسئله حیاتی در صنایع خاصی است، مانند ارتباطات از راه دور، جایی که می توان از دیپ فیک ها برای نفوذ به زیرساخت های حیاتی و تقویت حملات سایبری استفاده کرد. مارتینکایت با اشاره به اینکه اعتبار کارمندان را می توان جعل کرد و برای دسترسی به مراکز داده و سیستم های IT استفاده کرد، افزود که اگر این اینرسی اصلاح نشود، جهان با خطر حمله بالقوه ویرانگر مواجه می شود.

  محققان ارگانیسم های کاملا ناشناخته ای را در دستگاه گوارش انسان کشف کرده اند

او گفت که کاربران باید به آموزش ها و ابزارهای لازم برای شناسایی و مبارزه با این خطرات مجهز شوند. فناوری برای شناسایی و جلوگیری از چنین محتوای تولید شده توسط هوش مصنوعی، از جمله متن و تصاویر، نیز باید توسعه یابد، مانند واترمارک دیجیتال و بررسی رسانه. مارتینکایت معتقد است این اقدامات باید در کنار قوانین و همکاری بین المللی اجرا شود.

با این حال، او تأکید کرد که چارچوب‌های قانونی نباید این فناوری را تنظیم کند، در غیر این صورت، نوآوری هوش مصنوعی می‌تواند خفه شود و برای مثال، بر پیشرفت‌های بالقوه در مراقبت‌های بهداشتی تأثیر بگذارد.

در عوض، مقررات باید مناطقی را هدف قرار دهند که فناوری دیپ‌فیک بیشترین تأثیر را دارد، مانند زیرساخت‌های حیاتی و خدمات دولتی. مارتینکایت گفت، الزاماتی مانند واترمارک، احراز هویت منبع و ایجاد حفاظت در مورد دسترسی و ردیابی داده‌ها می‌تواند برای بخش‌های پرخطر و ارائه‌دهندگان فناوری مربوطه اجرا شود.

به گفته ناتاشا کرامپتون، رئیس هوش مصنوعی مایکروسافت، این شرکت شاهد افزایش دیپ فیک، تصاویر غیر توافقی و آزار سایبری بوده است. او در طی یک بحث میزگردی در این اجلاس گفت که مایکروسافت بر روی ردیابی محتوای گمراه‌کننده آنلاین در حول و حوش انتخابات متمرکز شده است، به ویژه با برگزاری چندین انتخابات در سال جاری.

استفان شنور، وزیر امور خارجه در وزارت فدرال دیجیتال و حمل و نقل آلمان، گفت که دیپ فیک ها پتانسیل انتشار اطلاعات نادرست و گمراه ، رأی دهندگان را دارند که منجر به از دست دادن اعتماد به نهادهای دموکراتیک می شود.

همچنین: اعتبار محتوای TikTok برای شما چه معنایی دارد

Schnorr اضافه کرد که محافظت در برابر این شامل تعهد به حفاظت از داده های شخصی و حریم خصوصی است. او بر لزوم همکاری بین‌المللی و شرکت‌های فناوری برای پایبندی به قوانین سایبری که برای تضمین امنیت هوش مصنوعی مانند قانون هوش مصنوعی اروپا وضع شده است، تاکید کرد.

Zeng Yi، مدیر آزمایشگاه هوش شناختی الهام گرفته از مغز و مرکز تحقیقات بین‌المللی اخلاق و حکمرانی هوش مصنوعی، موسسه اتوماسیون آکادمی علوم چین، گفت: اگر اجازه داده شود تا بدون محدودیت ادامه یابد، دیپ‌فیک‌ها می‌توانند بر تصمیم‌گیری تأثیر بگذارند.

همچنین با تاکید بر نیاز به همکاری بین المللی، Zeng پیشنهاد کرد که یک “رصدخانه” عمیق در سطح جهان ایجاد شود تا درک بهتر و تبادل اطلاعات در مورد اطلاعات نادرست با هدف جلوگیری از انتشار چنین محتوایی در سراسر کشورها ایجاد شود.

او گفت که یک زیرساخت جهانی که حقایق و اطلاعات نادرست را بررسی می‌کند نیز می‌تواند به اطلاع عموم مردم در مورد دیپ فیک کمک کند.

  مایکروویو شما می تواند پناهگاهی برای باکتری های مقاوم باشد

سنگاپور چارچوب حاکمیت نسل هوش مصنوعی خود را به روز می کند

در همین حال، سنگاپور نسخه نهایی چارچوب حاکمیت هوش مصنوعی مولد خود را منتشر کرده است که چارچوب حاکمیت هوش مصنوعی موجود خود را گسترش می‌دهد که اولین بار در سال 2019 معرفی شد و آخرین بار در سال 2020 به‌روزرسانی شد.

مدل حکمرانی هوش مصنوعی برای GenAI یک رویکرد «سیستماتیک و متعادل» را ارائه می‌کند که سنگاپور می‌گوید نیاز به رسیدگی به نگرانی‌های GenAI و ایجاد نوآوری را متعادل می‌کند. این نه بعد شامل گزارش حادثه، منشأ محتوا، امنیت، و تست و اطمینان را در بر می گیرد و پیشنهاداتی را در مورد اولین گام ها ارائه می دهد.

در مرحله بعد، AI Verify، گروهی که در پشت چارچوب قرار دارد، دستورالعمل‌ها و منابع دقیق‌تری را برای هر 9 بعد اضافه خواهد کرد. برای حمایت از قابلیت همکاری، آنها همچنین چارچوب حاکمیتی را با دستورالعمل‌های بین‌المللی هوش مصنوعی، مانند اصول هیروشیما G7 تطبیق خواهند داد.

همچنین: ویژگی های هوش مصنوعی اپل و سرعت آموزش هوش مصنوعی انویدیا در صدر شاخص نوآوری قرار دارند

ژوزفین تئو، وزیر ارتباطات و اطلاعات سنگاپور و وزیر مسئول کشور هوشمند و امنیت سایبری، طی سخنرانی خود در این اجلاس گفت: حکمرانی خوب به اندازه نوآوری در تحقق چشم انداز هوش مصنوعی سنگاپور مهم است و می تواند به ایجاد نوآوری پایدار کمک کند. .

او گفت: «ما باید تشخیص دهیم که مبارزه با اثرات مضر هوش مصنوعی یک چیز است، اما جلوگیری از وقوع آنها در وهله اول… از طریق طراحی مناسب و اقدامات بالادستی». او افزود که اقدامات کاهش خطر ضروری است و مقررات جدید “مبتنی بر شواهد” می تواند منجر به حکمرانی هوش مصنوعی معنادارتر و موثرتر شود.

در کنار ایجاد حاکمیت هوش مصنوعی، سنگاپور همچنین به دنبال توسعه قابلیت های حاکمیتی خود است، به عنوان مثال با ایجاد یک مرکز فناوری پیشرفته برای امنیت آنلاین، متمرکز بر محتوای مخرب آنلاین تولید شده توسط هوش مصنوعی.

کاربران همچنین باید خطرات را درک کنند. تئو تاکید کرد که درک منافع و محدودیت‌های آن برای سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند به نفع عمومی است.

تئو معتقد است که کسب و کارها باید پس از آن خود را با طرز فکر، قابلیت ها و ابزارهای مناسب برای رسیدن به این هدف مجهز کنند. او افزود که چارچوب حاکمیت هوش مصنوعی مدل سنگاپور دستورالعمل های عملی در مورد آنچه که باید به عنوان پادمان اجرا شود ارائه می دهد. همچنین الزامات اساسی برای استقرار هوش مصنوعی را بدون توجه به اندازه یا منابع شرکت تعریف می کند.

به گفته Martinekaite، برای Telenor، مدیریت هوش مصنوعی همچنین به معنای نظارت بر استفاده از ابزارهای جدید هوش مصنوعی و ارزیابی مجدد خطرات احتمالی است. شرکت مخابراتی نروژی در حال حاضر در حال آزمایش Microsoft Copilot بر اساس فناوری OpenAI بر اساس اصول اخلاقی هوش مصنوعی Telenor است.

  تفاله قهوه ممکن است از مغز در برابر بیماری آلزایمر محافظت کند!

مارتینکایت در پاسخ به این سوال که آیا نبرد اخیر OpenAI بر سر حالت صوتی آن بر اعتماد به نفس آن در استفاده از این فناوری تأثیر گذاشته است، گفت: شرکت های بزرگی که زیرساخت های حیاتی مانند Telenor را مدیریت می کنند، ظرفیت و کنترل های لازم برای اطمینان از به کارگیری ابزارهای هوش مصنوعی قابل اعتماد از جمله پلتفرم های شخص ثالث را دارند. مانند OpenAI. همچنین شامل کار با شرکای مانند ارائه دهندگان ابر کوچکتر و ارائه دهندگان راه حل برای درک و یادگیری ابزارهایی است که آنها استفاده می کنند.

Telenor سال گذشته یک کارگروه ایجاد کرد تا بر پذیرش هوش مصنوعی مسئول نظارت کند. مارتینکایت توضیح داد که این شامل ایجاد اصولی است که کارکنانش باید از آنها پیروی کنند، قوانین و ابزارهایی را برای هدایت استفاده از هوش مصنوعی ایجاد می کند، و استانداردهایی را ایجاد می کند که شرکای آن، از جمله مایکروسافت، باید به آنها احترام بگذارند.

او افزود که هدف از اینها تضمین این است که فناوری مورد استفاده توسط شرکت قانونی و ایمن است. Telenor همچنین یک تیم داخلی دارد که ساختارهای مدیریت ریسک و حاکمیت خود را بررسی می کند تا استفاده از GenAI را در نظر بگیرد. مارتینکایت خاطرنشان کرد: این سازمان ابزارها و راه حل های مورد نیاز برای اطمینان از داشتن ساختار حاکمیتی مناسب برای مدیریت استفاده از هوش مصنوعی در مناطق پرخطر را ارزیابی خواهد کرد.

همچنین: نارسایی‌های امنیتی ابر سازمانی «نگران‌کننده» با سرعت گرفتن تهدیدات هوش مصنوعی.

همانطور که سازمان ها از داده های خود برای آموزش و اصلاح مدل های زبان بزرگ و مدل های هوش مصنوعی کوچکتر استفاده می کنند، Martinekaite معتقد است که شرکت ها و توسعه دهندگان هوش مصنوعی به طور فزاینده ای درباره نحوه استفاده و مدیریت این داده ها بحث خواهند کرد.

او همچنین معتقد است که نیاز به رعایت قوانین جدید، مانند قانون هوش مصنوعی اتحادیه اروپا، به این بحث ها دامن می زند، زیرا شرکت ها تلاش می کنند تا اطمینان حاصل کنند که الزامات اضافی مربوط به استقرار هوش مصنوعی در معرض خطر بالا را برآورده می کنند. به عنوان مثال، آنها باید بدانند که چگونه داده های آموزشی هوش مصنوعی آنها ذخیره و ردیابی می شود.

توجه و نگرانی بسیار بیشتری از سوی سازمان‌هایی وجود دارد که می‌خواهند ترتیبات قراردادی خود را با توسعه‌دهندگان هوش مصنوعی از نزدیک بررسی کنند.

منبع: https://www.zdnet.com/article/can-governments-turn-ai-safety-talk-into-action/#ftag=RSSbaffb68