در نشست آسیا Tech x سنگاپور 2024، چندین سخنران آماده شرکت در بحث های سطح بالا و افزایش آگاهی در مورد اهمیت تبدیل شدن امنیت هوش مصنوعی (AI) به عمل بودند. بسیاری به دنبال این هستند که همه، از سازمان ها گرفته تا افراد، را با ابزارهای مورد نیاز برای به کارگیری صحیح این فناوری آماده کنند.
همچنین: نحوه استفاده از ChatGPT برای تجزیه و تحلیل PDF به صورت رایگان
ایوا مارتینکایت، رئیس تحقیقات و نوآوری گروه Telenor که در حاشیه این اجلاس با ZDNET صحبت کرد، گفت: “اقدام عملی و عملی. این چیزی است که گم شده است.” Martinekaite یکی از اعضای هیئت مدیره آزمایشگاه هوش مصنوعی باز نروژی و عضو شورای مشورتی سنگاپور در مورد استفاده اخلاقی از هوش مصنوعی و داده است. او همچنین از سال 2018 تا 2020 یکی از اعضای متخصص گروه کارشناسی ارشد کمیسیون اروپا در زمینه هوش مصنوعی بود.
مارتینکایت خاطرنشان کرد که مقامات ارشد نیز شروع به درک این مشکل کرده اند.
نمایندگان کنفرانس، که شامل وزرای ارشد کشورهای مختلف بودند، به شوخی گفتند که آنها با شرکت در نشستهای سطح بالا در مورد اجلاسهای امنیتی هوش مصنوعی، اخیراً در کره جنوبی و بریتانیا، سوخت جت میسوزانند هنوز. از نظر اقدامات مشخص
مارتینکایت گفت زمان آن فرا رسیده است که دولتها و نهادهای بینالمللی شروع به استقرار کتابهای راهنما، چارچوبها و ابزارهای محک بزنند تا به کسبوکارها و کاربران کمک کنند تا اطمینان حاصل کنند که هوش مصنوعی را کاملاً ایمن استقرار و مصرف میکنند. وی افزود که سرمایه گذاری های مستمر نیز برای تسهیل این تلاش ها مورد نیاز است.
او هشدار داد که بهویژه دیپفیکهای تولید شده توسط هوش مصنوعی، خطرات قابلتوجهی دارند و میتوانند زیرساختهای حیاتی را تحت تأثیر قرار دهند. آنها در حال حاضر یک واقعیت امروزی هستند: تصاویر و ویدئوهایی از سیاستمداران، شخصیت های عمومی و حتی تیلور سویفت ظاهر شده است.
همچنین: دیپ فیک های سیاسی بیش از آنچه فکر می کنید وجود دارد
مارتینکایت اضافه کرد که فناوری در حال حاضر پیچیدهتر از یک سال پیش است و شناسایی دیپفیکها را به طور فزایندهای دشوار میکند. مجرمان سایبری می توانند از این فناوری برای سرقت اعتبارنامه ها و دسترسی غیرقانونی به سیستم ها و داده ها استفاده کنند.
او گفت: «هکرها هک نمیکنند، بلکه به هم متصل میشوند. این یک مسئله حیاتی در صنایع خاصی است، مانند ارتباطات از راه دور، جایی که می توان از دیپ فیک ها برای نفوذ به زیرساخت های حیاتی و تقویت حملات سایبری استفاده کرد. مارتینکایت با اشاره به اینکه اعتبار کارمندان را می توان جعل کرد و برای دسترسی به مراکز داده و سیستم های IT استفاده کرد، افزود که اگر این اینرسی اصلاح نشود، جهان با خطر حمله بالقوه ویرانگر مواجه می شود.
او گفت که کاربران باید به آموزش ها و ابزارهای لازم برای شناسایی و مبارزه با این خطرات مجهز شوند. فناوری برای شناسایی و جلوگیری از چنین محتوای تولید شده توسط هوش مصنوعی، از جمله متن و تصاویر، نیز باید توسعه یابد، مانند واترمارک دیجیتال و بررسی رسانه. مارتینکایت معتقد است این اقدامات باید در کنار قوانین و همکاری بین المللی اجرا شود.
با این حال، او تأکید کرد که چارچوبهای قانونی نباید این فناوری را تنظیم کند، در غیر این صورت، نوآوری هوش مصنوعی میتواند خفه شود و برای مثال، بر پیشرفتهای بالقوه در مراقبتهای بهداشتی تأثیر بگذارد.
در عوض، مقررات باید مناطقی را هدف قرار دهند که فناوری دیپفیک بیشترین تأثیر را دارد، مانند زیرساختهای حیاتی و خدمات دولتی. مارتینکایت گفت، الزاماتی مانند واترمارک، احراز هویت منبع و ایجاد حفاظت در مورد دسترسی و ردیابی دادهها میتواند برای بخشهای پرخطر و ارائهدهندگان فناوری مربوطه اجرا شود.
به گفته ناتاشا کرامپتون، رئیس هوش مصنوعی مایکروسافت، این شرکت شاهد افزایش دیپ فیک، تصاویر غیر توافقی و آزار سایبری بوده است. او در طی یک بحث میزگردی در این اجلاس گفت که مایکروسافت بر روی ردیابی محتوای گمراهکننده آنلاین در حول و حوش انتخابات متمرکز شده است، به ویژه با برگزاری چندین انتخابات در سال جاری.
استفان شنور، وزیر امور خارجه در وزارت فدرال دیجیتال و حمل و نقل آلمان، گفت که دیپ فیک ها پتانسیل انتشار اطلاعات نادرست و گمراه ، رأی دهندگان را دارند که منجر به از دست دادن اعتماد به نهادهای دموکراتیک می شود.
همچنین: اعتبار محتوای TikTok برای شما چه معنایی دارد
Schnorr اضافه کرد که محافظت در برابر این شامل تعهد به حفاظت از داده های شخصی و حریم خصوصی است. او بر لزوم همکاری بینالمللی و شرکتهای فناوری برای پایبندی به قوانین سایبری که برای تضمین امنیت هوش مصنوعی مانند قانون هوش مصنوعی اروپا وضع شده است، تاکید کرد.
Zeng Yi، مدیر آزمایشگاه هوش شناختی الهام گرفته از مغز و مرکز تحقیقات بینالمللی اخلاق و حکمرانی هوش مصنوعی، موسسه اتوماسیون آکادمی علوم چین، گفت: اگر اجازه داده شود تا بدون محدودیت ادامه یابد، دیپفیکها میتوانند بر تصمیمگیری تأثیر بگذارند.
همچنین با تاکید بر نیاز به همکاری بین المللی، Zeng پیشنهاد کرد که یک “رصدخانه” عمیق در سطح جهان ایجاد شود تا درک بهتر و تبادل اطلاعات در مورد اطلاعات نادرست با هدف جلوگیری از انتشار چنین محتوایی در سراسر کشورها ایجاد شود.
او گفت که یک زیرساخت جهانی که حقایق و اطلاعات نادرست را بررسی میکند نیز میتواند به اطلاع عموم مردم در مورد دیپ فیک کمک کند.
سنگاپور چارچوب حاکمیت نسل هوش مصنوعی خود را به روز می کند
در همین حال، سنگاپور نسخه نهایی چارچوب حاکمیت هوش مصنوعی مولد خود را منتشر کرده است که چارچوب حاکمیت هوش مصنوعی موجود خود را گسترش میدهد که اولین بار در سال 2019 معرفی شد و آخرین بار در سال 2020 بهروزرسانی شد.
مدل حکمرانی هوش مصنوعی برای GenAI یک رویکرد «سیستماتیک و متعادل» را ارائه میکند که سنگاپور میگوید نیاز به رسیدگی به نگرانیهای GenAI و ایجاد نوآوری را متعادل میکند. این نه بعد شامل گزارش حادثه، منشأ محتوا، امنیت، و تست و اطمینان را در بر می گیرد و پیشنهاداتی را در مورد اولین گام ها ارائه می دهد.
در مرحله بعد، AI Verify، گروهی که در پشت چارچوب قرار دارد، دستورالعملها و منابع دقیقتری را برای هر 9 بعد اضافه خواهد کرد. برای حمایت از قابلیت همکاری، آنها همچنین چارچوب حاکمیتی را با دستورالعملهای بینالمللی هوش مصنوعی، مانند اصول هیروشیما G7 تطبیق خواهند داد.
همچنین: ویژگی های هوش مصنوعی اپل و سرعت آموزش هوش مصنوعی انویدیا در صدر شاخص نوآوری قرار دارند
ژوزفین تئو، وزیر ارتباطات و اطلاعات سنگاپور و وزیر مسئول کشور هوشمند و امنیت سایبری، طی سخنرانی خود در این اجلاس گفت: حکمرانی خوب به اندازه نوآوری در تحقق چشم انداز هوش مصنوعی سنگاپور مهم است و می تواند به ایجاد نوآوری پایدار کمک کند. .
او گفت: «ما باید تشخیص دهیم که مبارزه با اثرات مضر هوش مصنوعی یک چیز است، اما جلوگیری از وقوع آنها در وهله اول… از طریق طراحی مناسب و اقدامات بالادستی». او افزود که اقدامات کاهش خطر ضروری است و مقررات جدید “مبتنی بر شواهد” می تواند منجر به حکمرانی هوش مصنوعی معنادارتر و موثرتر شود.
در کنار ایجاد حاکمیت هوش مصنوعی، سنگاپور همچنین به دنبال توسعه قابلیت های حاکمیتی خود است، به عنوان مثال با ایجاد یک مرکز فناوری پیشرفته برای امنیت آنلاین، متمرکز بر محتوای مخرب آنلاین تولید شده توسط هوش مصنوعی.
کاربران همچنین باید خطرات را درک کنند. تئو تاکید کرد که درک منافع و محدودیتهای آن برای سازمانهایی که از هوش مصنوعی استفاده میکنند به نفع عمومی است.
تئو معتقد است که کسب و کارها باید پس از آن خود را با طرز فکر، قابلیت ها و ابزارهای مناسب برای رسیدن به این هدف مجهز کنند. او افزود که چارچوب حاکمیت هوش مصنوعی مدل سنگاپور دستورالعمل های عملی در مورد آنچه که باید به عنوان پادمان اجرا شود ارائه می دهد. همچنین الزامات اساسی برای استقرار هوش مصنوعی را بدون توجه به اندازه یا منابع شرکت تعریف می کند.
به گفته Martinekaite، برای Telenor، مدیریت هوش مصنوعی همچنین به معنای نظارت بر استفاده از ابزارهای جدید هوش مصنوعی و ارزیابی مجدد خطرات احتمالی است. شرکت مخابراتی نروژی در حال حاضر در حال آزمایش Microsoft Copilot بر اساس فناوری OpenAI بر اساس اصول اخلاقی هوش مصنوعی Telenor است.
مارتینکایت در پاسخ به این سوال که آیا نبرد اخیر OpenAI بر سر حالت صوتی آن بر اعتماد به نفس آن در استفاده از این فناوری تأثیر گذاشته است، گفت: شرکت های بزرگی که زیرساخت های حیاتی مانند Telenor را مدیریت می کنند، ظرفیت و کنترل های لازم برای اطمینان از به کارگیری ابزارهای هوش مصنوعی قابل اعتماد از جمله پلتفرم های شخص ثالث را دارند. مانند OpenAI. همچنین شامل کار با شرکای مانند ارائه دهندگان ابر کوچکتر و ارائه دهندگان راه حل برای درک و یادگیری ابزارهایی است که آنها استفاده می کنند.
Telenor سال گذشته یک کارگروه ایجاد کرد تا بر پذیرش هوش مصنوعی مسئول نظارت کند. مارتینکایت توضیح داد که این شامل ایجاد اصولی است که کارکنانش باید از آنها پیروی کنند، قوانین و ابزارهایی را برای هدایت استفاده از هوش مصنوعی ایجاد می کند، و استانداردهایی را ایجاد می کند که شرکای آن، از جمله مایکروسافت، باید به آنها احترام بگذارند.
او افزود که هدف از اینها تضمین این است که فناوری مورد استفاده توسط شرکت قانونی و ایمن است. Telenor همچنین یک تیم داخلی دارد که ساختارهای مدیریت ریسک و حاکمیت خود را بررسی می کند تا استفاده از GenAI را در نظر بگیرد. مارتینکایت خاطرنشان کرد: این سازمان ابزارها و راه حل های مورد نیاز برای اطمینان از داشتن ساختار حاکمیتی مناسب برای مدیریت استفاده از هوش مصنوعی در مناطق پرخطر را ارزیابی خواهد کرد.
همچنین: نارساییهای امنیتی ابر سازمانی «نگرانکننده» با سرعت گرفتن تهدیدات هوش مصنوعی.
همانطور که سازمان ها از داده های خود برای آموزش و اصلاح مدل های زبان بزرگ و مدل های هوش مصنوعی کوچکتر استفاده می کنند، Martinekaite معتقد است که شرکت ها و توسعه دهندگان هوش مصنوعی به طور فزاینده ای درباره نحوه استفاده و مدیریت این داده ها بحث خواهند کرد.
او همچنین معتقد است که نیاز به رعایت قوانین جدید، مانند قانون هوش مصنوعی اتحادیه اروپا، به این بحث ها دامن می زند، زیرا شرکت ها تلاش می کنند تا اطمینان حاصل کنند که الزامات اضافی مربوط به استقرار هوش مصنوعی در معرض خطر بالا را برآورده می کنند. به عنوان مثال، آنها باید بدانند که چگونه داده های آموزشی هوش مصنوعی آنها ذخیره و ردیابی می شود.
توجه و نگرانی بسیار بیشتری از سوی سازمانهایی وجود دارد که میخواهند ترتیبات قراردادی خود را با توسعهدهندگان هوش مصنوعی از نزدیک بررسی کنند.
منبع: https://www.zdnet.com/article/can-governments-turn-ai-safety-talk-into-action/#ftag=RSSbaffb68