توافق سیاسی عصر جمعه توسط قانونگذاران اتحادیه اروپا در مورد آنچه اتحادیه به عنوان اولین قانون جامع جهان برای تنظیم هوش مصنوعی ارائه می کند، شامل اختیاراتی است که به کمیسیون اجازه می دهد مقررات پاناروپایی در مورد هوش مصنوعی را تطبیق دهد. هوش مصنوعی همگام با تحولات این کاهش است. میدان لبه تایید شده.
انتخاب اصطلاح قانونگذاران برای تنظیم قویترین مدلهای پشت رونق فعلی در ابزارهای هوش مصنوعی مولد – که قانون اتحادیه اروپا آن را مدلها و سیستمهای هوش مصنوعی «هدف عمومی» مینامد، به جای «استفاده از شرایط انتخاب صنعت، مانند «بنیادی» یا «بنیادی» یا “مدل های مرزی” – همچنین با هدف تداوم قانون آینده انتخاب شد، به گفته کمیسیون، قانونگذاران طرفدار یک اصطلاح عمومی هستند تا از طبقه بندی که می تواند به استفاده از یک فناوری خاص مرتبط شود (یعنی. یادگیری ماشین مبتنی بر ترانسفورماتور).
در آینده، ممکن است رویکردهای فنی متفاوتی داشته باشیم. بنابراین ما به دنبال یک اصطلاح عمومی تر بودیم،» یکی از مقامات کمیسیون امروز پیشنهاد کرد. «البته مدلهای پایه بخشی از مدلهای هوش مصنوعی همه منظوره هستند. اینها مدل هایی هستند که می توانند برای کارهای بسیار متنوعی استفاده شوند، همچنین می توانند در سیستم ها ادغام شوند. برای ارائه یک مثال ملموس، مدل هوش مصنوعی با هدف عمومی GPT-4 و سیستم هوش مصنوعی هدف کلی ChatGPT خواهد بود – جایی که GPT-4 در ChatGPT یکپارچه شده است.
همانطور که قبلاً گزارش دادیم، توافق به دست آمده توسط قانونگذاران مشترک بلوک شامل یک سطح کم خطر و یک سطح پرخطر برای تنظیم به اصطلاح هوش مصنوعی عمومی (GPAI) است – مانند مدل های پشت رونق ویروسی در ابزارهای هوش مصنوعی مولد مانند OpenAI. ChatGPT. . محرک اعمال قوانین پرخطر در فناوریهای هوش مصنوعی مولد توسط یک آستانه اولیه تعیین شده در قانون تعیین میشود.
علاوه بر این، همانطور که در روز پنجشنبه گزارش دادیم، پیشنویس توافق شده قانون هوش مصنوعی اتحادیه اروپا به میزان محاسباتی که برای آموزش مدلها استفاده میشود، یعنی عملیات ممیز شناور (یا FLOP)، اشاره دارد که نواری را برای GPAI تعیین میکند که باید در نظر گرفته شود. قابلیت تاثیرگذاری بالا». در 10^25 FLOP.
اما کمیسیون امروز در یک جلسه توجیهی فنی با خبرنگاران برای بررسی توافق سیاسی، تأیید کرد که این فقط یک “آستانه اولیه” است و گفت که این اختیار را خواهد داشت که این آستانه را در طول زمان از طریق اعمال / تفویض اختیار (یعنی قانون ثانویه) به روز کند. او همچنین اشاره کرد که ایده این است که آستانه FLOP در طول زمان با «معیارهای دیگر» ترکیب شود که توسط یک نهاد نظارتی متخصص جدید که در کمیسیون به نام دفتر هوش مصنوعی ایجاد میشود، ایجاد میشود.
چرا 25 FLOP به عنوان آستانه خطر بالا برای GPAI انتخاب شد؟ کمیسیون پیشنهاد می کند که این رقم به منظور منعکس ، الگوهای کنونی مرزهای بین نسل ها انتخاب شده است. با این حال، او ادعا کرد که قانونگذاران در طول سهگانههای ماراتن با هدف توافق بر سر شکل نهایی کتاب قوانین، بحث نکردهاند یا حتی در نظر نگرفتهاند که آیا این موضوع در مورد مدلهایی که در حال حاضر در حال بازی هستند، مانند OpenAI’s GPT-4 یا Google’s Gemini اعمال میشود یا خیر.
یکی از مقامات کمیسیون اضافه کرد که در هر صورت این به تولیدکنندگان GPAI بستگی دارد که خودشان ارزیابی کنند که آیا مدلهایشان آستانه FLOP را برآورده میکنند و بنابراین، آیا آنها تحت قوانین GPAI قرار میگیرند یا نه. “در معرض خطر سیستمی”.
این مقام در جریان کنفرانس مطبوعاتی گفت: “هیچ منبع رسمی وجود ندارد که بگوید مدل های ChatGPT، Gemini یا چینی در این سطح از FLOP هستند.” «بر اساس اطلاعاتی که در اختیار داریم و با این 10^25 که انتخاب کردیم، عددی را انتخاب کردیم که واقعاً میتواند تا حدودی منعکس کننده مدلهای مرزی باشد. چه در مورد گرفتن GPT-4، چه Gemini یا دیگران باشد، ما اینجا نیستیم تا آن را تأیید کنیم – زیرا در چارچوب ما، این شرکتها هستند که باید تعداد FLOP یا محاسبه ظرفیت مورد استفاده خود را ارزیابی کنند. . اما مسلماً اگر ادبیات علمی را مطالعه کنید، بسیاری به این نکته اشاره می کنند که این اعداد پیشرفته ترین مدل های حال حاضر هستند. ما خواهیم دید که شرکت ها چه چیزی را ارزیابی خواهند کرد زیرا آنها بهترین موقعیت را برای انجام این ارزیابی دارند.
آنها افزودند: “قوانین با در نظر گرفتن مشاغل خاصی نوشته نشده اند.” “آنها در واقع با ایده تعیین آستانه نوشته شده اند – که اتفاقاً می تواند تغییر کند زیرا ما این توانایی را داریم که بتوانیم آن آستانه را بر اساس پیشرفت های فناوری تغییر دهیم. می تواند افزایش یابد، می تواند کاهش یابد و همچنین می توانیم معیارهای دیگری را ایجاد کنیم که در آینده مناسب ترین برای ارزیابی لحظات مختلف خواهد بود.
GPAIهایی که تحت سطح ریسک بالای قانون هوش مصنوعی قرار می گیرند، برای ارزیابی و کاهش خطرات سیستمیک با الزامات نظارتی قبلی مواجه خواهند شد – به این معنی که آنها باید به طور فعال نتایج مدل را برای کاهش خطرات آزمایش کنند. خطرات اثرات نامطلوب واقعی (یا “به طور منطقی قابل پیش بینی”) در مورد بهداشت عمومی ایمنی، امنیت عمومی، حقوق اساسی یا برای جامعه به عنوان یک کل.
در حالی که GPAI های “سطح پایین تر” تنها با الزامات شفافیت سبک تری روبرو هستند، از جمله الزام به اعمال واترمارک برای نتایج مولد هوش مصنوعی.
الزامات واترمارک برای GPAI بخشی از مقالهای است که در نسخه اصلی کمیسیون از چارچوب مبتنی بر ریسک که در آوریل 2021 ارائه شد، گنجانده شده بود، که بر الزامات شفافیت برای فناوریهایی مانند رباتهای چت و دیپفیک تمرکز داشت – اما اکنون این چارچوب خواهد بود. همچنین به طور کلی برای سیستم های هوش مصنوعی همه منظوره کاربرد دارد.
این مقام کمیسیون با مشخص ، جزئیات تعهدات واترمارکینگ توافق شده گفت: «این تعهد وجود دارد که متن (تولید شده توسط هوش مصنوعی مولد) را بر اساس آخرین فناوری پیشرفته موجود واترمارک کنیم. «در حال حاضر، فناوریها در واترمارک ، ویدیوها و فایلهای صوتی بسیار بهتر از واترمارک ، متن هستند. اما چیزی که ما می خواهیم این است که این خالکوبی بر اساس فناوری پیشرفته انجام شود – و البته امیدواریم که با گذشت زمان این فناوری به بلوغ برسد و تا حد امکان (خوب) شود.
سازندگان مدل GPAI همچنین باید متعهد به رعایت قوانین حق نسخهبرداری اتحادیه اروپا باشند، از جمله پیروی از انصراف ماشینخوان از متن و دادهکاوی موجود در آن. در دستورالعمل حق نسخهبرداری اتحادیه اروپا – و مستثنی شدن از الزامات شفافیت قانون برای GPAIهای منبع باز. بنابراین. نه این تا آنجاست که آنها را از تعهدات حق چاپ آزاد می کند، با تأیید کمیسیون که دستورالعمل حق چاپ همچنان در مورد GPAI های منبع باز اعمال می شود.
با توجه به دفتر هوش مصنوعی، که نقش کلیدی در تعیین آستانه طبقه بندی ریسک برای GPAI ها ایفا می کند، کمیسیون تأیید کرده است که هنوز بودجه یا سطح کارکنانی برای بدنه کارشناسان تعریف نشده است. (با این حال، در ساعات اولیه صبح شنبه، کمیسر بازار داخلی اتحادیه اروپا، تیری برتون، پیشنهاد کرد که اتحادیه اروپا در حال آماده شدن برای استقبال از “بسیاری” از همکاران جدید در هنگام ایجاد این سازمان دیده بان اتحادیه اروپا است. (هوش مصنوعی با هدف عمومی).
یکی از مقامات کمیسیون در پاسخ به سوالی درباره منابع دفتر هوش مصنوعی گفت که در آینده توسط مجری اتحادیه اروپا که “تصمیم مناسب و رسمی” اتخاذ خواهد کرد، تصمیم گیری خواهد شد. ایده این است که ما می توانیم یک ردیف بودجه اختصاصی برای دفتر ایجاد کنیم و همچنین می توانیم در صورت تمایل علاوه بر کارمندان قراردادی و کارکنان دائمی، کارشناسان ملی را از کشورهای عضو نیز جذب کنیم. و بخشی از این کارکنان نیز در کمیسیون اروپا مستقر خواهند شد.
دفتر هوش مصنوعی با همکاری یک کمیته مشاوره علمی جدید که این قانون همچنین برای کمک به آژانس برای درک بهتر قابلیتهای مدلهای پیشرفته هوش مصنوعی در تلاش برای تنظیم ریسک سیستمیک ایجاد خواهد کرد، کار خواهد کرد. این مقام خاطرنشان کرد: ما نقش مهمی را برای ایجاد یک کمیته علمی شناسایی کردیم که می تواند به طور موثر به دفتر هوش مصنوعی کمک کند تا بفهمد آیا خطرات جدیدی وجود دارد که هنوز شناسایی نشده اند یا خیر. و به عنوان مثال، برخی از هشدارها را در مورد مدل هایی که در آستانه FLOP قرار نمی گیرند و به دلایلی ممکن است در واقع خطرات قابل توجهی را ایجاد کنند که دولت ها باید در نظر بگیرند، علامت گذاری کنید.
در حالی که به نظر میرسد مقامات اجرایی اتحادیه اروپا مشتاق هستند تا اطمینان حاصل کنند که جزئیات کلیدی قانون جدید منتشر میشود، حتی اگر هنوز متن نهایی وجود نداشته باشد – زیرا کار برای تحکیم آنچه توسط قانونگذاران مشترک در جریان مذاکرات ماراتن 38 ساعته که عصر جمعه پایان یافت، مورد توافق قرار گرفت. وظیفه ای که بلوک در هفته های آینده با آن روبرو خواهد شد – هنوز هم شیاطین در کمین این جزئیات هستند. بنابراین ارزش بررسی متنی که احتمالاً در ژانویه یا فوریه منتشر خواهد شد، خواهد بود.
علاوه بر این، اگرچه مقررات کامل برای چند سال عملیاتی نخواهد شد، اتحادیه اروپا در این مدت بر GPAI ها فشار می آورد تا به کدهای عملی پایبند باشند – بنابراین غول های هوش مصنوعی تحت فشار خواهند بود تا به مقررات سختگیرانه آتی نزدیک تر شوند. تا حد ممکن، از طریق پیمان هوش مصنوعی بلوک.
بعید است که قانون هوش مصنوعی اتحادیه اروپا تا سال 2026 به طور کامل لازم الاجرا باشد، با توجه به اینکه متن نهایی باید پس از تدوین (و ترجمه به زبان کشورهای عضو)، با رأی گیری تصمیمات نهایی در پارلمان و شورا تأیید شود، و پس از آن، یک تاخیر کوتاه قبل از انتشار متن قانون در مجله رسمی اتحادیه اروپا و یک تاخیر دیگر قبل از لازم الاجرا شدن آن.
قانونگذاران اتحادیه اروپا همچنین با رویکرد مرحلهای به الزامات انطباق با قانون موافقت کردند، با مهلت 24 ماهه قبل از اعمال قوانین پرخطر برای GPAI.
فهرست استفادههای کاملاً ممنوعه از هوش مصنوعی زودتر اعمال میشود، تنها شش ماه پس از اجرایی شدن این قانون – که به طور بالقوه میتواند به معنای ممنوعیت استفادههای «خطرناک» از هوش مصنوعی غیرقابل قبول باشد، مانند رتبهبندی اجتماعی یا سبک هوش مصنوعی Clearview. برداشتن سلفی برای پایگاههای اطلاعاتی تشخیص چهره، در نیمه دوم سال 2024 عملیاتی میشود، مشروط بر اینکه در آخرین لحظه مخالفت با این مقررات در شورا یا پارلمان ایجاد نشود. (برای لیست کامل استفاده های ممنوعه از هوش مصنوعی، مقاله قبلی ما را بخوانید.)
منبع: https://techcrunch.com/2023/12/11/eu-ai-act-gpai-rules-evolve/