اتحادیه اروپا می گوید قوانین جدید برای هوش مصنوعی همه منظوره می تواند در طول زمان تغییر کند

توافق سیاسی عصر جمعه توسط قانونگذاران اتحادیه اروپا در مورد آنچه اتحادیه به عنوان اولین قانون جامع جهان برای تنظیم هوش مصنوعی ارائه می کند، شامل اختیاراتی است که به کمیسیون اجازه می دهد مقررات پاناروپایی در مورد هوش مصنوعی را تطبیق دهد. هوش مصنوعی همگام با تحولات این کاهش است. میدان لبه تایید شده.

انتخاب اصطلاح قانونگذاران برای تنظیم قوی‌ترین مدل‌های پشت رونق فعلی در ابزارهای هوش مصنوعی مولد – که قانون اتحادیه اروپا آن را مدل‌ها و سیستم‌های هوش مصنوعی «هدف عمومی» می‌نامد، به جای «استفاده از شرایط انتخاب صنعت، مانند «بنیادی» یا «بنیادی» یا “مدل های مرزی” – همچنین با هدف تداوم قانون آینده انتخاب شد، به گفته کمیسیون، قانونگذاران طرفدار یک اصطلاح عمومی هستند تا از طبقه بندی که می تواند به استفاده از یک فناوری خاص مرتبط شود (یعنی. یادگیری ماشین مبتنی بر ترانسفورماتور).

در آینده، ممکن است رویکردهای فنی متفاوتی داشته باشیم. بنابراین ما به دنبال یک اصطلاح عمومی تر بودیم،» یکی از مقامات کمیسیون امروز پیشنهاد کرد. «البته مدل‌های پایه بخشی از مدل‌های هوش مصنوعی همه منظوره هستند. اینها مدل هایی هستند که می توانند برای کارهای بسیار متنوعی استفاده شوند، همچنین می توانند در سیستم ها ادغام شوند. برای ارائه یک مثال ملموس، مدل هوش مصنوعی با هدف عمومی GPT-4 و سیستم هوش مصنوعی هدف کلی ChatGPT خواهد بود – جایی که GPT-4 در ChatGPT یکپارچه شده است.

همانطور که قبلاً گزارش دادیم، توافق به دست آمده توسط قانونگذاران مشترک بلوک شامل یک سطح کم خطر و یک سطح پرخطر برای تنظیم به اصطلاح هوش مصنوعی عمومی (GPAI) است – مانند مدل های پشت رونق ویروسی در ابزارهای هوش مصنوعی مولد مانند OpenAI. ChatGPT. . محرک اعمال قوانین پرخطر در فناوری‌های هوش مصنوعی مولد توسط یک آستانه اولیه تعیین شده در قانون تعیین می‌شود.

علاوه بر این، همانطور که در روز پنجشنبه گزارش دادیم، پیش‌نویس توافق شده قانون هوش مصنوعی اتحادیه اروپا به میزان محاسباتی که برای آموزش مدل‌ها استفاده می‌شود، یعنی عملیات ممیز شناور (یا FLOP)، اشاره دارد که نواری را برای GPAI تعیین می‌کند که باید در نظر گرفته شود. قابلیت تاثیرگذاری بالا». در 10^25 FLOP.

اما کمیسیون امروز در یک جلسه توجیهی فنی با خبرنگاران برای بررسی توافق سیاسی، تأیید کرد که این فقط یک “آستانه اولیه” است و گفت که این اختیار را خواهد داشت که این آستانه را در طول زمان از طریق اعمال / تفویض اختیار (یعنی قانون ثانویه) به روز کند. او همچنین اشاره کرد که ایده این است که آستانه FLOP در طول زمان با «معیارهای دیگر» ترکیب شود که توسط یک نهاد نظارتی متخصص جدید که در کمیسیون به نام دفتر هوش مصنوعی ایجاد می‌شود، ایجاد می‌شود.

  ترسی که ایلان ماسک و سام آلتمن را مجبور به ایجاد OpenAI کرد

چرا 25 FLOP به عنوان آستانه خطر بالا برای GPAI انتخاب شد؟ کمیسیون پیشنهاد می کند که این رقم به منظور منعکس ، الگوهای کنونی مرزهای بین نسل ها انتخاب شده است. با این حال، او ادعا کرد که قانونگذاران در طول سه‌گانه‌های ماراتن با هدف توافق بر سر شکل نهایی کتاب قوانین، بحث نکرده‌اند یا حتی در نظر نگرفته‌اند که آیا این موضوع در مورد مدل‌هایی که در حال حاضر در حال بازی هستند، مانند OpenAI’s GPT-4 یا Google’s Gemini اعمال می‌شود یا خیر.

یکی از مقامات کمیسیون اضافه کرد که در هر صورت این به تولیدکنندگان GPAI بستگی دارد که خودشان ارزیابی کنند که آیا مدل‌هایشان آستانه FLOP را برآورده می‌کنند و بنابراین، آیا آنها تحت قوانین GPAI قرار می‌گیرند یا نه. “در معرض خطر سیستمی”.

این مقام در جریان کنفرانس مطبوعاتی گفت: “هیچ منبع رسمی وجود ندارد که بگوید مدل های ChatGPT، Gemini یا چینی در این سطح از FLOP هستند.” «بر اساس اطلاعاتی که در اختیار داریم و با این 10^25 که انتخاب کردیم، عددی را انتخاب کردیم که واقعاً می‌تواند تا حدودی منعکس کننده مدل‌های مرزی باشد. چه در مورد گرفتن GPT-4، چه Gemini یا دیگران باشد، ما اینجا نیستیم تا آن را تأیید کنیم – زیرا در چارچوب ما، این شرکت‌ها هستند که باید تعداد FLOP یا محاسبه ظرفیت مورد استفاده خود را ارزیابی کنند. . اما مسلماً اگر ادبیات علمی را مطالعه کنید، بسیاری به این نکته اشاره می کنند که این اعداد پیشرفته ترین مدل های حال حاضر هستند. ما خواهیم دید که شرکت ها چه چیزی را ارزیابی خواهند کرد زیرا آنها بهترین موقعیت را برای انجام این ارزیابی دارند.

آنها افزودند: “قوانین با در نظر گرفتن مشاغل خاصی نوشته نشده اند.” “آنها در واقع با ایده تعیین آستانه نوشته شده اند – که اتفاقاً می تواند تغییر کند زیرا ما این توانایی را داریم که بتوانیم آن آستانه را بر اساس پیشرفت های فناوری تغییر دهیم. می تواند افزایش یابد، می تواند کاهش یابد و همچنین می توانیم معیارهای دیگری را ایجاد کنیم که در آینده مناسب ترین برای ارزیابی لحظات مختلف خواهد بود.

GPAIهایی که تحت سطح ریسک بالای قانون هوش مصنوعی قرار می گیرند، برای ارزیابی و کاهش خطرات سیستمیک با الزامات نظارتی قبلی مواجه خواهند شد – به این معنی که آنها باید به طور فعال نتایج مدل را برای کاهش خطرات آزمایش کنند. خطرات اثرات نامطلوب واقعی (یا “به طور منطقی قابل پیش بینی”) در مورد بهداشت عمومی ایمنی، امنیت عمومی، حقوق اساسی یا برای جامعه به عنوان یک کل.

در حالی که GPAI های “سطح پایین تر” تنها با الزامات شفافیت سبک تری روبرو هستند، از جمله الزام به اعمال واترمارک برای نتایج مولد هوش مصنوعی.

  هدفون Dyson NC - CNET

الزامات واترمارک برای GPAI بخشی از مقاله‌ای است که در نسخه اصلی کمیسیون از چارچوب مبتنی بر ریسک که در آوریل 2021 ارائه شد، گنجانده شده بود، که بر الزامات شفافیت برای فناوری‌هایی مانند ربات‌های چت و دیپ‌فیک تمرکز داشت – اما اکنون این چارچوب خواهد بود. همچنین به طور کلی برای سیستم های هوش مصنوعی همه منظوره کاربرد دارد.

این مقام کمیسیون با مشخص ، جزئیات تعهدات واترمارکینگ توافق شده گفت: «این تعهد وجود دارد که متن (تولید شده توسط هوش مصنوعی مولد) را بر اساس آخرین فناوری پیشرفته موجود واترمارک کنیم. «در حال حاضر، فناوری‌ها در واترمارک ، ویدیوها و فایل‌های صوتی بسیار بهتر از واترمارک ، متن هستند. اما چیزی که ما می خواهیم این است که این خالکوبی بر اساس فناوری پیشرفته انجام شود – و البته امیدواریم که با گذشت زمان این فناوری به بلوغ برسد و تا حد امکان (خوب) شود.

سازندگان مدل GPAI همچنین باید متعهد به رعایت قوانین حق نسخه‌برداری اتحادیه اروپا باشند، از جمله پیروی از انصراف ماشین‌خوان از متن و داده‌کاوی موجود در آن. در دستورالعمل حق نسخه‌برداری اتحادیه اروپا – و مستثنی شدن از الزامات شفافیت قانون برای GPAI‌های منبع باز. بنابراین. نه این تا آنجاست که آنها را از تعهدات حق چاپ آزاد می کند، با تأیید کمیسیون که دستورالعمل حق چاپ همچنان در مورد GPAI های منبع باز اعمال می شود.

با توجه به دفتر هوش مصنوعی، که نقش کلیدی در تعیین آستانه طبقه بندی ریسک برای GPAI ها ایفا می کند، کمیسیون تأیید کرده است که هنوز بودجه یا سطح کارکنانی برای بدنه کارشناسان تعریف نشده است. (با این حال، در ساعات اولیه صبح شنبه، کمیسر بازار داخلی اتحادیه اروپا، تیری برتون، پیشنهاد کرد که اتحادیه اروپا در حال آماده شدن برای استقبال از “بسیاری” از همکاران جدید در هنگام ایجاد این سازمان دیده بان اتحادیه اروپا است. (هوش مصنوعی با هدف عمومی).

یکی از مقامات کمیسیون در پاسخ به سوالی درباره منابع دفتر هوش مصنوعی گفت که در آینده توسط مجری اتحادیه اروپا که “تصمیم مناسب و رسمی” اتخاذ خواهد کرد، تصمیم گیری خواهد شد. ایده این است که ما می توانیم یک ردیف بودجه اختصاصی برای دفتر ایجاد کنیم و همچنین می توانیم در صورت تمایل علاوه بر کارمندان قراردادی و کارکنان دائمی، کارشناسان ملی را از کشورهای عضو نیز جذب کنیم. و بخشی از این کارکنان نیز در کمیسیون اروپا مستقر خواهند شد.

دفتر هوش مصنوعی با همکاری یک کمیته مشاوره علمی جدید که این قانون همچنین برای کمک به آژانس برای درک بهتر قابلیت‌های مدل‌های پیشرفته هوش مصنوعی در تلاش برای تنظیم ریسک سیستمیک ایجاد خواهد کرد، کار خواهد کرد. این مقام خاطرنشان کرد: ما نقش مهمی را برای ایجاد یک کمیته علمی شناسایی کردیم که می تواند به طور موثر به دفتر هوش مصنوعی کمک کند تا بفهمد آیا خطرات جدیدی وجود دارد که هنوز شناسایی نشده اند یا خیر. و به عنوان مثال، برخی از هشدارها را در مورد مدل هایی که در آستانه FLOP قرار نمی گیرند و به دلایلی ممکن است در واقع خطرات قابل توجهی را ایجاد کنند که دولت ها باید در نظر بگیرند، علامت گذاری کنید.

  به نظر می رسد که OpenAI نمی خواهد به مایکروسافت یک کرسی در هیئت مدیره بدهد

در حالی که به نظر می‌رسد مقامات اجرایی اتحادیه اروپا مشتاق هستند تا اطمینان حاصل کنند که جزئیات کلیدی قانون جدید منتشر می‌شود، حتی اگر هنوز متن نهایی وجود نداشته باشد – زیرا کار برای تحکیم آنچه توسط قانون‌گذاران مشترک در جریان مذاکرات ماراتن 38 ساعته که عصر جمعه پایان یافت، مورد توافق قرار گرفت. وظیفه ای که بلوک در هفته های آینده با آن روبرو خواهد شد – هنوز هم شیاطین در کمین این جزئیات هستند. بنابراین ارزش بررسی متنی که احتمالاً در ژانویه یا فوریه منتشر خواهد شد، خواهد بود.

علاوه بر این، اگرچه مقررات کامل برای چند سال عملیاتی نخواهد شد، اتحادیه اروپا در این مدت بر GPAI ها فشار می آورد تا به کدهای عملی پایبند باشند – بنابراین غول های هوش مصنوعی تحت فشار خواهند بود تا به مقررات سختگیرانه آتی نزدیک تر شوند. تا حد ممکن، از طریق پیمان هوش مصنوعی بلوک.

بعید است که قانون هوش مصنوعی اتحادیه اروپا تا سال 2026 به طور کامل لازم الاجرا باشد، با توجه به اینکه متن نهایی باید پس از تدوین (و ترجمه به زبان کشورهای عضو)، با رأی گیری تصمیمات نهایی در پارلمان و شورا تأیید شود، و پس از آن، یک تاخیر کوتاه قبل از انتشار متن قانون در مجله رسمی اتحادیه اروپا و یک تاخیر دیگر قبل از لازم الاجرا شدن آن.

قانونگذاران اتحادیه اروپا همچنین با رویکرد مرحله‌ای به الزامات انطباق با قانون موافقت کردند، با مهلت 24 ماهه قبل از اعمال قوانین پرخطر برای GPAI.

فهرست استفاده‌های کاملاً ممنوعه از هوش مصنوعی زودتر اعمال می‌شود، تنها شش ماه پس از اجرایی شدن این قانون – که به طور بالقوه می‌تواند به معنای ممنوعیت استفاده‌های «خطرناک» از هوش مصنوعی غیرقابل قبول باشد، مانند رتبه‌بندی اجتماعی یا سبک هوش مصنوعی Clearview. برداشتن سلفی برای پایگاه‌های اطلاعاتی تشخیص چهره، در نیمه دوم سال 2024 عملیاتی می‌شود، مشروط بر اینکه در آخرین لحظه مخالفت با این مقررات در شورا یا پارلمان ایجاد نشود. (برای لیست کامل استفاده های ممنوعه از هوش مصنوعی، مقاله قبلی ما را بخوانید.)

منبع: https://techcrunch.com/2023/12/11/eu-ai-act-gpai-rules-evolve/