زنان در هوش مصنوعی: ایرنه سلیمان، رئیس بخش سیاست جهانی در Hugging Face

TechCrunch برای اینکه به دانشگاهیان هوش مصنوعی و دیگران در کانون توجه قرار گیرد، یک سری مصاحبه با تمرکز بر زنان برجسته ای که در انقلاب هوش مصنوعی مشارکت داشته اند، راه اندازی می کند. با ادامه رونق هوش مصنوعی، چندین مقاله در طول سال منتشر خواهیم کرد و کارهای کلیدی را که اغلب نادیده گرفته می‌شوند، برجسته می‌کنیم. پروفایل های بیشتر را اینجا بخوانید.

ایرنه سلیمان کار خود را در هوش مصنوعی به عنوان یک محقق و مدیر سیاست عمومی در OpenAI آغاز کرد، جایی که او رویکرد جدیدی را برای انتشار GPT-2، سلف ChatGPT، رهبری کرد. پس از اینکه تقریباً یک سال به عنوان رئیس سیاست هوش مصنوعی در Zillow خدمت کرد، او به عنوان رئیس سیاست جهانی به Hugging Face پیوست. مسئولیت های او از توسعه و رهبری خط مشی جهانی هوش مصنوعی شرکت تا انجام تحقیقات فنی-اجتماعی متغیر است.

سلیمان همچنین به مؤسسه مهندسین برق و الکترونیک (IEEE)، انجمن حرفه‌ای مهندسی الکترونیک، در مورد مسائل هوش مصنوعی مشاوره می‌دهد و یک متخصص شناخته‌شده هوش مصنوعی با سازمان بین‌دولتی برای همکاری و توسعه اقتصاد (OECD) است.

ایرنه سلیمان، رئیس سیاست جهانی در Hugging Face

به طور خلاصه، چگونه هوش مصنوعی را شروع کردید؟ چه چیزی شما را به این رشته جذب کرد؟

مسیر شغلی کاملا غیر خطی در هوش مصنوعی رایج است. علاقه نوپای من به همان شکلی شروع شد که بسیاری از نوجوانان با مهارت های اجتماعی دشوار علایق خود را پیدا می کنند: از طریق رسانه های علمی تخیلی. من ابتدا سیاست حقوق بشر را مطالعه کردم، سپس دوره های علوم کامپیوتر را گذراندم، زیرا هوش مصنوعی را راهی برای کار برای حقوق بشر و ساختن آینده ای بهتر می دیدم. توانایی انجام تحقیقات فنی و خط مشی مستقیم در منطقه ای با این همه سؤال بی پاسخ و مسیرهای ناپیدا، شغل من را هیجان انگیز می کند.

  بهترین تخفیف‌های رایانه‌های بازی: تا ۷۵۰ دلار در Alienware، HP، Lenovo و غیره صرفه‌جویی کنید

به چه کاری بیشتر افتخار می کنید (در زمینه هوش مصنوعی)؟

وقتی تخصص من با افراد در زمینه هوش مصنوعی طنین انداز می شود، بسیار افتخار می کنم، به خصوص وقتی در مورد ملاحظات انتشار در انتشار پیچیده و چشم انداز باز سیستم های هوش مصنوعی می نویسم. دیدن مقاله من در مورد استقرار فنی چارچوب AI Release Gradient بحث هایی را در میان دانشمندان برانگیخت و در گزارش های دولتی مورد استفاده قرار گرفت – و نشانه خوبی است که من در جهت درست کار می کنم! شخصاً، برخی از کارهایی که بیش از همه من را هیجان زده می کند، همسویی ارزش فرهنگی را شامل می شود، که هدف آن اطمینان از این است که سیستم ها برای فرهنگ هایی که در آن به کار گرفته شده اند، بهترین عملکرد را دارند. با همکاری خارق‌العاده و دوست عزیزم، کریستی دنیسون، کار بر روی فرآیند انطباق مدل‌های زبانی با جامعه، پروژه‌ای تمام عیار (و ساعت‌ها اشکال‌زدایی) بوده است که امروزه کار امنیت و همسویی را شکل داده است.

چگونه می‌توانیم با چالش‌های بخش فناوری مردسالار و در نتیجه بخش هوش مصنوعی مردانه مقابله کنیم؟

همکارانم را پیدا کردم و هنوز هم پیدا می کنم – از کار با رهبران تجاری باورنکردنی که عمیقاً به موضوعات مشابهی که من در اولویت آنها هستم اهمیت می دهند، تا همکاران پژوهشی عالی که می توانم هر جلسه کاری را با یک جلسه مینی درمانی با آنها شروع کنم. گروه های وابسته برای ایجاد جامعه و به اشتراک گذاری مشاوره بسیار مفید هستند. در اینجا مهم است که بر متقاطع بودن تأکید کنیم. جوامع مسلمان و دانشمندان BIPOC من به طور مداوم الهام بخش هستند.

  نیروی هوایی آمریکا چند بمب افکن دارد؟

چه توصیه ای به زنانی که به دنبال ورود به حوزه هوش مصنوعی هستند می دهید؟

یک گروه پشتیبانی داشته باشید که موفقیت آن موفقیت شماست. از نظر جوانی، من معتقدم که او یک “دختر دختر” است. همان زنان و متحدانی که با آنها وارد این عرصه شدم، قرارهای قهوه مورد علاقه من و تماس های وحشتناک آخر شب قبل از ضرب الاجل هستند. یکی از بهترین نکات شغلی که خوانده‌ام از سوی آرویند نارایان در پلتفرمی که قبلاً به عنوان توییتر شناخته می‌شد، بود، که «اصل لیام نیسون» را ایجاد کرد که لازم نیست از همه آنها باهوش‌تر باشید، بلکه دارای مجموعه‌ای از مهارت‌ها باشید. .

مهمترین مسائلی که هوش مصنوعی در حال تکامل با آن مواجه است چیست؟

مهم ترین مشکلات خود در حال تکامل هستند، بنابراین پاسخ متا این است: هماهنگی بین المللی برای سیستم های ایمن تر برای همه مردم. افرادی که از سیستم‌ها استفاده می‌کنند و تحت تأثیر آن‌ها قرار می‌گیرند، حتی در یک کشور، ترجیحات و ایده‌های متفاوتی در مورد اینکه چه چیزی برای آنها امن‌تر است، دارند. و مشکلاتی که به وجود می آیند نه تنها به چگونگی تکامل هوش مصنوعی، بلکه به محیطی که در آن مستقر شده است نیز بستگی دارد. اولویت‌های امنیتی و تعاریف ما از ظرفیت در مناطق مختلف متفاوت است، مانند تهدید بیشتر حملات سایبری علیه زیرساخت‌های حیاتی در اقتصادهای دیجیتالی‌تر.

کاربران هوش مصنوعی باید از چه مسائلی آگاه باشند؟

راه‌حل‌های فنی به ندرت خطرات و آسیب‌ها را به‌طور کلی بررسی می‌کنند. در حالی که مراحلی وجود دارد که کاربران می توانند برای افزایش دانش هوش مصنوعی خود بردارند، سرمایه گذاری روی مجموعه ای از اقدامات حفاظتی در برابر خطرات در حین تکامل بسیار مهم است. به عنوان مثال، من در مورد تحقیقات بیشتر در مورد واترمارک به عنوان یک ابزار فنی هیجان زده هستم، و همچنین به مشاوره هماهنگ از سوی سیاست گذاران در مورد توزیع محتوای تولید شده، به ویژه در پلتفرم های رسانه های اجتماعی نیاز داریم.

  راهنمای نحوه وارد ، کد شارژ ایرانسل

بهترین راه برای توسعه مسئولانه هوش مصنوعی چیست؟

با جمعیت های مربوطه و با ارزیابی مجدد روش های ما برای ارزیابی و اجرای تکنیک های امنیتی. هم کاربردهای مفید و هم مضرات بالقوه به طور مداوم در حال تغییر هستند و نیاز به بازخورد تکراری دارند. راه‌هایی که ما از طریق آن ایمنی هوش مصنوعی را بهبود می‌بخشیم باید به طور جمعی به عنوان یک زمینه مورد بررسی قرار گیرد. محبوب‌ترین ارزیابی‌های مدل در سال 2024 بسیار قوی‌تر از ارزیابی‌هایی هستند که در سال 2019 انجام می‌دادم. امروز، من در ارزیابی‌های فنی بسیار خوش‌بین‌تر از تیم قرمز هستم. ارزیابی‌های انسانی را بسیار مفید می‌دانم، اما از آنجایی که شواهد بیشتری در مورد بار ذهنی و هزینه‌های متفاوت بازخورد انسانی ظاهر می‌شود، به طور فزاینده‌ای نسبت به استانداردسازی ارزیابی‌ها خوش‌بین هستم.

چگونه سرمایه گذاران می توانند هوش مصنوعی مسئول را بهتر ترویج کنند؟

آنها در حال حاضر هستند! من خوشحالم که بسیاری از سرمایه گذاران و سرمایه گذاران خطرپذیر را می بینم که به طور فعال در گفتگوهای امنیتی و سیاستی، از جمله از طریق نامه های سرگشاده و شهادت کنگره شرکت می کنند. من مشتاقانه منتظر شنیدن بیشتر در مورد تخصص سرمایه گذاران در مورد آنچه که مشاغل کوچک را در سراسر صنایع هدایت می کند، هستم، به خصوص که شاهد افزایش استفاده از هوش مصنوعی در مناطق خارج از صنایع اصلی فناوری هستیم.

منبع: https://techcrunch.com/2024/02/17/women-in-ai-irene-solaiman-head-of-global-policy-at-hugging-face/