لیلیان ونگ، یکی دیگر از محققین ارشد امنیتی در OpenAI، روز جمعه خروج خود را از این استارت آپ اعلام کرد. ونگ از آگوست به عنوان معاون تحقیقات و امنیت خدمت کرده است و پیش از آن تیم سیستم های امنیتی OpenAI را رهبری می کرد.
در مقاله ای در X، ونگ گفت که “پس از 7 سال در OpenAI، احساس می کنم آماده هستم تا چیز جدیدی را بازنشانی کنم و کشف کنم.” ونگ گفت آخرین روز او 15 نوامبر خواهد بود، اما نگفت کجا خواهد رفت.
ونگ در این پست گفت: «من تصمیم بسیار سختی را برای ، OpenAI گرفتهام. با توجه به آنچه که ما به دست آورده ایم، من به همه اعضای تیم سیستم های امنیتی بسیار افتخار می کنم و بسیار مطمئن هستم که این تیم به پیشرفت خود ادامه خواهد داد.
خروج Weng آخرین مورد در صف طولانی محققان امنیت هوش مصنوعی، محققان سیاستگذاری و سایر مدیرانی است که طی سال گذشته شرکت را ، کرده اند و چندین نفر OpenAI را به اولویت دادن به محصولات تجاری بر ایمنی هوش مصنوعی متهم کرده اند. Weng به Ilya Sutskever و Jan Leike – رهبران تیم Superalignment که اکنون منحل شده OpenAI است، میپیوندد، که سعی در توسعه روشهایی برای هدایت سیستمهای هوش مصنوعی فوقهوشمند داشتند – که امسال نیز استارتآپ را ، کردند تا در جاهای دیگر روی امنیت هوش مصنوعی کار کنند.
ونگ برای اولین بار در سال 2018 به OpenAI ملحق شد، طبق گفته LinkedIn خود، و روی تیم روباتیک این استارت آپ کار می کرد که در نهایت یک دست رباتیک ساخت که قادر به حل مکعب روبیک بود – کاری که طبق پیام او دو سال طول کشید.
همانطور که OpenAI شروع به تمرکز بیشتر روی پارادایم GPT کرد، Weng نیز روی آن تمرکز کرد. این محقق در سال 2021 به تیم تحقیقاتی هوش مصنوعی کاربردی استارت آپ پیوست. پس از راه اندازی GPT-4، ونگ وظیفه ایجاد یک تیم اختصاصی برای ساخت سیستم های امنیتی برای این استارت آپ در سال 2023 را داشت. امروز، واحد سیستم های امنیتی OpenAI بیش از 80 دانشمند دارد. محققان و کارشناسان سیاست، با توجه به پست Weng.
این تعداد زیادی از متخصصان امنیت هوش مصنوعی هستند، اما بسیاری از آنها در مورد تمرکز OpenAI بر امنیت در تلاش برای ایجاد سیستمهای هوش مصنوعی قدرتمندتر ابراز نگرانی کردهاند. مایلز بروندج، محقق قدیمی سیاستگذاری، در ماه اکتبر این استارتاپ را ، کرد و اعلام کرد که OpenAI در حال منحل ، تیم آماده سازی AGI خود است که او به او توصیه کرده بود. در همان روز، نیویورک تایمز یک محقق سابق OpenAI به نام Suchir Balaji را معرفی کرد که گفت او OpenAI را ، کرد زیرا معتقد بود که فناوری استارتاپ بیشتر از اینکه به ضرر شرکت باشد، ضرر خواهد داشت.
OpenAI به TechCrunch می گوید که مدیران امنیتی و محققان در حال کار بر روی یک انتقال برای جایگزینی Weng هستند.
سخنگوی OpenAI در بیانیه ای ایمیلی گفت: «ما عمیقا از مشارکت لیلیان در تحقیقات امنیتی پیشگامانه و ایجاد پادمان های فنی دقیق قدردانی می کنیم. ما مطمئن هستیم که تیم سیستم های امنیتی به ایفای نقش کلیدی در تضمین امنیت و قابلیت اطمینان سیستم های ما ادامه خواهد داد و به صدها میلیون نفر در سراسر جهان خدمت می کند. »
دیگر مدیرانی که در ماههای اخیر OpenAI را ، کردهاند عبارتند از: میرا موراتی، مدیر تحقیقات باب مکگرو، و معاون پژوهشی بارت زوف. در ماه آگوست، محقق برجسته آندری کارپاتی و یکی از بنیانگذاران جان شولمن نیز اعلام کردند که استارتاپ را ، خواهند کرد. برخی از این افراد، از جمله Leike و Schulman، برای پیوستن به رقیب OpenAI، Anthropic، ، کردند، در حالی که دیگران شرکتهای خود را راهاندازی کردند.
منبع: https://techcrunch.com/2024/11/08/openai-loses-another-lead-safety-researcher-lilian-weng/