آخرین عامل هوش مصنوعی Google DeepMind بازی “Goat Simulator 3” را یاد گرفت

او می گوید: «سیما از این هم فراتر رفته و تعمیم قوی تری به بازی های جدید نشان می دهد. «تعداد محیط‌ها هنوز بسیار کم است، اما من فکر می‌کنم سیما در مسیر درستی قرار دارد.

یک روش جدید برای بازی

سیما نشان می دهد که DeepMind تغییر جدیدی را به عوامل بازی ارائه می دهد، یک فناوری هوش مصنوعی که این شرکت در گذشته پیشگام بوده است.

در سال 2013، قبل از اینکه گوگل DeepMind را تصاحب کند، استارت آپ مستقر در لندن نشان داد که چگونه تکنیکی به نام یادگیری تقویتی که شامل آموزش الگوریتمی با بازخورد مثبت و منفی در مورد عملکرد آن است، می تواند به رایانه ها در بازی ، بازی ها کمک کند. بازی های ویدیویی کلاسیک Atari. در سال 2016، در داخل گوگل، DeepMind برنامه AlphaGo را توسعه داد، برنامه ای که از همان رویکرد برای شکست دادن یک قهرمان جهان در Go استفاده می کند، یک بازی تخته باستانی که نیاز به مهارت های ظریف و غریزی دارد.

برای پروژه SIMA، تیم Google DeepMind با چندین استودیو بازی برای جمع‌آوری داده‌های صفحه کلید و ماوس از انسان‌هایی که 10 بازی مختلف را با محیط‌های سه بعدی انجام می‌دهند، همکاری کرد. No Man’s Sky، تخریب، هیدرونیرو رضایت بخش. سپس DeepMind برچسب‌های توصیفی را به این داده‌ها اضافه کرد تا کلیک‌ها و ضربه‌ها را با اقداماتی که کاربران انجام می‌دهند مرتبط کند، مانند اینکه آیا بزی در جستجوی جت پک خود است یا یک شخصیت انسانی در جستجوی طلا.

سپس داده‌های بازیکنان انسانی به یک مدل زبانی از نوع ربات‌های گفتگوی مدرن که توانایی پردازش زبان را با هضم پایگاه داده عظیمی از متن به دست آورده‌اند، وارد می‌شود. سیما سپس می تواند اقداماتی را در پاسخ به دستورات تایپ شده انجام دهد. در نهایت، انسان‌ها تلاش‌های سیما را در بازی‌های مختلف ارزیابی کردند و داده‌هایی را تولید کردند که برای اصلاح عملکرد آن استفاده شد.

نرم‌افزار SIMA AI با استفاده از داده‌های انسان‌هایی که 10 بازی مختلف با محیط‌های سه‌بعدی بازی می‌کنند، آموزش داده شده است.

با حسن نیت از Google DeepMind

پس از تمام این آموزش ها، سیما قادر است در پاسخ به صدها فرمان داده شده توسط یک بازیکن، اقداماتی مانند «به چپ بپیچ» یا «به سفینه فضایی برو» یا «از درب برو» یا «درخت را شلیک کن» انجام دهد. . » این برنامه می تواند بیش از 600 عمل انجام دهد، از اکتشاف گرفته تا جنگ و استفاده از ابزار. طبق دستورالعمل‌های اخلاقی هوش مصنوعی گوگل، محققان از بازی‌هایی با اقدامات خشونت‌آمیز اجتناب کردند.

تیم هارلی، یکی دیگر از اعضای تیم Google DeepMind می گوید: «این هنوز یک پروژه تحقیقاتی است. با این حال، می توان تصور کرد که روزی عواملی مانند سیما در کنار شما در بازی با شما و دوستانتان بازی کنند. »

بازی‌های ویدیویی محیط نسبتاً امنی را برای درخواست از عوامل هوش مصنوعی برای تکمیل وظایف فراهم می‌کنند. برای اینکه نمایندگان بتوانند کارهای اداری یا اداری مفید روزانه را انجام دهند، باید قابل اعتمادتر شوند. هارلی و بس از دیپ مایند می گویند که روی تکنیک هایی کار می کنند تا نمایندگان را قابل اعتمادتر کنند.

به روز شده در 3/13/2024، ساعت 10:20 صبح به وقت شرقی: نظر از طرفداران Linxi “Jim” اضافه شد.

منبع: https://www.wired.com/story/google-deepmind-ai-agent-learned-to-play-goat-simulator-3/

چرا ایلان ماسک مجبور شد Grok را منبع باز کند، پاسخ او به ChatGPT

ایلان ماسک پس از شکایت از OpenAI در این ماه، با ادعای اینکه شرکت بیش از حد بسته شده است، گفت که پاسخ “حقیقت جویانه” خود را به ChatGPT، چت ربات Grok، منتشر خواهد کرد تا همه ببینند. آن را دانلود و استفاده کنند.

ماسک گفت: “این هفته، @xAI Grok منبع باز خواهد شد.” نوشت امروز در شبکه اجتماعی X خود. این نشان می‌دهد که شرکت هوش مصنوعی او، xAI، کد کامل Grok را منتشر می‌کند و به هر کسی اجازه استفاده یا تغییر آن را می‌دهد. در مقابل، OpenAI یک نسخه از ChatGPT و مدل زبان پشت آن را به صورت رایگان در دسترس قرار می دهد، اما کد آن را خصوصی نگه می دارد.

ماسک تاکنون در مورد مدل تجاری Grok یا xAI چیزی نگفته بود، و چت بات در اوایل این ماه فقط برای مشترکین Premium مصنوعی این شرکت در دسترس بود، شاید ماسک احساس می کرد که باید چت بات خود را باز کند تا نشان دهد که به آن متعهد است. این چشم انداز

OpenAI هفته گذشته با انتشار پیام‌های ایمیلی بین ماسک و دیگران به شکایت ماسک پاسخ داد که در آن به نظر می‌رسد او از ایده بسته‌تر ، فناوری شرکت با قدرتمندتر شدن آن حمایت می‌کند. ماسک در نهایت بیش از 40 میلیون دلار در OpenAI سرمایه گذاری کرد تا اینکه راه خود را از این پروژه در سال 2018 جدا کرد.

زمانی که ماسک برای اولین بار اعلام کرد که Grok در حال توسعه است، قول داد که نسبت به ChatGPT یا سایر مدل‌های هوش مصنوعی که او و سایرین با دیدگاه‌های راست‌گرا از آن‌ها به دلیل لیبرالیسم بیش از حد انتقاد کرده‌اند، از نظر سیاسی سوگیری کمتری خواهد داشت. آزمایش توسط WIRED و دیگران به سرعت نشان داد که اگرچه گروک ممکن است سبکی تحریک‌آمیز را اتخاذ کند، اما به هر طریقی به شدت مغرضانه نیست، شاید چالش همسو ، مدل‌های هوش مصنوعی به شیوه‌ای سازگار با یک دیدگاه خاص را آشکار کند.

Grok منبع باز می تواند به ماسک کمک کند تا به هوش مصنوعی شرکتش علاقه مند شود. محدود ، دسترسی Grok فقط به مشترکین پولی X، یکی از کوچک‌ترین پلتفرم‌های اجتماعی جهان، به این معنی است که هنوز کشش ChatGPT OpenAI یا Gemini Google را ندارد. انتشار Grok می تواند توسعه دهندگان را تشویق کند تا از این مدل استفاده کرده و آن را گسترش دهند و در نهایت می تواند به آن کمک کند تا به کاربران نهایی بیشتری دسترسی پیدا کند. این می تواند داده هایی را برای xAI فراهم کند که می تواند برای بهبود فناوری خود از آن استفاده کند.

تصمیم ماسک برای آزاد ، گروک باعث می شود که او با رویکرد متا در زمینه هوش مصنوعی مولد هماهنگ شود. قالب‌های متن‌باز متا، مانند Llama 2، در بین توسعه‌دهندگان محبوب شده‌اند، زیرا می‌توان آن‌ها را به‌طور کامل سفارشی‌سازی کرد و برای استفاده‌های مختلف تطبیق داد. اما اتخاذ یک استراتژی مشابه می‌تواند ماسک را بیشتر به بحث در مورد مزایا و خطرات دسترسی همه به قوی‌ترین مدل‌های هوش مصنوعی بکشاند.

بسیاری از کارشناسان هوش مصنوعی می گویند مدل های AI منبع باز مزایای قابل توجهی مانند افزایش شفافیت و دسترسی گسترده دارند. عماد مستقی، بنیانگذار Stability AI، شرکتی که مدل‌های مختلف هوش مصنوعی منبع باز می‌سازد، می‌گوید: «مدل‌های باز ایمن‌تر و قوی‌تر هستند و دیدن گزینه‌های بیشتر از سوی شرکت‌های پیشرو در این زمینه بسیار عالی است.

منبع: https://www.wired.com/story/elon-musk-no-choice-open-chatbot-grok/

ترسی که ایلان ماسک و سام آلتمن را مجبور به ایجاد OpenAI کرد

ایلان ماسک هفته گذشته از دو تن از بنیانگذاران OpenAI خود، سام آلتمن و گرگ براکمن، شکایت کرد و آنها را به “نقض آشکار” توافق اولیه سه نفر مبنی بر توسعه آشکار هوش مصنوعی و بدون سود تحقیقاتی متهم کرد. اواخر روز سه‌شنبه، OpenAI ایمیل‌های نیمه ویرایش‌شده بین ماسک، آلتمن، براکمن و دیگران را منتشر کرد که یک ضد روایت ارائه می‌کنند.

ایمیل‌ها نشان می‌دهند که ماسک آماده بود که OpenAI نسبتاً زودتر سود محور شود، که می‌تواند ادعای او مبنی بر انحراف از مأموریت اصلی خود را تضعیف کند. در یک پست، ماسک پیشنهاد ادغام OpenAI در شرکت خودروی الکتریکی خود تسلا را برای ارائه منابع بیشتر می‌کند، ایده‌ای که در ابتدا توسط ایمیلی که او از طرف یک طرف خارجی ناشناس ارسال کرده بود، پیشنهاد شد.

ایمیل‌های تازه منتشر شده همچنین نشان می‌دهند که ماسک تعصب نداشت که OpenAI باید آزادانه پیشرفت‌های خود را در اختیار همه قرار دهد. ماسک در پاسخ به پست دانشمند ارشد Ilya Sutskevar که هشدار داده بود پیشرفت‌های قدرتمند AI منبع باز می‌تواند با پیشرفت فناوری خطرناک باشد، نوشت: “بله.” به نظر می رسد که این با استدلال های شکایت هفته گذشته که از ابتدا توافق شده بود که OpenAI نوآوری های خود را آزادانه در دسترس قرار دهد، تناقض دارد.

اگر اختلاف حقوقی را کنار بگذاریم، ایمیل‌های منتشر شده توسط OpenAI نشان می‌دهد که گروه قدرتمندی از کارآفرینان فناوری در حال تأسیس سازمانی هستند که بسیار قدرتمند شده است. با کمال تعجب، اگرچه OpenAI دوست دارد ماموریت خود را متمرکز بر ایجاد هوش عمومی مصنوعی – ماشین‌هایی باهوش‌تر از انسان‌ها – توصیف کند، بنیان‌گذاران آن زمان بیشتری را صرف بحث درباره ترس‌ها در مورد قدرت رو به رشد گوگل و سایر غول‌های با جیب عمیق می‌کنند تا اینکه درباره AGI هیجان‌زده شوند.

من فکر می کنم باید بگوییم که با تعهد مالی 1 میلیارد دلاری شروع می کنیم. این واقعی است. من هر چیزی را که شخص دیگری ارائه نکند پوشش خواهم داد. او پیشنهاد راه اندازی را با اعلام بودجه 100 میلیون دلاری با استناد به منابع عظیم گوگل و فیس بوک رد کرد.

ماسک OpenAI را با آلتمن، براکمن و دیگران در سال 2015، طی دوره دیگری از تبلیغات سرسختانه پیرامون هوش مصنوعی متمرکز بر گوگل، تأسیس کرد. یک ماه قبل از تاسیس این غیرانتفاعی، برنامه هوش مصنوعی گوگل، AlphaGo، یاد گرفته بود که بازی رومیزی شیطانی گو، آنقدر خوب که یک قهرمان انسانی را برای اولین بار شکست دهد. این شاهکار بسیاری از کارشناسان هوش مصنوعی را شوکه کرد که فکر می‌کردند Go برای رایانه‌ها بسیار ظریف است و نمی‌توان آن‌ها را به این زودی‌ها تسلط یافت. همچنین پتانسیل هوش مصنوعی برای تسلط بر بسیاری از وظایف به ظاهر غیرممکن را نشان داد.

متن شکایت ماسک برخی از جزئیات گزارش شده قبلی درباره تاریخچه OpenAI در آن زمان را تأیید می کند، از جمله اینکه ماسک برای اولین بار از خطرات احتمالی ناشی از هوش مصنوعی در جلسه ای در سال 2012 با دمیس حسابیس، یکی از بنیانگذاران و مدیر عامل شرکت DeepMind مطلع شد. که AlphaGo را توسعه داد و در سال 2014 توسط گوگل خریداری شد. این شکایت همچنین تأیید می کند که ماسک عمیقاً با لری پیج، یکی از بنیانگذاران گوگل در مورد خطرات آینده هوش مصنوعی اختلاف نظر داشته است، که ظاهراً باعث شد این دو مرد به عنوان دوست با هم درگیر شوند. ماسک در نهایت در سال 2018 راه خود را از OpenAI جدا کرد و ظاهراً از زمان موفقیت فراری ChatGPT در این پروژه به سراشیبی رفته است.

از زمانی که OpenAI این هفته ایمیل‌های ماسک را منتشر کرد، گمانه‌زنی‌ها در مورد نام‌ها و سایر جزئیات حذف شده از پیام‌ها چرخید. تعداد کمی به هوش مصنوعی روی آوردم به عنوان راهی برای پر ، جاهای خالی با متنی از نظر آماری قابل قبول.

ماسک در ایمیلی درباره پروژه OpenAI نوشت: «این به میلیاردها دلار در سال نیاز دارد یا فوراً آن را فراموش کنید. او افزود: «متاسفانه، آینده بشریت در دستان (تدوین شده) است، شاید اشاره ای به پیج یکی از بنیانگذاران گوگل باشد.

در جای دیگری از تغییر ایمیل، نرم افزار هوش مصنوعی – مانند برخی از نظر دهندگان در توییتر – حدس زد که ماسک استدلال هایی را مطرح کرده است که گوگل برتری قدرتمندی نسبت به Hassabis در هوش مصنوعی دارد.

صرف نظر از این، رابطه افشا شده در ایمیل‌های بین بنیانگذاران OpenAI از آن زمان به هم خورده است. هدف شکایت ماسک این است که این شرکت را مجبور به توقف مجوز فناوری به حامی اصلی خود، مایکروسافت کند. در یک پست وبلاگی همراه با ایمیل‌های منتشر شده در این هفته، سایر بنیانگذاران OpenAI از بدتر شدن اوضاع ابراز ناراحتی کردند.

آنها نوشتند: «ما ناراحتیم که با کسی که عمیقاً او را تحسین می کنیم، به این موضوع رسیدیم. “کسی که ما را ترغیب کرد تا هدف بالاتری داشته باشیم، سپس به ما گفت که شکست خواهیم خورد، یک رقیب راه اندازی کرد، سپس از ما شکایت کرد که بدون آنها پیشرفت قابل توجهی به سمت ماموریت OpenAI داشتیم.”

منبع: https://www.wired.com/story/the-fear-that-inspired-elon-musk-sam-altman-openai/

OpenAI و سایر غول های فناوری باید هنگام راه اندازی پروژه های جدید هوش مصنوعی به دولت ایالات متحده اطلاع دهند

هنگامی که ChatGPT OpenAI در سال گذشته طوفان جهان را به خود اختصاص داد، بسیاری از کارگزاران با نفوذ در سیلیکون ولی و واشنگتن دی سی را شگفت زده کرد. دولت ایالات متحده اکنون باید از پیشرفت های آینده هوش مصنوعی شامل مدل های زبان بزرگ، فناوری پشت سر ChatGPT مطلع شود.

دولت بایدن در حال آماده شدن برای استفاده از قانون تولید دفاعی است تا شرکت‌های فناوری را ملزم کند که هنگام آموزش مدل هوش مصنوعی با استفاده از مقدار قابل توجهی از قدرت محاسباتی، دولت را مطلع کنند. این قانون می تواند از اوایل هفته آینده اجرایی شود.

این الزام جدید به دولت ایالات متحده امکان دسترسی به اطلاعات کلیدی در مورد برخی از حساس ترین پروژه های OpenAI، Google، Amazon و سایر شرکت های رقیب فناوری هوش مصنوعی را می دهد. شرکت‌ها همچنین باید اطلاعاتی در مورد آزمایش‌های امنیتی انجام شده بر روی خلاقیت‌های جدید هوش مصنوعی خود ارائه دهند.

OpenAI نسبت به وسعت کاری که بر روی جانشین بهترین پیشنهاد فعلی خود، GPT-4 انجام می شود، ابراز نگرانی کرده است. دولت ایالات متحده می‌تواند اولین کسی باشد که می‌داند واقعاً چه زمانی کار یا آزمایش امنیتی در GPT-5 آغاز می‌شود. OpenAI بلافاصله به درخواست نظر پاسخ نداد.

ما از قانون تولید دفاعی استفاده می‌کنیم، که اختیاراتی است که از طریق رئیس‌جمهور در اختیار داریم، تا تحقیقاتی را انجام دهیم که از شرکت‌ها می‌خواهد هر بار که یک مدل زبان بزرگ جدید را اجرا می‌کنند، با ما به اشتراک بگذارند و نتایج را با ما در میان بگذارند – امنیت. . او نگفت که این الزام چه زمانی اعمال خواهد شد یا دولت چه اقدامی ممکن است در مورد اطلاعاتی که به دست آورده انجام دهد. در پروژه های هوش مصنوعی دریافت شده است. انتظار می رود هفته آینده جزئیات بیشتری اعلام شود.

قوانین جدید به عنوان بخشی از فرمان اجرایی گسترده کاخ سفید که اکتبر گذشته صادر شد، اجرا می شود. این فرمان اجرایی تا 28 ژانویه به وزارت بازرگانی فرصت می‌دهد تا سیستمی را پیشنهاد کند که بر اساس آن شرکت‌ها ملزم به اطلاع مقامات آمریکایی از جزئیات مدل‌های جدید هوش مصنوعی در حال توسعه هستند. این دستور مشخص می‌کند که این جزئیات باید شامل میزان قدرت محاسباتی استفاده شده، اطلاعات مربوط به مالکیت داده‌های ارسال شده به مدل و جزئیات تست امنیتی باشد.

دستور ماه اکتبر خواستار شروع تعریف زمانی است که مدل‌های هوش مصنوعی باید به وزارت بازرگانی گزارش دهند، اما یک نوار اولیه 100 سپتیلیون (یک میلیون تریلیون یا 10 میلیارد دلار) تعیین می‌کند.26) عملیات ممیز شناور در ثانیه یا فلاپ ها، و سطح 1000 برابر کمتر برای مدل های زبان بزرگ که روی داده های توالی یابی DNA کار می کنند. نه OpenAI و نه گوگل قدرت محاسباتی مورد استفاده برای آموزش قوی‌ترین مدل‌های خود، GPT-4 و Gemini را به ترتیب فاش نکرده‌اند، اما گزارش سرویس تحقیقات کنگره در مورد فرمان اجرایی نشان می‌دهد که 1026 فلاپ ها کمی فراتر از چیزی هستند که برای آموزش GPT-4 استفاده شد.

رایموندو همچنین تأیید کرد که وزارت بازرگانی به زودی یک الزام دیگر از فرمان اجرایی اکتبر را اجرا خواهد کرد که از ارائه‌دهندگان محاسبات ابری مانند آمازون، مایکروسافت و گوگل می‌خواهد زمانی که یک شرکت خارجی از منابع خود برای ایجاد یک مدل زبانی عالی استفاده می‌کند، به دولت اطلاع دهند. پروژه های خارجی باید زمانی اعلام شوند که از همان آستانه اولیه 100 سپتیلیون شکست عبور کنند.

منبع: https://www.wired.com/story/openai-tech-giants-us-government-ai-projects/

سم آلتمن با یک صندلی هیئت مدیره جدید برای مایکروسافت رسماً به OpenAI بازگشت

سام آلتمن امروز بازگشت رسمی خود را به عنوان مدیر عامل OpenAI در یادداشتی تأیید کرد که تغییرات هیئت مدیره این شرکت از جمله یک صندلی جدید بدون رای برای بزرگترین سرمایه گذار شرکت، مایکروسافت، را تأیید کرد.

آلتمن در یادداشتی که برای کارکنان ارسال شد و در وبلاگ OpenAI به اشتراک گذاشته شد، هرج و مرج دو هفته گذشته را توصیف کرد که ناشی از از دست دادن اعتماد هیئت مدیره به مدیر عامل آن بود، که طی آن تقریباً کل کارکنان شرکت او تهدید به استعفا کردند. به انعطاف پذیری استارتاپ و نه نشانه ای از بی ثباتی.

آلتمن نوشت: «شما در کنار یکدیگر، با این شرکت و مأموریت ما محکم ایستاده‌اید. یکی از مهمترین چیزها برای ایجاد تیم (هوش عمومی مصنوعی) ایمن، توانایی مدیریت شرایط استرس زا و نامطمئن و حفظ قضاوت خوب در طول فرآیند است. امتیازهای برتر.”

آلتمن در 17 نوامبر برکنار شد. هیئت غیرانتفاعی شرکت گفت که یک بررسی مشورتی به این نتیجه رسید که آلتمن “همیشه در ارتباطات خود با هیئت مدیره صادق نبوده است.” تحت ساختار غیرمعمول OpenAI، وظیفه هیئت مدیره انجام ماموریت غیرانتفاعی اولیه پروژه برای توسعه هوش مصنوعی بود که به نفع بشریت باشد، نه تجارت بشریت.

هیئت مدیره ای که آلتمن را اخراج کرد شامل دانشمند ارشد شرکت، ایلیا سوتسکور بود، که بعداً کناره گیری کرد و به کارکنانی پیوست که تهدید کردند در صورت عدم اعاده مجدد آلتمن، استعفا خواهند داد.

آلتمن گفت که هیچ احساس سختی در مورد آن وجود نخواهد داشت، حتی اگر یادداشت او سؤالاتی در مورد آینده Sutskever ایجاد کند.

من ایلیا را دوست دارم و به او احترام می‌گذارم، فکر می‌کنم او یک فانوس دریایی در میدان و گوهر یک انسان است. آلتمن نوشت: «من هیچ بدخواهی نسبت به او ندارم، و افزود: «ما مشتاقانه منتظر ادامه روابط کاری خود هستیم و در حال بحث در مورد چگونگی ادامه کارش در OpenAI هستیم.» با این حال، چیزی که واضح بود این بود که سوتسکور به هیئت مدیره باز نخواهد گشت.

یادداشت آلتمن به کارکنان تأیید کرد که هیئت مدیره کاملاً مرد OpenAI متشکل از وزیر سابق خزانه داری لری سامرز، مدیر اجرایی Quora، آدام دآنجلو و مدیر عامل سابق Salesforce برت تیلور، با تیلور به عنوان رئیس خواهد بود. D’Angelo تنها عضو باقی مانده از هیئت مدیره قبلی است.

اعضای سابق هیئت مدیره هلن تونر، مدیر CSET، یک اتاق فکر، و تاشا مک کاولی، یک کارآفرین، هر دو استعفا داده اند.

ایلان ماسک، یکی از بنیانگذاران OpenAI، در سخنرانی در اجلاس DealBook نیویورک تایمز، کمی قبل از اعلام این خبر، نگرانی خود را در مورد آلتمن ابراز کرد و این سوال را مطرح کرد که چرا Sutskever به اخراج او رای داد. ماسک گفت: “یا این یک چیز جدی بود و ما باید بدانیم چیست، یا این یک چیز جدی نیست و هیئت مدیره باید استعفا دهد.” “من احساسات متفاوتی در مورد سام دارم، درست است.”

منبع: https://www.wired.com/story/sam-altman-officially-returns-to-openai-board-seat-microsoft/

خروج ناگهانی سام آلتمن باعث ایجاد شوک در OpenAI و فراتر از آن می شود

در اوایل این ماه، آلتمن میزبان اولین کنفرانس توسعه دهندگان OpenAI بود و برنامه‌های خود را برای ایجاد یک فروشگاه اپلیکیشن برای عوامل هوش مصنوعی بر اساس فناوری آن اعلام کرد. به گفته بلومبرگ، آلتمن همچنین از صندوق‌های دارایی مستقل خاورمیانه برای توسعه تراشه‌های هوش مصنوعی که با تراشه‌های انویدیا رقابت می‌کنند، استفاده می‌کرد. اطلاعات قبلاً گزارش داده بود که آلتمن در حال بررسی امکان توسعه سخت افزار مبتنی بر هوش مصنوعی با همکاری Jony Ive طراح سابق اپل با سرمایه گذاری از Softbank است.

اختلاف نظر بر سر موضوع اولویت بندی توسعه ایمن هوش مصنوعی باعث شد چندین محقق برجسته OpenAI شرکت را ، کنند و رقیبی به نام Anthropic پیدا کنند.

توسعه قدرتمندترین مدل زبان OpenAI، GPT-4، بحث بی سابقه ای را در مورد اینکه آیا هوش مصنوعی می تواند فراتر از کنترل انسان تکامل یابد، به راه انداخته است. در ماه ژوئیه، Sutskever رهبر یک “گروه فوق همسویی” در OpenAI شد که به تولید “پیشرفت های فنی برای هدایت و کنترل سیستم های هوش مصنوعی بسیار هوشمندتر از ما اختصاص دارد.”

آلتمن هفته گذشته در اجلاس مدیر عامل APEC در سانفرانسیسکو صحبت می کرد اشاره شد این شرکت در توسعه یک جانشین قدرتمندتر برای GPT-4 پیشرفت کرده است. او گفت: «چهار بار در تاریخ OpenAI – اخیراً در دو هفته گذشته – من این فرصت را داشتم که در اتاق حضور داشته باشم، زیرا پرده جهل و مرز کشف را به جلو می‌رانیم.» .

بسیاری در صنعت فناوری در حمایت از آلتمن صحبت کرده اند یا از هیئت مدیره OpenAI به خاطر اقداماتش انتقاد کرده اند.

رون کانوی، سرمایه گذار فرشته، در این باره نوشت: «آنچه امروز در OpenAI اتفاق افتاد، یک کودتای هیئت مدیره است که از سال 1985، زمانی که هیئت مدیره وقت اپل استیو جابز را اخراج کرد، ندیده ایم.

اریک اشمیت، مدیر عامل سابق گوگل، “سم آلتمن یکی از قهرمانان من است.” کار. او یک شرکت را از هیچ به ارزش 90 میلیارد دلار ساخت و دنیای جمعی ما را برای همیشه تغییر داد. من نمی توانم صبر کنم تا ببینم بعداً چه می کند.

OpenAI اعلام کرد که Altman توسط Mira Murati، مدیر ارشد فناوری سابق OpenAI جایگزین خواهد شد، که در حالی که شرکت به دنبال جایگزین دائمی است، به عنوان مدیر عامل موقت خدمت می کند.

برخی از کارکنان OpenAI به نظر می‌رسیدند که موراتی برای مدتی رهبر واقعی شرکت بوده است.

“در جنون آموزش ChatGPT، @miramurati ایوان موریکاوا، رئیس مهندسی OpenAI، در X نوشت: “او کسی بود که تصمیمات نهایی را در طول استندآپ های روزانه گرفت.”

آلتمن که علاقه مالی کمی به OpenAI دارد، ساعاتی پس از برکناری اش با X صحبت کرد تا به او پیشنهاد دهد که ممکن است اطلاعات بیشتری در مورد شرایط خروجش فاش کند. “اگر من شروع به ، کنم، هیئت مدیره OpenAI باید از من برای ارزش کامل سهامم شکایت کند.” او نوشت.

منبع: https://www.wired.com/story/openai-sam-altman-ousted-what-happened/