ChatGPT مدت زیادی است که وجود داشته است. چت باتی که رنگ جدیدی به دنیای هوش مصنوعی بخشید و توجه کاربران عمومی و همچنین سرمایه گذاران این حوزه را بیش از پیش به خود جلب کرد. در واقع، این چت بات ثابت کرده است که هوش مصنوعی پتانسیل درآمدزایی بالایی برای بسیاری از غول های فناوری دارد. اما چرا هوش مصنوعی چنین فناوری گران قیمتی است؟
آخرین گزارش سه ماهه گوگل و مایکروسافت حکایت از افزایش چشمگیر درآمدهای ابری این دو شرکت دارد که دلیل اصلی آن توجه بیشتر مشتریان به خدمات هوش مصنوعی است. در نتیجه این استقبال، انتظار می رود سرمایه گذاران بیشتری وارد حوزه هوش مصنوعی شوند و شرکت ها نیز خدمات بیشتری در این زمینه به کاربران ارائه دهند. با این حال، افزایش هزینه های تحقیقات و خدمات مبتنی بر هوش مصنوعی برخی از سرمایه گذاران را نگران کرده است. به عنوان مثال ارزش سهام متا به دلیل کاهش غیرمنتظره درآمدهای هوش مصنوعی کاهش یافت و این احتمال وجود دارد که همین سناریو برای سایر شرکت ها نیز تکرار شود.
مایکروسافت در 25 آوریل 2024 (6 اردیبهشت 1403 هجری شمسی) اعلام کرد که در سه ماهه اول سال 14 میلیارد دلار در زمینه هوش مصنوعی سرمایه گذاری کرده است که نسبت به مدت مشابه سال گذشته 79 درصد افزایش داشته است و این میزان احتمال دارد به تدریج افزایش یابد. متا همچنین نسبت به سال گذشته ۴۲ درصد سرمایه گذاری خود را افزایش داد و با اختصاص بودجه ای بین ۳۵ تا ۴۰ میلیارد دلار به دنبال انجام تحقیقات بیشتر در زمینه هوش مصنوعی است.
انتظار می رفت که هزینه توسعه هوش مصنوعی افزایش یابد. زیرا با گذشت زمان پیچیدگی ها و الگوریتم های هوش مصنوعی دستخوش تغییرات بیشتری می شود و در عین حال تقاضا و نیاز عمومی به این فناوری روز به روز بیشتر می شود. در نتیجه، پاسخگویی به نیازهای مشتری، البته نیازمند زیرساخت های بیشتر و مجهزتر است. در این مقاله به عوامل موثر بر افزایش هزینه های توسعه هوش مصنوعی می پردازیم. پس تا انتها با دیجیاتو همراه باشید.
توسعه مدل های زبانی برای هوش مصنوعی
ابزارهای هوش مصنوعی مانند ChatGPT از مدلهای زبان بزرگ حاوی طیف وسیعی از دادهها مانند کتابها، مقالات و بررسیها برای ارائه پاسخهای بهینه به پرسشهای کاربران استفاده میکنند. بسیاری از شرکت های پیشرو در این زمینه نیز بر این باورند که با توسعه روزافزون هوش مصنوعی، نیاز به این فناوری برای مدل های زبانی بزرگتر و کاملتر آشکارتر خواهد شد.
توسعه این مدل ها به ارائه داده های کامل تر، افزایش قدرت محاسباتی و آموزش سیستم های بیشتر بستگی دارد. با این حال، انجام چنین عملیاتی مستلزم هزینه زیادی است. به عنوان مثال، داریو آمودی، مدیر عامل Entropic، در مصاحبه ای اعلام کرد که آموزش مدل های هوش مصنوعی در شرایط فعلی تقریباً 100 میلیون دلار هزینه دارد. او همچنین به افزایش 5 تا 10 میلیارد دلاری هزینه آموزش مدل های آینده (در سال های 2025 و 2026) اشاره کرد.
هزینه قطعات هوش مصنوعی
شرکتهای توسعهدهنده هوش مصنوعی از واحدهای پردازش گرافیکی (GPU) بهویژه اجزای Nvidia برای پردازش حجم زیادی از دادهها با سرعت بالا استفاده میکنند. با این حال، این قطعات البته کمیاب و گران هستند و برخی مانند H100 انویدیا با قیمت 30000 دلار یا بیشتر به فروش می رسند. برخی از شرکت ها نیز به اجاره قطعات مورد نظر خود متوسل شده اند، اما این امر نیز برای شرکت ها هزینه زیادی دارد. به عنوان مثال، اجاره برخی از قطعات Nvidia H100 حدود 100 دلار در ساعت برای تیم توسعه هزینه دارد.
انویدیا اخیرا معماری پردازنده جدیدی به نام بلک ول معرفی کرده است که نقش مهمی در پردازش داده های هوش مصنوعی ایفا می کند. کارشناسان انویدیا تخمین زدند که برای آموزش یک مدل هوش مصنوعی با 1.8 تریلیون پارامتر مانند GPT-4 به حدود 2000 پردازنده Blackwell نیاز است که در صورت استفاده از اجزای Hopper این تعداد به 8000 پردازنده می رسد. در نتیجه هزینه بالای استفاده از این قطعات می تواند سرعت پیشرفت و توسعه هوش مصنوعی و چت بات های ساخته شده بر روی آن را کاهش دهد.
مراکز داده
شرکت ها پس از خرید پردازنده های گرافیکی به مکانی مناسب برای نگهداری و استفاده از آنها نیاز دارند. برای این منظور متا، آمازون، مایکروسافت، گوگل و سایر شرکت های توسعه در حال بررسی ساخت مراکز داده جدید هستند. مراکز به طور خاص برای این شرکت ها طراحی شده اند و از قفسه های محکم، سیستم های تبرید و انواع تجهیزات الکتریکی مانند ژنراتورهای آماده به کار بهره می برند.
گروه تحقیقاتی Dell’Oro تخمین زده است که امسال شرکت ها حدود 294 میلیارد دلار برای ساخت و تجهیز مراکز داده خود اختصاص خواهند داد. این در حالی است که در سال 2020 حدود 193 میلیارد دلار در این زمینه هزینه شده است که نشان دهنده گسترش خدمات دیجیتالی مانند پخش ویدئو، توسعه داده و پلتفرم های اجتماعی است. طبیعتاً بخشی از این هزینه ها صرف خرید قطعات گران قیمت از Nvidia و سایر سخت افزارهای تخصصی مورد نیاز برای رشد خدمات مبتنی بر هوش مصنوعی می شود.
حقوق ناشران
اگرچه بیشتر هزینه ها صرف خرید پردازنده ها و مراکز داده می شود، برخی از شرکت ها میلیون ها دلار را برای خرید حق چاپ از ناشران هزینه می کنند. به عنوان مثال، OpenAI با چندین ناشر اروپایی برای استفاده از محتوای آنها در ChatGPT به توافقاتی دست یافته است و به گفته بلومبرگ، 10 میلیون یورو به Axel Springer SE برای نمایش محتوای خبری آنها در چت بات پرداخت می کند. رهبران OpenAI همچنین با رسانه های دیگر مانند CNN، Time و Fox News در مورد این موضوع صحبت کردند.
سایر شرکتها نیز بیکار نیستند و به دنبال راههایی برای ارائه دادههای زبانی مورد نیاز برای ساخت ابزارهای هوش مصنوعی هستند. بر اساس گزارش رویترز، گوگل قراردادی 60 میلیون دلاری برای خرید کپی رایت محتوا از Reddit دارد و به گفته نیویورک تایمز، تیم متا در حال بررسی ارزش خرید حق چاپ کتاب Simon & Schuster است. البته رقابت بین غولهای فناوری تنها به خرید حق چاپ محدود نمیشود، آنها در استخدام کارگران با استعداد و توسعهدهندگان ماهر نیز با چالشهایی روبرو هستند.
جایگزین های ارزان تر
اگرچه مایکروسافت همیشه نقش اصلی را در ارائه مدل های زبان بزرگ ایفا کرده است، اما اخیراً اعلام کرده است که رویکرد متفاوتی را در پیش گرفته است. در نتیجه، این شرکت سه مدل زبان کوچکتر را معرفی کرد که به قدرت محاسباتی کمتری نسبت به مدلهای بزرگتر نیاز دارند. علاوه بر مایکروسافت، برخی از شرکتهای دیگر مانند هوش مصنوعی Sakana بر روی توسعه مدلهای زبان کوچکتر تمرکز کردهاند.
به گفته مایکروسافت، مدل های زبان بزرگ هنوز ابزار اصلی در توسعه، تجزیه و تحلیل و درک داده های پیچیده آن هستند. با این حال، مدل های کوچکتر می توانند برای برخی فعالیت ها مفید باشند و نیاز به مدل های بزرگتر را کاهش دهند. البته برخی افراد بر این باورند که داشتن مدل های زبان بزرگ تحت هر شرایطی برای کاربران مفید است، حتی اگر هزینه بیشتری به همراه داشته باشد.
منبع: https://digiato.com/artificial-intelligence/why-artificial-intelligence-is-so-expensive