رقابت برای توسعه هوش مصنوعی مولد بهتر، همزمان رقابتی برای دستیابی به قدرت محاسباتی بیشتر است. به گفتهی مارک زاکربرگ، مدیرعامل متا، این شرکت در این زمینه پیشرو به نظر میرسد.
زاکربرگ روز چهارشنبه در یک تماس با سرمایهگذاران و تحلیلگران اعلام کرد که انتشار نسخه جدید مدل Llama متا در دست توسعه است و این مدل بر روی خوشهای از GPUها آموزش میبیند که از هر چیزی که تاکنون گزارش شده بزرگتر است. زاکربرگ گفت که توسعه Llama 4 به خوبی پیش میرود و اولین نسخهی این مدل اوایل سال آینده ارائه خواهد شد. وی افزود: «ما مدلهای Llama 4 را روی خوشهای بزرگتر از 100,000 H100 آموزش میدهیم، چیزی بزرگتر از هر آنچه که تاکنون گزارش شده است». این تراشههای Nvidia به طور گسترده برای آموزش سیستمهای هوش مصنوعی استفاده میشوند. زاکربرگ اشاره کرد که مدلهای کوچکتر Llama 4 زودتر آماده خواهند شد.
افزایش مقیاس آموزش هوش مصنوعی با استفاده از قدرت محاسباتی و داده بیشتر، به عنوان کلید توسعه مدلهای هوش مصنوعی پیشرفتهتر شناخته میشود. اگرچه متا در حال حاضر پیشتاز است، اما احتمالاً سایر بازیگران بزرگ این حوزه نیز به سمت استفاده از خوشههای محاسباتی با بیش از 100,000 تراشه پیشرفته حرکت میکنند. در ماه مارس، متا و Nvidia جزئیاتی از خوشهای با حدود 25,000 H100 برای توسعه Llama 3 را به اشتراک گذاشتند. در ماه ژوئیه، ایلان ماسک نیز در مورد شرکت xAI و همکاری با X و Nvidia برای راهاندازی 100,000 H100 اشاره کرد و نوشت: «این قویترین خوشه آموزش هوش مصنوعی در جهان است!»
رویکرد متا به هوش مصنوعی تبدیل به عاملی مهم در رقابت شرکتی برای تسلط بر این حوزه شده است. مدلهای Llama را میتوان به صورت رایگان بهطور کامل دانلود کرد، برخلاف مدلهای توسعهیافته توسط OpenAI، گوگل و سایر شرکتهای بزرگ که تنها از طریق API قابل دسترسی هستند. Llama به شدت در بین استارتاپها و محققانی که به دنبال کنترل کامل روی مدلها، دادهها و هزینههای محاسباتی خود هستند، محبوب شده است.
اگرچه متا این مدلها را به عنوان «منبع باز» معرفی میکند، اما مجوز استفاده از Llama شامل محدودیتهایی برای استفاده تجاری است. همچنین متا جزئیات آموزشی این مدلها را منتشر نمیکند، که باعث محدودیت در بررسی نحوه عملکرد آنها از سوی افراد خارجی میشود. نسخه اول Llama در ژوئیه 2023 و آخرین نسخه، Llama 3.2، در سپتامبر امسال منتشر شد.