عملکرد خیره‌کننده پلتفرم هوش مصنوعی Groq در اجرای لاما 3


نوشته و ویرایش شده توسط مجله ی دریای تکنولوژی

متا روز قبل همزمان با اراعه هوش مصنوعی اختصاصی خود در اینستاگرام، واتس‌اپ و فیسبوک، مدل زبان بزرگ تازه لاما ۳ (Llama 3) را در اختیار فراهم‌کنندگان سرویس‌های ابری قرار داده است. اکنون برخی کاربران شبکه‌های اجتماعی به کارکرد این مدل در پلتفرم هوش مصنوعی Groq اشاره کرده‌اند که حرف های می‌بشود شدت استثنایی پردازش ۸۰۰ توکن‌درثانیه را اراعه می‌کند.

کارکرد خیره‌کننده مدل لاما ۳ در پلتفرم هوش مصنوعی Groq

کارکرد خیره‌کننده پلتفرم هوش مصنوعی Groq در اجرای لاما ۳_دریای تکنولوژی ۷

بر پایه پستی که توسط «مت شومر»، بنیان‌گذار و مدیرعامل شرکت OthersideAI انتشار شده است، پلتفرم هوش مصنوعی شرکت Groq شدت استنتاج برق‌آسای بیشتر از ۸۰۰ توکن‌در‌ثانیه را با مدل لاما ۳ متا اراعه می‌کند. هرچند متا یا Groq تا این مدت این نوشته را قبول نکرده‌اند، اما این ویژگی می‌تواند در قیاس با دیگر سرویس‌های هوش مصنوعی ابری یک جهش قابل‌دقت باشد.

VentureBeat در گزارش خود از این نوشته اظهار‌کرده که این ادعا درست است. [از طریق این لینک می‌توانید خودتان کارکرد آن در چت‌بات Groq را امتحان کنید.]

ادامه مطلب
اروپا برای اولین‌بار امواج ناشی از برخورد ستارگان را در فضا بازدید می‌کند

پردازش ۸۰۰ توکن‌در‌ثانیه (یا نزدیک به ۴۸ هزار توکن‌در‌دقیقه) برای Llama 3 به‌اندازه‌ای سریع است که با وجود آن، مدل‌های هوش مصنوعی در هر دقیقه می‌توانند نزدیک به ۵۰۰ کلمه تشکیل کنند. این چنین با این شرایط، شدت استنتاج لاما ۳ از مدل‌های زبان بزرگ فرد دیگر که امروزه روی پردازنده‌های گرافیکی معمولی در فضای ابری اراعه خواهد شد، سریع تر است.

گسترش معماری تازه توسط Groq برای محاسبات یادگیری عمیق

کارکرد خیره‌کننده پلتفرم هوش مصنوعی Groq در اجرای لاما 3 دریای.webp

استارتاپ مستقر در سیلیکون‌ولی Groq، درحال گسترش یک معماری پردازنده تازه بهینه‌سازی‌شده برای عملیات‌های ضرب ماتریسی است که قلب محاسباتی یادگیری عمیق است. Groq ادعا می‌کند که این معماری می‌تواند کارکرد و کارایی زیاد بالاتری را برای استنتاج هوش مصنوعی اراعه کند، و نتیجه کارکرد پردازشی ۸۰۰ توکن‌درثانیه برای لاما ۳ به ادعای آن اعتبار می‌بخشد.

ادامه مطلب
نگاهی به قیمت سایپا اطلس در بازار؛ کوییک ارتقا یافته با چه بهایی فروخته می‌بشود؟

معماری Groq در قیاس با مطرح‌های مورداستفاده توسط انویدیا و دیگر سازندگان تراشه، تفاوت‌های قابل‌توجهی دارد. این استارتاپ به جای تطبیق پردازنده‌های همه‌منظوره برای هوش مصنوعی، پردازنده Tensor Streaming خود را برای تسریع الگوهای محاسباتی خاص یادگیری عمیق ساخته است.

خود متا بعد از اراعه لاما ۳ ادعا کرده می بود که این مدل زبانی کارکرد بهتری نسبت به زیاد تر رقیب ها دارد. اکنون این مدل در دو نسخه اراعه شده که یکی از آنها با ۸ میلیارد و فرد دیگر با ۷۰ میلیارد پارامتر همراه است. متا می‌گوید که مقدار تنوع در جواب‌های اراعه‌شده توسط این مدل زیاد تر از قبل شده است و خطاها یا عدم جواب‌گویی به سؤالات به‌ندرت صورت می‌گیرد. این چنین نحوه فهمیدن دستورات و نوشتن کدها هم بهبود یافته است.

گفتنی است که استارتاپ Groq ارتباطی با هوش مصنوعی Grok، متعلق به استارتاپ xAI ایلان ماسک ندارد.

دسته بندی مطالب
مقالات کسب وکار

ادامه مطلب
لایحه ایمنی آنلاین با وجود مخالفت شرکت‌های فناوری در بریتانیا قانون شد

مقالات تکنولوژی

مقالات آموزشی

تندرستی و سلامتی



منبع