نوشته و ویرایش شده توسط مجله ی دریای تکنولوژی
متا روز قبل همزمان با اراعه هوش مصنوعی اختصاصی خود در اینستاگرام، واتساپ و فیسبوک، مدل زبان بزرگ تازه لاما ۳ (Llama 3) را در اختیار فراهمکنندگان سرویسهای ابری قرار داده است. اکنون برخی کاربران شبکههای اجتماعی به کارکرد این مدل در پلتفرم هوش مصنوعی Groq اشاره کردهاند که حرف های میبشود شدت استثنایی پردازش ۸۰۰ توکندرثانیه را اراعه میکند.
کارکرد خیرهکننده مدل لاما ۳ در پلتفرم هوش مصنوعی Groq
بر پایه پستی که توسط «مت شومر»، بنیانگذار و مدیرعامل شرکت OthersideAI انتشار شده است، پلتفرم هوش مصنوعی شرکت Groq شدت استنتاج برقآسای بیشتر از ۸۰۰ توکندرثانیه را با مدل لاما ۳ متا اراعه میکند. هرچند متا یا Groq تا این مدت این نوشته را قبول نکردهاند، اما این ویژگی میتواند در قیاس با دیگر سرویسهای هوش مصنوعی ابری یک جهش قابلدقت باشد.
VentureBeat در گزارش خود از این نوشته اظهارکرده که این ادعا درست است. [از طریق این لینک میتوانید خودتان کارکرد آن در چتبات Groq را امتحان کنید.]
پردازش ۸۰۰ توکندرثانیه (یا نزدیک به ۴۸ هزار توکندردقیقه) برای Llama 3 بهاندازهای سریع است که با وجود آن، مدلهای هوش مصنوعی در هر دقیقه میتوانند نزدیک به ۵۰۰ کلمه تشکیل کنند. این چنین با این شرایط، شدت استنتاج لاما ۳ از مدلهای زبان بزرگ فرد دیگر که امروزه روی پردازندههای گرافیکی معمولی در فضای ابری اراعه خواهد شد، سریع تر است.
گسترش معماری تازه توسط Groq برای محاسبات یادگیری عمیق
استارتاپ مستقر در سیلیکونولی Groq، درحال گسترش یک معماری پردازنده تازه بهینهسازیشده برای عملیاتهای ضرب ماتریسی است که قلب محاسباتی یادگیری عمیق است. Groq ادعا میکند که این معماری میتواند کارکرد و کارایی زیاد بالاتری را برای استنتاج هوش مصنوعی اراعه کند، و نتیجه کارکرد پردازشی ۸۰۰ توکندرثانیه برای لاما ۳ به ادعای آن اعتبار میبخشد.
معماری Groq در قیاس با مطرحهای مورداستفاده توسط انویدیا و دیگر سازندگان تراشه، تفاوتهای قابلتوجهی دارد. این استارتاپ به جای تطبیق پردازندههای همهمنظوره برای هوش مصنوعی، پردازنده Tensor Streaming خود را برای تسریع الگوهای محاسباتی خاص یادگیری عمیق ساخته است.
خود متا بعد از اراعه لاما ۳ ادعا کرده می بود که این مدل زبانی کارکرد بهتری نسبت به زیاد تر رقیب ها دارد. اکنون این مدل در دو نسخه اراعه شده که یکی از آنها با ۸ میلیارد و فرد دیگر با ۷۰ میلیارد پارامتر همراه است. متا میگوید که مقدار تنوع در جوابهای اراعهشده توسط این مدل زیاد تر از قبل شده است و خطاها یا عدم جوابگویی به سؤالات بهندرت صورت میگیرد. این چنین نحوه فهمیدن دستورات و نوشتن کدها هم بهبود یافته است.
گفتنی است که استارتاپ Groq ارتباطی با هوش مصنوعی Grok، متعلق به استارتاپ xAI ایلان ماسک ندارد.
دسته بندی مطالب
مقالات کسب وکار