شرکت xAI از نسخه سریعتر و بهینه‌تر Grok 4 Fast رونمایی کرد

تنها چند ماه پس از عرضه Grok 4، شرکت xAI ایلان ماسک با مدل نسل بعدی خود، Grok 4 Fast، مرزهای فناوری را جابجا می‌کند. این نسخه جدید در حالی عرضه می‌شود که این شرکت قصد دارد با تمرکز بر پیشرفت‌های چشمگیر فناورانه، از حواشی اخیر، از جمله مشکل یهودستیزانه چت‌بات خود، عبور کند. مدل Grok 4 Fast به گونه‌ای مهندسی شده که یک مدل استدلالی سریع‌تر و کارآمدتر از نسخه قبلی خود باشد.

به گفته xAI، مدل جدید عملکردی مشابه با Grok 4 ارائه می‌دهد اما این کار را با بازدهی فوق‌العاده‌ای انجام می‌دهد و به طور متوسط از ۴۰ درصد توکن‌های تفکر کمتری استفاده می‌کند. این تنها یک بهبود جزئی نیست؛ بلکه یک جهش بزرگ در مقرون‌به‌صرفه بودن است. این شرکت ادعا می‌کند که این بازدهی منجر به کاهش شگفت‌انگیز ۹۸ درصدی هزینه برای دستیابی به همان سطح از عملکرد در بنچمارک‌های کلیدی صنعت می‌شود. این بهبود در طیف وسیعی از وظایف، از تولید کدهای پیچیده گرفته تا وب‌گردی ساده برای یافتن پاسخ‌های فوری، اعمال می‌شود.

یکی از نوآوری‌های کلیدی در Grok 4 Fast، معماری یکپارچه آن است که به طور هوشمندانه بین حالت‌های مختلف عملیاتی جابجا می‌شود. این مفهوم شبیه به GPT-5 شرکت OpenAI است که می‌تواند بین یک مدل بسیار کارآمد برای کارهای سریع و یک مدل استدلالی عمیق‌تر و قدرتمندتر برای درخواست‌های پیچیده جابجا شود. پیاده‌سازی xAI به Grok 4 Fast اجازه می‌دهد تا از مدل «استدلالی» خود برای مسائل چالش‌برانگیز و از یک مدل سریع «غیراستدلالی» برای پرس‌وجوهای ساده استفاده کند و هم سرعت و هم مصرف منابع را بهینه سازد.

معیارهای عملکرد اولیه امیدوارکننده هستند. در پلتفرم LMArena که مدل‌های هوش مصنوعی را به صورت رقابتی رتبه‌بندی می‌کند، Grok 4 Fast در حال حاضر جایگاه نخست را در وظایف مرتبط با جستجو و رتبه هشتم را در وظایف مبتنی بر متن به خود اختصاص داده است. در اقدامی برای دموکراتیک کردن دسترسی، xAI مدل Grok 4 Fast را برای همه کاربران، از جمله کاربران سطح رایگان، در پلتفرم‌های وب، iOS و اندروید در دسترس قرار داده است. این عرضه، رقابت شدید در فضای مدل‌های زبان بزرگ (LLM) را داغ‌تر می‌کند، زیرا صنعت در انتظار اقدامات بعدی از سوی رقبایی مانند گوگل با سری Gemini و Anthropic با مدل‌های Claude Opus خود است.

منبع: Engadget

Leave a Comment