پیشتازی NVIDIA در اجرای سریع مدل‌های GPT-OSS و نقش کلیدی OpenAI در توسعه هوش مصنوعی متن‌باز

انویدیا و OpenAI خانواده جدید مدل‌های هوش مصنوعی متن‌باز با نام gpt-oss را برای عموم عرضه کرده‌اند که با عملکرد بی‌نظیر روی پردازنده‌های گرافیکی RTX اجرا می‌شوند. در بیانیه‌ای رسمی، انویدیا اعلام کرد که با همکاری OpenAI، مدل‌های جدید gpt-oss را برای کاربران عادی عرضه کرده‌ است. این مدل‌های پیشرفته که پیش‌تر فقط در دیتاسنترهای ابری قابل استفاده بودند، حالا با سرعتی فوق‌العاده روی روی سیستم عادی کاربران اجرا می‌شود.

جنسن هوانگ، بنیان‌گذار و مدیرعامل انویدیا گفت:

شریک جدید ما، Open AI به دنیا نشان داد که چه چیزهایی را می‌توان با فناوری هوش مصنوعی انویدیا ساخت و حالا آن‌ها نوآوری در نرم‌افزارهای متن‌باز را گسترش می‌دهند. مدل‌های gpt oss به توسعه‌دهندگان در همه‌جا امکان می‌دهند تا بر پایه این زیرساخت پیشرفته، پروژه‌های نوآورانه بسازند و رهبری فناوری ما در هوش مصنوعی را تقویت کند.

مدل gpt-oss-20b برای اجرای بهینه روی رایانه‌های شخصی مجهز به کارت‌های گرافیک RTX AI با حداقل ۱۶ گیگابایت حافظه گرافیکی طراحی شده و می‌تواند تا ۲۵۰ توکن در ثانیه را روی RTX 5090 پردازش کند در حالی‌که نسخه قدرتمندتر gpt-oss-120b برای استفاده در سیستم های قدرتمند‌تر با کارت‌های RTX PRO توسعه یافته. این مدل‌ها با کارت‌های قدرتمند NVIDIA H100 آموزش دیده‌اند و برای اولین‌بار از فرمت MXFP4 روی RTX پشتیبانی می‌کنند، تکنیکی که کیفیت و دقت مدل را بدون افت عملکرد بهبود می‌دهد.

این هفته در برنامه RTX AI Garage، روش‌های مختلفی برای شروع کار با مدل‌های gpt-oss معرفی شد. یکی از ساده‌ترین راه‌ها استفاده از اپلیکیشن Ollama است که با رابط کاربری آماده و پشتیبانی کامل از مدل‌های gpt-oss، تجربه‌ای سریع و بهینه‌شده برای کارت‌های گرافیک RTX ارائه می‌دهد. همچنین انویدیا با همکاری جامعه متن‌باز، پروژه Llama.cpp را برای بهبود عملکرد این مدل‌ها توسعه داده که شامل به‌کارگیری تکنیک‌هایی مانند CUDA Graphs برای کاهش سربار پردازشی است. کاربران می‌توانند از طریق مخزن GitHub به این ابزار دسترسی پیدا کنند.

در کنار این ابزارها، توسعه‌دهندگان ویندوز نیز می‌توانند از مدل‌های gpt-oss در سرویس Microsoft AI Foundry Local استفاده کنند که اکنون در مرحله پیش‌نمایش عمومی قرار دارد. راه‌اندازی این مدل‌ها بسیار ساده است و تنها کافی‌ست دستور زیر را در ترمینال اجرا کنند:

Foundry model run gpt-oss-20b

ابوالفضل | ۴ هفته پیش

دیدگاهتان را بنویسید