
ادقام LPU با GPU توسط انویدیا به کمک TSMC، البته با یک گلوگاه مهم
انویدیا قصد دارد با پردازندههای گرافیکی نسل بعدی Feynman بر بازار اینفرنس تسلط پیدا کند و واحدهای LPU شرکت Groq را در معماری این تراشهها ادغام کند. قرارداد صدور مجوز LPUها ممکن است کوچک بهنظر برسد، اما هدف اصلی پیشتازی در بخش اینفرنس است. گزارشها و تحلیلهای کارشناسی نشان میدهد که این واحدها میتوانند در نسل آینده Feynman بهصورت عمودی روی دای اصلی انباشته شوند.
طبق تحلیلها، فناوری Hybrid Bonding شرکت TSMC به انویدیا امکان میدهد واحدهای LPU را روی دای محاسباتی Feynman بهصورت عمودی انباشته کند. بلوکهای LPU نخستینبار در سال ۲۰۲۸ در معماری پس از نسل Rubin ظاهر خواهند شد. جریان داده قطعی با زمانبندی ایستای کمتأخیر و بهرهوری بالاتر مدلهای محاسباتی باعث افزایش چشمگیر عملکرد اینفرنس میشود.
ادغام LPUها شبیه رویکرد AMD در پردازندههای X3D خواهد بود؛ دای اصلی Feynman شامل واحدهای محاسباتی و منطق کنترل است، در حالی که دایهای LPU جداگانه بانکهای بزرگ SRAM را در خود جای میدهند. این معماری انرژی کمتر مصرف کرده و رابط عریضتری ایجاد میکند. تأمین توان از پشت A16 باعث آزاد شدن سطح جلویی برای اتصال عمودی SRAM خواهد شد.
با این طراحی چالشهای حرارتی ایجاد میشود، زیرا تراکم محاسباتی بالا و توان عملیاتی پایدار LPUs ممکن است گلوگاههایی ایجاد کند. ترتیب اجرای ثابت در LPUها تعارضی میان قطعیت و انعطافپذیری بهوجود میآورد. حتی در صورت رفع محدودیتهای سختافزاری، رفتار CUDA در محیط LPU که نیازمند جایدهی صریح حافظه است، چالشی مهم و اساسی محسوب میشود.
ادغام SRAM در معماریهای هوش مصنوعی نیازمند مهندسی پیشرفته است تا محیط ترکیبی LPU و GPU بهینه شود. استفاده از فناوری Hybrid Bonding و اتصال عمودی SRAM تأخیر را کاهش میدهد و کارایی این نسل از تراشهها را افزایش میدهد. این اقدام میتواند قدرت پردازشی بالا، توان عملیاتی بهینه و انعطاف محدود اما قابل قبول برای Feynman نسل بعدی فراهم کند.
پرداخت هزینههای مهندسی برای اجرای موفق LPU با GPU ممکن است برای انویدیا قابل توجیه باشد، زیرا هدف پیشتازی در بخش اینفرنس است. اجرای موفق این معماری باعث ارتقای عملکرد پردازشی، کاهش تأخیر و بهرهوری انرژی بالا میشود و نسل آینده تراشههای Feynman را برای استفاده در برنامههای هوش مصنوعی و اینفرنس سطح بالا آماده میکند.




