NVIDIA B300 Blackwell Ultra
Эволюция архитектуры Blackwell. Объем памяти увеличен до 288 ГБ HBM3e. Специально спроектирован для инференса моделей триллионного масштаба.
Характеристики Ultra-класса
288 ГБ памяти: зачем столько?
B300 использует новую технологию стекирования памяти (12-Hi HBM3e), что дает на 50% больше объема по сравнению с B200. Это критически важно для современных Mixture of Experts (MoE) моделей, где объем памяти является главным бутылочным горлышком.
*Больше памяти = меньше GPU нужно для запуска одной модели = ниже латентность интерконнекта.
Вместимость моделей (LLM)
| Модель (FP8) | B200 (192GB) | B300 (288GB) |
|---|---|---|
| Llama 3 400B+ | Требуется 4x GPU | Влезает в 2x GPU! |
| Grok-1 (314B) | Сложный шардинг | Оптимальный фит |
| KV-Cache (Context) | Стандартный | +50% длины контекста |
Для самых тяжелых задач
Massive MoE Inference
Запуск гигантских моделей (Grok-1, GPT-4 class) с минимальным количеством GPU благодаря 288 ГБ памяти.
Long Context RAG
Обработка миллионов токенов контекста в оперативной памяти без баттлнеков.
Training Checkpoints
Моментальное сохранение чекпоинтов огромных моделей при обучении кластерами.
Максимальная плотность вычислений
B300 Ultra доступен для предзаказа и аренды в конфигурациях HGX (8x GPU). Ускорьте ваш AI пайплайн уже сегодня.
Запустить B300