Ультимативное решение для ИИ

NVIDIA B300 Blackwell Ultra

Эволюция архитектуры Blackwell. Объем памяти увеличен до 288 ГБ HBM3e. Специально спроектирован для инференса моделей триллионного масштаба.

Характеристики Ultra-класса

Архитектура
Blackwell Ultra
VRAM
288 GB HBM3e
Пропускная способность
8.0 TB/s
AI Performance (FP4)
22 PetaFLOPS
Интерфейс памяти
12-Hi Stack
Интерконнект
NVLink 1.8 TB/s

288 ГБ памяти: зачем столько?

B300 использует новую технологию стекирования памяти (12-Hi HBM3e), что дает на 50% больше объема по сравнению с B200. Это критически важно для современных Mixture of Experts (MoE) моделей, где объем памяти является главным бутылочным горлышком.

NVIDIA B300 Ultra 288 GB
NVIDIA B200 192 GB
NVIDIA H100 80 GB

*Больше памяти = меньше GPU нужно для запуска одной модели = ниже латентность интерконнекта.

Вместимость моделей (LLM)

Модель (FP8)B200 (192GB)B300 (288GB)
Llama 3 400B+Требуется 4x GPUВлезает в 2x GPU!
Grok-1 (314B)Сложный шардингОптимальный фит
KV-Cache (Context)Стандартный+50% длины контекста

Для самых тяжелых задач

Massive MoE Inference

Запуск гигантских моделей (Grok-1, GPT-4 class) с минимальным количеством GPU благодаря 288 ГБ памяти.

Long Context RAG

Обработка миллионов токенов контекста в оперативной памяти без баттлнеков.

Training Checkpoints

Моментальное сохранение чекпоинтов огромных моделей при обучении кластерами.

Максимальная плотность вычислений

B300 Ultra доступен для предзаказа и аренды в конфигурациях HGX (8x GPU). Ускорьте ваш AI пайплайн уже сегодня.

Запустить B300