Золотой стандарт индустрии ML

NVIDIA A100 80GB

Самая популярная видеокарта для AI. Увеличенный объем памяти HBM2e позволяет работать с моделями, которые не помещаются на A100 40GB.

Спецификации

Архитектура
NVIDIA Ampere
VRAM
80 GB HBM2e
Пропускная способность
2.0 TB/s
FP16 Tensor Core
312 TFLOPS
Интерконнект
NVLink 600 GB/s
Потребление (TDP)
400W (SXM4)

Почему именно 80GB?

Многие путают A100 40GB и 80GB. Разница не только в объеме памяти, но и в её скорости. Версия на 80GB использует более быструю память HBM2e, что дает прирост производительности до 25% в задачах, ограниченных пропускной способностью.

  • Вмещает Llama-3 70B целиком (в 8-bit) на одной карте
  • В 2 раза больше батч-сайз при обучении = быстрее сходимость
  • Идеально для мульти-GPU кластеров (NVLink)

Сравнение версий

ХарактеристикаA100 40GBA100 80GB
Тип памятиHBM2HBM2e (Быстрее)
Пропускная способность1.5 TB/s2.0 TB/s
Max LLM Size (FP16)~20B params~40B params

Оптимальный выбор для

Fine-Tuning LLM

Идеальный баланс памяти для дообучения Llama 3 70B, Mixtral 8x7B без квантования.

Batch Inference

Максимальная пропускная способность для обработки огромных массивов данных в продакшене.

Data Science

Обработка табличных данных (RAPIDS) и графовых нейросетей, требующих большой памяти.

Нужна мощность A100?

Доступны конфигурации 1x, 2x, 4x и 8x GPU. Подключение по InfiniBand для кластеров.

Запустить A100