Золотой стандарт индустрии ML
NVIDIA A100 80GB
Самая популярная видеокарта для AI. Увеличенный объем памяти HBM2e позволяет работать с моделями, которые не помещаются на A100 40GB.
~180.49 ₽ / час
Спецификации
Архитектура
NVIDIA Ampere
VRAM
80 GB HBM2e
Пропускная способность
2.0 TB/s
FP16 Tensor Core
312 TFLOPS
Интерконнект
NVLink 600 GB/s
Потребление (TDP)
400W (SXM4)
Почему именно 80GB?
Многие путают A100 40GB и 80GB. Разница не только в объеме памяти, но и в её скорости. Версия на 80GB использует более быструю память HBM2e, что дает прирост производительности до 25% в задачах, ограниченных пропускной способностью.
- Вмещает Llama-3 70B целиком (в 8-bit) на одной карте
- В 2 раза больше батч-сайз при обучении = быстрее сходимость
- Идеально для мульти-GPU кластеров (NVLink)
Сравнение версий
| Характеристика | A100 40GB | A100 80GB |
|---|---|---|
| Тип памяти | HBM2 | HBM2e (Быстрее) |
| Пропускная способность | 1.5 TB/s | 2.0 TB/s |
| Max LLM Size (FP16) | ~20B params | ~40B params |
Оптимальный выбор для
Fine-Tuning LLM
Идеальный баланс памяти для дообучения Llama 3 70B, Mixtral 8x7B без квантования.
Batch Inference
Максимальная пропускная способность для обработки огромных массивов данных в продакшене.
Data Science
Обработка табличных данных (RAPIDS) и графовых нейросетей, требующих большой памяти.
Нужна мощность A100?
Доступны конфигурации 1x, 2x, 4x и 8x GPU. Подключение по InfiniBand для кластеров.
Запустить A100