Дилемма «стены памяти»: гонка вычислительной мощности ИИ запускает глобальный суперцикл памяти.

03.02.2026 В настоящее время основная архитектура глубокого обучения для больших языковых моделей (LLM) — трансформеры — в значительной степени зависит от доступа к памяти для обеспечения вычислительной производительности. Необходимо не только обучение на огромных объемах данных, но и многократное чтение параметров весов и кэшей ключ-значение, используемых при выводе, во время генерации токенов. Когда скорость обработки процессора значительно превышает пропускную способность памяти и возможности передачи данных, значительное количество времени тратится на ожидание загрузки данных из памяти, а не на сами вычисления. Когда производительность системы ограничивается скоростью передачи данных, возникает классическая проблема «преодоления нехватки памяти».В последние годы вычислительная мощность чипов для ИИ, таких как графические процессоры (GPU), росла гораздо быстрее, чем пропускная способность памяти и эффективность передачи данных. Согласно статье «ИИ и стена памяти», вычислительная мощность моделей ИИ утроилась за два года, но пропускная способность памяти увеличилась всего в 1,6 раза, а пропускная способность межсоединений — примерно в 1,4 раза. Большинство вычислений фактически ограничены узкими местами в доступности памяти и эффективности связи, а не самими вычислениями.С точки зрения теоретического моделирования, этот структурный дисбаланс можно объяснить с помощью модели «крыши». Модели глубокого обучения, по сути, состоят из большого количества матричных умножений, а общая вычислительная стоимость обычно рассчитывается в терминах операций с плавающей запятой (FLOPs).По оценкам TrendForce, спрос на HBM вырастет более чем на 130% в годовом исчислении, исходя из объемов поставок чипов для ИИ в 2025 году. Ожидается, что потребление HBM продолжит расти в 2026 году, с ежегодным темпом роста более 70%. Основными факторами роста являются проникновение B300, GB300, R100/R200 и VR100/VR200, а также активное продвижение Google TPU и AWS Trainium для поколения HBM3e.

Источник: https://technews.tw/2026/02/03/llm-ai-memory-wall-global/

Отправьте нам сообщение

Наш адрес

124365 МОСКВА, Г. ЗЕЛЕНОГРАД, УЛ. ЗАВОДСКАЯ, ДОМ 1Б, СТРОЕНИЕ 2

Наш телефон

+7 499-322-4526