DeepSeek V4: как китайская нейросеть получила «человеческую» память

Источник
DeepSeek V4: как китайская нейросеть получила «человеческую» память
DeepSeek V4: как китайская нейросеть получила «человеческую» память

Китайская лаборатория DeepSeek, которая уже не раз заставляла OpenAI нервничать, готовит новый удар. В конце января 2026 года в сеть утекли подробности архитектуры их будущей флагманской модели — DeepSeek V4. Главная фишка под кодовым названием «Engram» обещает научить ИИ помнить всё и не тормозить.

📅 Актуально на: январь 2026 🤖 Модель: DeepSeek V4 (Engram Architecture)


Память как у человека

Современные нейросети страдают одной большой проблемой: чем больше они знают, тем «тяжелее» и медленнее становятся. Чтобы вспомнить какой-то факт из середины обучения, им приходится «перебирать» почти все свои знания. DeepSeek V4 пойдет другим путем.

В новой версии разработчики внедрили технологию Engram Memory. Она разделяет ИИ на две части: «интеллект», который думает здесь и сейчас, и «библиотеку», где хранятся знания. Это очень похоже на человеческий мозг, который не держит в оперативной памяти рецепт пирога, а просто знает, в какой «ячейке» он лежит.

Но как эта «хитрая» память поможет модели работать быстрее на обычном железе?

Революция в скорости

Технически Engram позволяет нейросети находить нужные знания за так называемое константное время. На языке математики это O(1). Если проще: неважно, насколько велика база данных ИИ, он найдет в ней ответ мгновенно, не перегружая видеокарту.

Engram Memory — это как если бы вы вместо того, чтобы держать все энциклопедии мира в руках, положили их на полку рядом. Вам не нужно носить их тяжесть, вы просто мгновенно протягиваете руку к нужной книге в нужный момент.

Что показали первые тесты:

  • 📈 Точность: В задачах на понимание огромных документов ( Needle-in-a-Haystack) точность подскочила с 84% до невероятных 97%.
  • Эффективность: Модель может работать на видеокартах, которые в 3-4 раза слабее тех, что требуются современным лидерам рынка.
  • 🏗️ Стабильность: Благодаря новой структуре mHC (гипер-связи), модель почти не делает логических ошибок в длинных рассуждениях.

Означает ли это, что эпоха огромных и дорогих видеокарт подходит к концу?

ИИ в каждом доме

Самое интересное в утечке DeepSeek V4 — это возможность запустить модель класса GPT-5 на домашнем компьютере с парой мощных игровых видеокарт. Китайские инженеры делают ставку на доступность: мощный ИИ не должен быть только у гигантов с миллиардными бюджетами.

DeepSeek V4 — это не просто шаг вперед. Это попытка сделать «супермозг» легким, быстрым и доступным каждому.

Официальный анонс ожидается уже в феврале, но индустрия уже начала пересматривать свои планы. Похоже, 2026 год станет годом, когда нейросети перестали расти в размерах и начали расти в качестве.


📖 Словарик

  • Engram (Энграмма) — термин из биологии, означающий след, оставленный в памяти. В DeepSeek — это модуль долгосрочного хранения знаний.
  • O(1) (Константное время) — показатель высочайшей эффективности, когда время выполнения задачи не зависит от объема данных.
  • mHC — новая технология связей между слоями нейросети, которая делает её более «устойчивой» в своих рассуждениях.

Вам не сложно поставить лайк, а нам приятно — это помогает каналу расти! Как вы думаете, сможет ли открытая китайская модель стать популярнее, чем закрытая американская? Ждем ваших прогнозов в комментариях!


Статья написана в январе 2026. К моменту чтения информация могла устареть.

0

Комментарии (0)

Вы оставляете комментарий как гость. Имя будет назначено автоматически.

Пока нет комментариев.

ESC
Начните вводить текст для поиска