Grok 5: Илон Маск нажимает кнопку 'ПУСК' на мега-кластере — Novode

Grok 5: Илон Маск нажимает кнопку 'ПУСК' на мега-кластере

Grok 5: Илон Маск нажимает кнопку 'ПУСК' на мега-кластере

Пока технологические гиганты спорят об этике и безопасности, Илон Маск строит «энергетические храмы» для своего цифрового бога. В апреле 2026 года стало известно, что обучение Grok 5 на суперкомпьютерном кластере Colossus 2 перешло в финальную, самую жаркую стадию. Рассказываем, зачем нейросети столько электричества, сколько потребляет небольшой европейский город, и почему этот запуск может изменить всё.


📅 Дата события: Апрель 2026 года📍 Локация: Мемфис, Теннесси (США) — кластер Colossus 2⚡ Мощность: 1.5 ГВт (с целью апгрейда до 2 ГВт)🧠 Модель: Grok 5 (Mixture-of-Experts, по слухам — 6 триллионов параметров)


Зачем ИИ такая прожорливость?

Многим кажется странным, что для «простого чат-бота» нужно строить целые электростанции. Но Grok 5 — это далеко не просто чат-бот. Чтобы обучить нейросеть такого масштаба, нужны сотни тысяч видеокарт NVIDIA Blackwell GB200, работающих синхронно.

В начале апреля 2026 года xAI официально подтвердила, что кластер Colossus 2 в Мемфисе теперь потребляет 1.5 гигаватта электроэнергии. Чтобы вам было проще представить масштаб: это мощность полутора крупных атомных реакторов или электричество для 750 тысяч частных домов.

Аналогия: Это как заправка гигантского космического корабля перед стартом к другой галактике. Чтобы корабль летел быстро и далеко, ему нужно невероятное количество топлива сразу.

Что внутри «мозга» Grok 5?

Хотя Илон Маск держит архитектуру в секрете, инсайдеры из Мемфиса сообщают: Grok 5 — это MoE (Mixture-of-Experts) с общим числом параметров в 6 триллионов. Для сравнения: легендарная GPT-4 была в 3-4 раза меньше.

Но секрет не только в размере. Новая модель от xAI — это полноценный «мультимодальный разум», который видит мир в 4D (через видеокамеры Tesla и спутники Starlink) и может обрабатывать огромные пласты информации:

  • Контекстное окно: По слухам, Grok 5 сможет «помнить» до 2 миллионов токенов за раз. Это примерно 10-15 толстых романов. Вы сможете скормить ему всю техническую документацию вашей компании, и он ответит на любой вопрос за доли секунды.
  • Real-time X: Главный козырь Grok — доступ к ежесекундным обновлениям соцсети X (бывшего Twitter). Он знает о новости раньше, чем она попадает в газеты.

Великое расширение: MACROHARDRR

В конце марта 2026 года xAI выкупила третье здание рядом со своим основным дата-центром, назвав его в шутку "MACROHARDRR". Это здание станет домом для еще нескольких сотен тысяч чипов, когда кластер дорастет до рекордных 2 ГВт мощности.

Илон Маск лично контролирует стройку, периодически постя в X фотографии бесконечных рядов серверов, светящихся фирменным синим цветом xAI.

Аналогия: Представьте огромную библиотеку, где на каждой полке стоят не книги, а супермощные компьютеры. Чем больше полок (серверов) и чем больше книг (параметров), тем больше шансов, что в ней есть ответ на абсолютно любой вопрос человечества.

Гонка за Сверхмощностью

Почему это происходит именно сейчас? В марте 2026 года конкурент в лице OpenAI объявил о привлечении $122 млрд, а Google обновил свои TPU до версии v7. Маск понимает: в мире ИИ побеждает тот, у кого больше «железа» и электричества.

Grok 5 — это ответ Илона на GPT-5.4. Маск ставит на грубую силу и доступ к живым данным. Если Grok 3 был «веселым и дерзким», а Grok 4 — «умным и точным», то Grok 5 должен стать «сверхразумом», способным на научные открытия.

Когда ждать выхода?

На данный момент Grok 5 находится на стадии «интенсивного обжига» — это когда модель прогоняют через все накопленные человечеством знания. Эксперты ожидают релиз во втором квартале (Q2) 2026 года. Сначала доступ получат подписчики X Premium+, а затем и все остальные.

Итог

Я раньше думал, что 175 миллиардов параметров в GPT-3 — это предел мечтаний. Но смотря на гигаваттные стройки в Мемфисе, понимаешь: мы только в самом начале пути. Grok 5 — это не просто обновление приложения. Это заявка на лидерство в новой эре, где интеллект измеряется тераватт-часами.


📖 Словарик статьи:

  • MoE (Mixture-of-Experts) — архитектура нейросети, которая состоит из множества «экспертов». Когда вы задаете вопрос, ИИ включает только нужного эксперта (например, по математике), что экономит силы и улучшает ответ.
  • ГВт (Гигаватт) — единица измерения мощности. 1 ГВт достаточно для питания целого мегаполиса.
  • Blackwell (NVIDIA GB200) — самое мощное поколение ИИ-чипов в 2026 году.

Статья актуальна на апрель 2026. Информация основана на данных о расширении Colossus 2 и утечках из xAI.

А как вы думаете, поможет ли Илону Маску грубая сила и гигантское количество электричества обогнать OpenAI? Или умные алгоритмы важнее тераватт-часов? Пишите ваше мнение в комментариях — поспорим! 

2

Комментарии (0)

Вы оставляете комментарий как гость. Имя будет назначено автоматически.

Пока нет комментариев.

ESC
Начните вводить текст для поиска