Context window: почему ChatGPT забывает начало разговора
Вы ведёте долгий разговор с ChatGPT. Обсуждаете проект, даёте инструкции, уточняете детали. А потом спрашиваете что-то из начала — и он отвечает так, будто слышит об этом впервые. Знакомо? Дело в context window — окне контекста.
Что такое контекст
Контекст — это всё, что ChatGPT видит в данный момент:
- 📜 История вашего разговора
- ⚙️ Системные инструкции (если есть)
- 📝 Ваш текущий запрос
Модель не «помнит» прошлые разговоры. Она каждый раз читает весь контекст заново и генерирует ответ.
Но почему ИИ не может запомнить всё?
Проблема: Контекст ограничен. Есть максимальный объём, который модель может обработать за раз.
Context window — это лимит
Context window (окно контекста) — это максимальное количество информации, которое модель может «видеть» одновременно.
Аналогия: Представьте рабочий стол. На нём помещается ограниченное количество бумаг. Когда кладёте новую — старая падает на пол.
ChatGPT работает так же:
- Новые сообщения добавляются в контекст
- Когда лимит достигнут — старые сообщения «выпадают»
- Модель больше не видит то, что выпало
Токены, а не слова
Покажу на конкретных цифрах.
Контекст измеряется в токенах, а не в словах.
Токен — это кусочек текста. Примерно:
- 1 токен ≈ 4 символа на английском
- 1 токен ≈ 1-2 символа на русском (русский «дороже»!)
Пример:
"Привет, как дела?" = примерно 7-8 токенов
Аналогия: Токены — как слоги. Модель считает не словами, а кусочками.
Размеры окон у разных моделей
| Модель | Context window | Примерно слов |
|--------|---------------|---------------|
| GPT-3.5 | 16K токенов | ~12 000 слов |
| GPT-4 | 128K токенов | ~96 000 слов |
| Claude 3 | 200K токенов | ~150 000 слов |
| Gemini 1.5 Pro | 1M токенов | ~750 000 слов |
128K токенов — это примерно небольшая книга.
1 миллион токенов — это уже несколько книг!
Что происходит при переполнении
Когда контекст переполняется:
- Старые сообщения обрезаются — модель их больше не видит
- Середина может исчезнуть — некоторые модели обрезают не начало, а середину
- Инструкции забываются — если системный промпт в начале, он может «выпасть»
Аналогия: Стол завален — старые бумаги падают на пол. Вы о них забыли, потому что не видите.
Как понять, что контекст переполнен
Признаки:
- 🤔 Модель «забыла» то, что вы обсуждали раньше
- 🔄 Повторяет то, что уже говорила
- ❌ Не следует инструкциям из начала разговора
- 📉 Качество ответов упало
Лайфхаки: как справляться
А теперь главное — как с этим справляться:
1. 🆕 Начинайте новый чат
Не тяните один разговор бесконечно. Для новой темы — новый чат.
2. 📋 Повторяйте важное
Если что-то критично — повторите в последнем сообщении.
3. 📝 Используйте резюме
Попросите ChatGPT кратко изложить договорённости, а потом используйте это резюме.
4. 🎯 Будьте лаконичны
Чем короче ваши сообщения, тем больше полезного поместится в контекст.
5. 📊 Следите за счётчиком
В некоторых интерфейсах показывается использование токенов.
📖 Словарик
- Context window — максимальный объём информации, который модель может обработать за раз
- Токен — единица измерения текста (примерно 4 символа на английском)
- Переполнение контекста — когда новые сообщения вытесняют старые
- Системный промпт — скрытые инструкции для модели
📅 Актуально на: январь 2026
А вы сталкивались с тем, что ChatGPT забывал важное из начала разговора? Как решали? Делитесь лайфхаками!
Если статья была полезной — подписывайтесь, будет ещё много интересного!
Похожие новости
Нейросети заберут работу! Они уже умнее нас! Скоро восстание машин! — знакомые страшилки? Разбираю 5 главных мифов об ИИ и объясняю, как оно на самом деле.
Оказывается, вежливость с нейросетью — это не глупость. Объясняю, почему «пожалуйста» и «спасибо» реально улучшают ответы, и даю 5 простых правил.
GPT-5, Gemini 3, Claude 4.5 — мультимодальные ИИ понимают текст, картинки, голос и видео одновременно. Объясняю, как это работает и почему 2025 стал годом прорыва.
Пока нет комментариев.