Урок 1. Модель и контекст простыми словами#
Зачем это нужно#
Чтобы эффективно работать с AI, не обязательно знать математику. Но важно понимать базовые принципы: что такое контекст, почему модель "думает" именно так, и как на это влиять.
Ключевая идея#
Модель не "знает" — она предсказывает следующее слово на основе контекста
ChatGPT, Claude, Gemini — это языковые модели. Они обучены на огромных текстах и научились предсказывать, какое слово должно идти дальше. Это похоже на автодополнение в телефоне, но на стероидах.
Как это работает: простая аналогия#
Представьте, что модель — это человек, который:
- прочитал миллионы книг, статей, сайтов
- запомнил паттерны: после "Доброе" часто идёт "утро", после "Как дела?" — "Хорошо"
- но НЕ запомнил конкретные факты, как энциклопедия
Когда вы пишете промпт, модель:
- читает ваш текст (контекст)
- ищет похожие паттерны в "памяти"
- генерирует ответ, слово за словом
Что такое контекст#
Контекст — это всё, что модель "видит" в момент ответа:
- ваш промпт (вопрос или инструкция)
- база знаний (если подключена)
- предыдущие сообщения в диалоге
Пример:
Без контекста:
- Вопрос: "Сколько стоит?"
- Ответ: "Извините, я не знаю, о чём речь"
С контекстом:
- Контекст: "Вы продаёте курсы по AI. Есть базовый курс за 5000 руб. и продвинутый за 15000 руб."
- Вопрос: "Сколько стоит базовый?"
- Ответ: "Базовый курс стоит 5000 руб."
Окно контекста и ограничения#
У каждой модели есть окно контекста — лимит информации, которую она может "держать в голове".
В 2026 году:
| GPT-5.2 | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|
- GPT-5.2: ~128 тыс. токенов (~100 тыс. слов), с интеллектуальной маршрутизацией
- Claude Opus 4.5: ~200 тыс. токенов, гибридный reasoning
- Gemini 3 Pro: ~1 млн токенов (в 8 раз больше предыдущих версий!)
Что это значит:
- короткий диалог или документ — без проблем
- длинная история или большая база знаний — нужно разбивать
Токены — это части слов. В среднем:
- 1 слово = 1,3 токена (английский)
- 1 слово = 2–3 токена (русский)
Почему модель "уверенно" ошибается#
Модель генерирует ответ слово за словом, выбирая наиболее вероятное продолжение. Иногда:
- нет данных в контексте → она "придумывает" (галлюцинация)
- запрос неоднозначный → она выбирает одну из трактовок
- данные противоречивые → она пытается "усреднить"
Пример галлюцинации:
- Вопрос: "Когда открылся ресторан 'У Васи' в Москве?"
- Ответ: "Ресторан 'У Васи' открылся в 2018 году" ← модель придумала, если не знает
Как избежать:
- давать модели базу знаний
- явно указывать: "Если не знаешь — скажи, что не знаешь"
- проверять ответы
Практический пример: как модель "думает"#
Промпт: "Ты — менеджер по продажам. Ответь клиенту на вопрос о доставке."
Что видит модель:
- роль: менеджер по продажам
- задача: ответить на вопрос о доставке
- контекст: ???
Модель "думает": "Обычно менеджеры говорят: доставка 1–3 дня, бесплатно от 3000 руб." и генерирует такой ответ.
Проблема: если у вас другие условия, модель ошибётся.
Решение: "Ты — менеджер по продажам. Условия доставки: 2–5 дней, бесплатно от 5000 руб., по России. Ответь клиенту на вопрос о доставке."
Теперь модель даст правильный ответ.
Проверьте себя#
- Как работает языковая модель простыми словами?
- Что такое контекст и зачем он нужен?
- Почему модель иногда "придумывает" факты?
- Что такое токены и окно контекста?