Модуль 02Урок 1

Урок 1. Модель и контекст простыми словами

Теория

Урок 1. Модель и контекст простыми словами#

Как работает языковая модель
Как работает языковая модель

Зачем это нужно#

Чтобы эффективно работать с AI, не обязательно знать математику. Но важно понимать базовые принципы: что такое контекст, почему модель "думает" именно так, и как на это влиять.

Ключевая идея#

Модель не "знает" — она предсказывает следующее слово на основе контекста

ChatGPT, Claude, Gemini — это языковые модели. Они обучены на огромных текстах и научились предсказывать, какое слово должно идти дальше. Это похоже на автодополнение в телефоне, но на стероидах.

Как это работает: простая аналогия#

Представьте, что модель — это человек, который:

  • прочитал миллионы книг, статей, сайтов
  • запомнил паттерны: после "Доброе" часто идёт "утро", после "Как дела?" — "Хорошо"
  • но НЕ запомнил конкретные факты, как энциклопедия

Когда вы пишете промпт, модель:

  1. читает ваш текст (контекст)
  2. ищет похожие паттерны в "памяти"
  3. генерирует ответ, слово за словом

Что такое контекст#

Контекст — это всё, что модель "видит" в момент ответа:

  • ваш промпт (вопрос или инструкция)
  • база знаний (если подключена)
  • предыдущие сообщения в диалоге

Пример:

Без контекста:

  • Вопрос: "Сколько стоит?"
  • Ответ: "Извините, я не знаю, о чём речь"

С контекстом:

  • Контекст: "Вы продаёте курсы по AI. Есть базовый курс за 5000 руб. и продвинутый за 15000 руб."
  • Вопрос: "Сколько стоит базовый?"
  • Ответ: "Базовый курс стоит 5000 руб."

Окно контекста и ограничения#

У каждой модели есть окно контекста — лимит информации, которую она может "держать в голове".

В 2026 году:

GPT-5.2Claude Opus 4.5Gemini 3 Pro
GPT-5.2
Claude Opus 4.5
Gemini 3 Pro
  • GPT-5.2: ~128 тыс. токенов (~100 тыс. слов), с интеллектуальной маршрутизацией
  • Claude Opus 4.5: ~200 тыс. токенов, гибридный reasoning
  • Gemini 3 Pro: ~1 млн токенов (в 8 раз больше предыдущих версий!)

Что это значит:

  • короткий диалог или документ — без проблем
  • длинная история или большая база знаний — нужно разбивать

Токены — это части слов. В среднем:

  • 1 слово = 1,3 токена (английский)
  • 1 слово = 2–3 токена (русский)

Почему модель "уверенно" ошибается#

Модель генерирует ответ слово за словом, выбирая наиболее вероятное продолжение. Иногда:

  • нет данных в контексте → она "придумывает" (галлюцинация)
  • запрос неоднозначный → она выбирает одну из трактовок
  • данные противоречивые → она пытается "усреднить"

Пример галлюцинации:

  • Вопрос: "Когда открылся ресторан 'У Васи' в Москве?"
  • Ответ: "Ресторан 'У Васи' открылся в 2018 году" ← модель придумала, если не знает

Как избежать:

  • давать модели базу знаний
  • явно указывать: "Если не знаешь — скажи, что не знаешь"
  • проверять ответы

Практический пример: как модель "думает"#

Промпт: "Ты — менеджер по продажам. Ответь клиенту на вопрос о доставке."

Что видит модель:

  1. роль: менеджер по продажам
  2. задача: ответить на вопрос о доставке
  3. контекст: ???

Модель "думает": "Обычно менеджеры говорят: доставка 1–3 дня, бесплатно от 3000 руб." и генерирует такой ответ.

Проблема: если у вас другие условия, модель ошибётся.

Решение: "Ты — менеджер по продажам. Условия доставки: 2–5 дней, бесплатно от 5000 руб., по России. Ответь клиенту на вопрос о доставке."

Теперь модель даст правильный ответ.

Проверьте себя#

  1. Как работает языковая модель простыми словами?
  2. Что такое контекст и зачем он нужен?
  3. Почему модель иногда "придумывает" факты?
  4. Что такое токены и окно контекста?