Зачем вообще этот словарь?
ИИ-разработчики очень любят бросаться терминами, как будто разговаривают с другими ИИ, а не с людьми. Чтобы читать новости и не чувствовать себя на экзамене по физике, я собрал понятный глоссарий — без заумных формул, но с разъяснениями, которые можно предъявить даже бабушке. Или почти бабушке.
AGI (Artificial General Intelligence)
Когда говорят про AGI, в голове всплывает нечто мифическое — почти как джин из лампы, только вместо трёх желаний он обещает превзойти всех нас в работе.
OpenAI описывает AGI как систему, которая может заменить среднего офисного сотрудника (ну хоть честно). DeepMind добавляет: AGI — это ИИ, способный на всё, что может человек, хотя бы на уровне мышления.
И да — даже сами учёные не могут договориться, что именно это такое. Просто помни: AGI — это не просто бот, это потенциальный «универсальный мозг».
AI-агент
Это уже не просто болтливый чат-бот. AI-агент — это ИИ-система, которая может сделать для тебя рутину: купить билеты, оформить отчёты, даже написать код.
Важно: пока инфраструктура этих агентов строится на ходу, так что обещания — это одно, а реальность — другое. Термин пока размытый, но идея такая: агент — это ИИ, способный сам разобраться с задачами, а не просто ответить на вопрос.
Chain of Thought (цепочка размышлений)
Представь: ты решаешь задачку про куриц и коров. Не сразу считаешь в уме, а записываешь промежуточные шаги. Вот это и есть chain of thought — подход, при котором ИИ сначала «думает вслух», разбивает проблему на этапы и только потом выдаёт ответ.
Медленнее — да. Зато чаще правильно, особенно если задача логическая или из области программирования.
Deep Learning (глубокое обучение)
Это не просто модное словосочетание. Это раздел машинного обучения, где ИИ строится как многослойная нейросеть — как будто вдохновлялись мозгом человека (спойлер: он всё ещё лучше справляется).
Такие модели учатся не по чьим-то правилам, а сами находят закономерности в данных. Но у глубокого обучения есть цена: оно требует кучу данных и мощных видеокарт. Не для слабонервных — и точно не для старых ноутбуков.
Diffusion (диффузия)
Физика из школы возвращается! Только теперь это не про сахар в чае, а про то, как нейросеть сначала разрушает изображение шумом, а потом учится восстанавливать его обратно.
Так работают ИИ-художники вроде Midjourney или DALL·E: сначала всё превращают в шум, потом учатся выуживать оттуда картинку. Почти магия, но с матрицами и формулами.
Distillation (дистилляция)
Не путать с самогоноварением. Здесь это способ «сжать» огромную ИИ-модель в более компактную, но почти такую же умную.
Берётся большая «учительская» модель, и ответы, которые она даёт, используются, чтобы обучить «ученика». Идея: поменьше — но не глупее. Так могли появиться, например, версии GPT Turbo.
Fine-tuning (доточка)
Модель уже обучена, но ты хочешь, чтобы она лучше разбиралась в, скажем, юриспруденции или кулинарии. Тогда её «дотачивают» на нужных данных — это и есть fine-tuning.
Именно так стартапы лепят свои «специализированные» ИИ из базовых моделей, делая их умнее в узкой области.
GAN (генеративно-состязательная сеть)
Это как дуэль между двумя ИИ. Один генерирует картинку, второй пытается распознать подделку. И так — до тех пор, пока первый не научится делать настолько реалистичные штуки, что второй сдаётся.
Так появляются дипфейки и другие впечатляющие, но иногда пугающие штуки.
Hallucination (галлюцинация)
ИИ что-то с уверенностью говорит — а это выдумка. Именно так называется, когда ИИ «галлюцинирует» — придумывает несуществующие факты.
Проблема серьёзная: от выдуманных цитат до фальшивых медсоветов. И это один из главных аргументов за развитие узконаправленных ИИ, которые меньше врут.
Inference (вывод)
Это запуск модели «в бою». Когда она не учится, а уже работает — делает предсказания, отвечает, считает. Без фазы обучения она бы ничего не умела, но именно inference делает ИИ полезным в реальности.
В зависимости от железа, inference может идти за миллисекунды или за вечность — поэтому большие модели чаще гоняют в облаках.
LLM (Large Language Model)
Это сердце всех болтливых ИИ: ChatGPT, Gemini, Claude и прочих. LLM — это огромная нейросеть, натренированная на текстах всего мира.
Она не понимает смыслы, а вычисляет вероятности слов. Но делает это так искусно, что ты можешь забыть, что перед тобой просто математическая формула.
Neural Network (нейросеть)
Это та самая структура, вдохновлённая человеческим мозгом, но из матриц и весов. Нейросети — основа глубокого обучения и генеративных ИИ.
Исторически эта идея старая, но только с появлением мощных GPU они стали по-настоящему эффективными.
Training (обучение)
Модель до обучения — это просто кучка цифр. Обучение превращает её в ИИ: на вход подаётся тонна данных, она ищет закономерности и учится выдавать нужные ответы.
Обучение стоит дорого, требует много данных, энергии и терпения. И нет — это не всегда работает с первого раза.
Transfer Learning (перенос обучения)
Зачем учиться с нуля, если можно взять уже обученную модель и доучить её под свою задачу? Именно так работает transfer learning.
Позволяет сэкономить время и ресурсы, особенно если своих данных мало. Но да — работать это будет только если задачи хоть как-то связаны.
Weights (веса)
Веса — это коэффициенты, которые определяют, на что модель обращает внимание. Сначала они случайные, потом, в процессе обучения, начинают «понимать», что важно, а что нет.
Например, в модели для оценки недвижимости весом может быть число комнат или наличие парковки. Именно веса формируют логику ИИ.