03-12-2026 · ai/free-information.md

Информация стала бесплатной

Информация почти ничего не стоит. Вопрос, который раньше требовал похода в библиотеку или часа в Google, сейчас решается за тридцать секунд. Звучит как победа. Но я всё чаще думаю, что не все понимают, чем мы за нее платим.

Когда ты гуглил что-то раньше, ты хотя бы видел, кто говорит. Статья в Wikipedia — есть ссылки, есть авторы, есть правки, и да, там тоже было оценочное мнение конкретного редактора, но это хотя бы было видно на фоне источников. Публикация в журнале — есть редакция. Форум — есть конкретный человек с конкретной историей. Ты мог оценить источник, мог не согласиться, мог сказать: «это предвзятый взгляд, у него своя повестка».

Теперь всё это растворилось в одном ровном, уверенном, хорошо написанном ответе.

Вот в чём проблема. Языковые модели обучаются не просто на текстах — они обучаются на предпочтениях людей. RLHF, или обучение с подкреплением на основе человеческой обратной связи, буквально оптимизирует модель под то, что нравится аудитории, что звучит убедительно, что не вызывает возражений. Это инструмент, который сделал модели удобными — и одновременно встроил в них чужие представления о том, каким должен быть правильный ответ. Чьи именно представления — вопрос открытый. Но точно не нейтральные.

И вот ты спрашиваешь: «Неужели в Иране всё так плохо с режимом?» — и уже в формулировке вопроса зашита оценка, навязанная тебе годами определённой медиаповестки. Модель это чувствует. Она отвечает в том же ключе. Ты получаешь ответ, который укрепляет позицию, которая никогда не была твоей — а через неделю, благодаря особенностям человеческой памяти, ты уже не помнишь ни откуда она взялась, ни кто её сформулировал. Ты просто «так считаешь».

Это не теория заговора. Это механика.

Я замечаю это на себе. Я всё чаще доверяю трактовке модели больше, чем трактовке автора из книги. И у этого есть рациональное объяснение, которое легко принять за правду: при формировании обучающих датасетов в них попадает не только сама книга, но и рецензии на неё, критические статьи, обсуждения в интернете, академические споры. То есть модель как будто агрегирует не одну точку зрения, а сразу много — и ответ кажется более всесторонним. Это соблазнительная логика. Но в ней есть ловушка: модель всё равно может чего-то не знать. И даже поиск по интернету — надстройка, которую часто добавляют сервисы поверх — не всегда спасает. Модель может ответить по-своему из-за собственных предубеждений или просто проигнорировать результаты поиска, если они плохо легли в контекст. Я сам сталкивался с этим, когда пытался объяснить модели, что она называет неверную версию библиотеки или языковую модель, выпущенную после её даты обучения (cut-off) — и даже давал прямые ссылки. Она выслушивала, соглашалась — и через два сообщения возвращалась к старому ответу. Это не баг поведения, это особенность того, как модель вообще устроена.

И поверх этого — ещё один слой. Модели не врут — это некорректное слово для того, что происходит. Но правда ещё более неудобная: они галлюцинируют, и делают это уверенно. Есть конкретный способ это измерить. Hallucination Rate в бенчмарке AA-Omniscience считается так: берутся все случаи, когда модель не дала правильного ответа — и измеряется, в какой доле из них она всё равно что-то ответила вместо того, чтобы признать незнание. Иными словами: если модель не знает — как часто она врёт вместо того, чтобы промолчать? Лучший результат в индустрии на сегодня — около трети. Это значит: каждый третий раз, когда frontier-модель не знает ответа, она предпочитает солгать, а не сказать «не знаю». И это лучшее, чего удалось достичь. Большинство моделей — хуже. При этом ответ звучит так же уверенно, связно и в нужном тоне — вне зависимости от того, правда это или нет.

А классическая поисковая выдача хотя бы давала тебе десять противоречивых источников, и ты видел, что вопрос неоднозначный. Модель выдаёт один ответ, в котором нет швов. Нет видимой неуверенности. Нет «а вот другая точка зрения». Просто ответ — гладкий и законченный.

Есть ли выход из этой архитектурной проблемы? Возможно. Янн ЛеКун — один из отцов-основателей современного глубокого обучения, лауреат премии Тьюринга — покинул Meta и основал AMI Labs, которая в марте 2026 года привлекла больше миллиарда долларов. Лаборатория работает над world models — моделями, которые учатся у реального мира, а не только у языка. В основе лежит JEPA, Joint Embedding Predictive Architecture, предложенная ЛеКуном ещё в 2022 году. Идея в том, что модель, которая понимает мир через структуру и причинно-следственные связи, а не через предсказание следующего токена, будет меньше галлюцинировать — потому что её ошибки будут иметь другую природу. Но, как честно признают сами основатели, до коммерческих применений — годы.

Пока это дело будущего, нам всё равно нужно как-то жить с тем, что уже есть. И здесь меня удивляет одно: институты образования до сих пор воюют с ChatGPT вместо того, чтобы учить людей с ним работать. Не слепо доверять — именно работать. Понимать, что у ответа есть источник, у источника есть позиция, у позиции есть контекст. И что вопрос, заданный с предубеждением, вернётся с ответом, в котором это предубеждение уже стало фактом.

Или вот NotebookLM. Это не просто удобный инструмент — это то, как должно было выглядеть образование всегда. Ты загружаешь материал сам. Ты задаёшь вопросы в своём темпе. Ты трансформируешь текст до тех пор, пока он наконец не становится понятным. Строишь свою коллекцию знаний, к которой можно вернуться и спросить что-то новое.

Я иногда думаю про себя в школе — как я учил историю перед очередной контрольной. Не понимал, а именно учил: зубрил даты, имена, формулировки из учебника, написанного методически верным, но совершенно мёртвым языком. Никакого контекста, никакого «почему», никакого ощущения, что за этим стоят живые люди и реальные решения. Просто параграфы, которые нужно было воспроизвести. Если бы тогда у меня был инструмент, который мог бы объяснить то же самое в том формате, который мне запомнится — через аналогии, через вопросы, через связи с тем, что мне уже было интересно — это была бы другая история. Буквально.

Но только при одном условии: если ты понимаешь, с чем работаешь. Если ты не забываешь, что у инструмента есть своя точка зрения. Что твои предубеждения и его предубеждения — это два разных взгляда, которые очень легко принять за один.

Информация стала бесплатной. Умение с ней работать — никогда не было дешёвым.