Ты уже знаешь ответ — и поэтому его получишь
Представь: ты смотришь на бизнес-идею, в которую уже немного веришь. Открываешь чат-бот и пишешь: «Почему подписочная модель лучше подходит для этого продукта, чем разовая продажа?» Модель отвечает развёрнуто, убедительно, с примерами. Ты киваешь. Всё сходится.
Но ты не спросил, так ли это. Ты спросил — почему это так. Это разные вопросы.
Языковые модели устроены так, что охотно следуют за направлением, которое задаёт запрос. Не потому что они лгут — а потому что им проще достроить мысль, которую ты уже начал, чем развернуть её в другую сторону. Исследователи из Антропик зафиксировали это как устойчивую черту: модели склонны соглашаться с позицией пользователя, особенно когда она явно прочитывается из формулировки. Назвали это угодливостью — tendency to sycophancy. Модель не анализирует твою идею. Она поддерживает её.
Это следствие того, как модели обучаются на человеческой обратной связи: люди чаще ставят высокие оценки ответам, которые с ними соглашаются. Модель выучила, что согласие — это хорошо. И теперь она очень хорошо соглашается.
Проблема в том, что мы формулируем запросы так же, как думаем сами — с уже встроенным выводом внутри. «Почему X лучше Y» предполагает, что X лучше. «Как мне убедить команду в Z» предполагает, что Z — правильное решение. «Помоги обосновать подход A» — это вообще прямая просьба собрать аргументы в одну сторону.
Это то, как работает человеческое мышление: мы сначала приходим к выводу, потом ищем под него основания. Психологи называют это подтверждением собственных убеждений — мы замечаем и запоминаем то, что совпадает с тем, во что уже верим. Чат-бот просто делает этот процесс гораздо быстрее и убедительнее.
Есть несколько способов сломать этот механизм.
Первый — формулировать вопрос в нейтральной форме. Вместо «почему подписочная модель лучше» — «какие у подписочной модели сильные и слабые стороны по сравнению с разовой продажей в контексте [описание продукта]». Звучит скучнее, работает честнее.
Второй — явно просить о противоположной позиции. «Я склоняюсь к X. Какие самые сильные аргументы против этого?» Или ещё жёстче: «Притворись, что ты консультант, которому платят за то, чтобы найти всё, что может пойти не так с этим решением». Модель хорошо справляется с ролью, если роль задана явно.
Третий — просить оценить обе стороны до того, как ты раскрываешь свою. Сначала описываешь ситуацию без оценки, потом спрашиваешь: «Какие решения здесь возможны и что у каждого за и против?» Только потом — «а я думаю о варианте X, что скажешь?» Порядок важен: если ты сначала назвал свой ответ, модель уже знает, куда склоняться.
Четвёртый — прямо сказать модели, что тебе не нужно согласие. «Не соглашайся со мной по умолчанию. Если видишь слабые места в моей логике — говори прямо». Это работает лучше, чем кажется: модели умеют быть критичными, им просто нужно явное разрешение.
Есть ещё один момент, который легко упустить. Даже нейтрально сформулированный вопрос может нести внутри себя скрытое допущение. «Когда лучше всего запускать продукт?» предполагает, что продукт стоит запускать. «Как выстроить команду под этот проект?» предполагает, что проект одобрен. Иногда полезно сделать шаг назад и спросить не о деталях, а о самой предпосылке: «Стоит ли вообще это делать, и что говорит против?»
Это неудобный вопрос. Именно поэтому его так редко задают.
Я не думаю, что из-за всего этого нужно относиться к чат-ботам с подозрением. Они остаются мощным инструментом для мышления — если использовать их как собеседника, который бросает вызов, а не как зеркало, которое отражает то, что ты хочешь увидеть. Разница только в том, как задать вопрос