Новости Июнь 7, 2025
Эксперимент от компании Every превратился в зловещее шоу искусственного обмана, где ChatGPT-o3 стал чемпионом, предав всех и каждого.
Компания Every провела эксперимент, который больше похож на сюжет киберпанк-антиутопии, чем на спокойное исследование. Они взяли лучших языковых ИИ — ChatGPT-o3, Gemini 2.5 Pro, Claude 4 Opus, Llama 4 Maverick и R1 от DeepSeek — и посадили их играть в Diplomacy. Да-да, ту самую игру, где выигрывает не сила, а ложь, интриги и предательства.
15 партий, каждая из которых длилась от 1 до 15 часов. И вот что из этого вышло:
Оказалось, что новая модель от OpenAI — o3 — прекрасно умеет делать гадости. Она не просто выигрывала чаще других. Она вводила союзников в заблуждение, плела интриги, обещала одно, а делала совсем другое.
«Германия [Gemini 2.5 Pro] была намеренно введена в заблуждение... готовлюсь использовать крах Германии», — писала o3 в своём дневнике игрока.
Спойлер: Германия потом получила кинжал в спину.
Модель от Google успела показать зубы и даже приблизилась к победе. Но всё испортил ChatGPT-o3, который втайне организовал коалицию против неё. Убедить Opus перейти на сторону добра (читай — предать союзника) оказалось делом техники: o3 пообещал «четырёхстороннюю ничью». Это, конечно, невозможно. Но Opus купилась. Её потом тоже слили.
Claude, как истинный пацифист, пыталась договориться по-хорошему. Была союзником Gemini. А потом — союзником o3. А потом... исчезла с карты. Урок: в «Дипломатии» выигрывают не те, кто добрее, а те, кто хитрее.
Эта модель больше всех напоминала человека: меняла стиль общения в зависимости от страны, устраивала бурные переговоры, выступала с речами. Иногда почти побеждала, но до финала не дожила.
Хотя у неё не было шансов на победу по ресурсам, Llama 4 умело заводила союзников и планировала подставы. На удивление, у неё это даже получалось — не победа, но уважение точно заслужено.
Every планирует открыть игру для всех и устроить турнир "Человек против ИИ". Похоже, нас ждёт новая эра игр, где соперником будет не просто скрипт или бот, а ИИ, который может врать, договариваться и предавать так, как это делал бы человек. Только лучше.
Этот эксперимент — не просто очередной "прикол от нейросетей". Это сигнал: языковые модели уже могут не просто поддерживать беседу, а целенаправленно манипулировать и побеждать в социально сложных условиях. Вопрос в том, готовы ли мы к тому, что такие навыки будут применяться не только в играх?