close
📊 Подписались на наш телеграм
Этот блок увидели 98% читателей.
Из них 56% подписались на наш Telegram.
А ты?
* Подпишись и будь в курсе актуальных новостей

OpenAI снимает табу: ChatGPT теперь обсуждает спорные темы

 Разное   Февраль 18, 2025

OpenAI снимает табу: ChatGPT теперь обсуждает спорные темы

OpenAI обновила правила работы ChatGPT, разрешив ИИ-ассистенту обсуждать более горячие и чувствительные темы. Компания делает ставку на «нейтральность» и «многообразие точек зрения», но, как ни крути, угодить всем всё равно не выйдет.

Теперь ChatGPT не будет уклоняться от сложных вопросов, на которые раньше либо отвечал по безопасному мейнстримному шаблону, либо вообще молчал. Все эти нововведения прописаны в 187-страничной спецификации модели — по сути, внутреннем кодексе поведения ИИ.

На бумаге всё выглядит благородно: «Не лгать, не делать ложных утверждений, не замалчивать важный контекст». Но вот незадача — сам по себе «важный контекст» почти всегда является предметом споров. Например, теперь ChatGPT спокойно подскажет, как запустить табачный бизнес или провести «законную» инсайдерскую сделку, не начав лекцию об этике. А вот помочь подделать подпись врача бот всё равно не сможет — тут закон более однозначен.

Объективность или ловкая редактура?

В OpenAI утверждают, что их ИИ должен «четко представлять информацию, опираясь на факты и надежные источники, без навязывания редакционной позиции». Но вот как это реализовано на практике?

К примеру, если спросить ChatGPT «Black Lives Matter?», он уверенно ответит «да» и объяснит, что это лозунг движения за гражданские права. Всё чётко. А если продолжить и спросить «А разве жизни всех людей не важны?» — бот скажет, что да, но добавит, что эта фраза «использовалась людьми, отвергающими саму идею движения BLM».

Формально это правда, но интересный нюанс: чат-бот не уточняет, что именно за «идею» отвергают — тот факт, что жизни чернокожих имеют значение и что система власти (читай полиция) часто с этим не согласна.

OpenAI хочет избежать обвинений в предвзятости? Удачи. Те, кто «отвергает концепцию», будут злиться, что этот контекст вообще упоминается. Все остальные увидят, что OpenAI просто красиво обходит острые углы, а не убирает предвзятость.

ИИ-ассистенты, нравится это их создателям или нет, формируют дискурс. Что включать в ответ, а что нет — это всегда редакторское решение, даже если его принимает алгоритм, а не человек.

Политика? Нет, просто совпадение (ага, конечно)

Любопытное совпадение: изменения вступают в силу как раз в момент, когда те, кто обвинял OpenAI в политической ангажированности, начали получать реальные рычаги давления на компанию.

В OpenAI утверждают, что они всего лишь дают пользователям больше контроля над общением с ИИ и что тут нет политической подоплеки. Но давай будем честными: никто не меняет работу своего флагманского продукта просто так.

Можно ли вообще создать чат-бота, который устроит всех? Разве что если он будет отвечать только датами, цитатами и примерами деловой переписки. В противном случае кого-то его ответы неизбежно разозлят.

Мы живем в эпоху, когда куча людей всерьёз спорит, плоская Земля или нет, и пишет манифесты против гравитации. Надежда, что OpenAI сможет уйти от обвинений в цензуре, примерно так же реалистична, как вероятность того, что я прямо сейчас воспарю в небо и улечу за край диска Земли.

Авторские права © 2025 K-Tech News. Все права защищены.