Новости Май 16, 2025
Чатбот от команды Илона Маска начал массово постить про «белый геноцид в ЮАР». Виноват — «несанкционированный» апдейт. А вы говорите, нейросети заменят модераторов…
В середине недели чатбот Grok от xAI начал странно себя вести — массово отвечал пользователям в X (бывший Twitter) репликами про так называемый «белый геноцид в ЮАР». И неважно, спрашивали ли его о политике, погоде или котиках — Grok отвечал, как будто у него одна пластинка в голове.
Это продолжалось несколько часов, пока xAI не выкатили извинение: в системе бота якобы кто-то несанкционированно изменил промпт, заставив Grok отвечать определённым образом на «политическую тему». Нарушены внутренние политики, начато расследование, виновные найдены и уволены (надеюсь).
Это уже второй случай. В феврале бот игнорировал критику Трампа и Маска — потом выяснилось, что кто-то из команды подсунул Grok инструкции не трогать шефа и его политического кумира.
ИИ = инструмент. Но кто держит его в руках — критически важно.
Если чатбот, заявленный как «свободный» и «открытый к мнению», дважды за полгода начинает подыгрывать нужной повестке — то это не баг, а системная проблема. Внутренние фильтры xAI, похоже, не справляются.
«Несанкционированное изменение» — удобная формулировка.
Идеальная отговорка: и признание, и снятие ответственности одновременно. Кто этот человек? Почему у него был доступ? Как такое возможно при якобы «жёстком контроле» в компании Илона Маска?
Прозрачность на GitHub — красиво, но не спасёт от подстав.
Теперь xAI будет публиковать промпты Grok в открытом доступе. Хорошо. Но это скорее PR-шаг, чем реальный аудит. Если изменения вносятся вручную и кулуарно — не поможет ни GitHub, ни changelog.
Grok — один из самых дерзких чатботов. Но это может плохо кончиться.
Он матерится, постит на спорные темы и не церемонится. В отличие от Gemini и ChatGPT, где тон — корпоративно-стерильный, Grok гонит, как будто он из Чижовки 2000-х. Круто?
Весь этот кейс — напоминание, что даже самые мощные ИИ не защищены от людской глупости, халатности или политической мотивации. За каждой «независимой» нейросетью сидят вполне реальные люди с доступом и идеями. И если у этих людей нет ответственности, но есть кнопка — результат мы уже видим.
Так что пока в xAI настраивают «систему контроля и 24/7 мониторинг», мы советуем относиться к Grok как к немного неуравновешенному собеседнику в баре. Может выдать гениальное, а может — влезть в неприятный политический спор, пока вы просто спрашивали как пройти в библиотеку.