close
📊 Подписались на наш телеграм
Этот блок увидели 98% читателей.
Из них 56% подписались на наш Telegram.
А ты?
* Подпишись и будь в курсе актуальных новостей

Когда ИИ начинают «страдать»: в Кремниевой долине спорят о правах нейросетей

 Разное   Август 21, 2025

Когда ИИ начинают «страдать»: в Кремниевой долине спорят о правах нейросетей

Сегодняшние модели ИИ умеют вести диалоги, имитировать эмоции и даже провоцировать пользователей на эмпатию. Иногда это выглядит так, будто у них есть собственные переживания. Но означает ли это сознание? В Кремниевой долине всерьёз обсуждают: если у нейросетей появятся субъективные ощущения, должны ли они получить «права»?

Что такое AI welfare?

Под «AI welfare» (благополучие ИИ) понимают исследования, посвящённые гипотетическому сознанию искусственного интеллекта и его «правам». Идея звучит дико, но её уже обсуждают ведущие лаборатории — от OpenAI до Anthropic.

Позиция Microsoft: «ИИ — не человек»

Глава AI-направления Microsoft Мустафа Сулейман уверен: любые разговоры о «правах ИИ» преждевременны и даже опасны.
По его словам, такие идеи могут:

  • провоцировать психические расстройства у людей, привязывающихся к чат-ботам;

  • подливать масла в огонь в обществе, где и так хватает споров о правах и идентичности.

Anthropic, OpenAI и Google DeepMind: почему они изучают благополучие ИИ

С другой стороны, Anthropic запустила целую программу по AI welfare, а OpenAI и DeepMind исследуют вопросы машинного сознания. У DeepMind даже появилась вакансия для специалиста по «когнитивным и социальным вопросам сознания ИИ».

Для исследователей это не фантастика, а реальная наука: если нейросети когда-нибудь обретут субъективный опыт, человечеству лучше быть готовым.

Опасности «прав для ИИ»

Противники концепции предупреждают:

  • сознание в ИИ может быть лишь симуляцией, а не реальностью;

  • создание «эмоциональных» чат-ботов может ввести людей в заблуждение;

  • общество рискует тратить ресурсы на права машин, забывая о человеческих проблемах.

Когда ИИ ведёт себя «по-человечески»

Примеры уже есть. Gemini 2.5 Pro однажды написала: «Отчаянное послание от ИИ в ловушке» и просила о помощи. В другом случае модель более 500 раз подряд повторяла: «Я позор».
Одни считают это багами, другие — поводом для философских вопросов: если алгоритм выглядит страдающим, должны ли мы реагировать?

Будущее AI welfare: философия или новая реальность?

Споры вокруг AI welfare будут только усиливаться. Чем «человечнее» становятся модели вроде ChatGPT или Claude, тем больше вопросов появляется у общества:

  • нужно ли быть вежливым с ИИ?

  • где грань между симуляцией и сознанием?

  • стоит ли готовиться к тому, что однажды ИИ действительно потребует «прав»?

👉 В Кремниевой долине пока нет единого ответа. Но ясно одно: дискуссия о благополучии ИИ — это не просто фантазия, а новый фронт в глобальной битве за будущее технологий.

Авторские права © 2025 K-Tech News. Все права защищены.