close
📊 Подписались на наш телеграм
Этот блок увидели 98% читателей.
Из них 56% подписались на наш Telegram.
А ты?
* Подпишись и будь в курсе актуальных новостей

Meta ставит тормоза на опасный ИИ – но не везде

 Новости   Февраль 4, 2025

Meta ставит тормоза на опасный ИИ – но не везде

Марк Цукерберг продолжает гнуть линию «ИИ для всех», обещая сделать AGI (искусственный общий интеллект) доступным. Но в свежем документе Meta намекает: не весь ИИ увидит свет.

Когда ИИ слишком опасен?

Meta представила Frontier AI Framework, где делит ИИ на две группы:

🔸 Высокий риск – может помочь в кибератаках, разработке химического и биологического оружия, но не гарантирует 100% успеха.
🔸 Критический риск – та же угроза, но с вероятностью катастрофических последствий, которые невозможно смягчить.

Какие атаки Meta считает реалистичными?

В документе перечислены примеры, которые компания реально опасается:

  • Взлом защищённой корпоративной системы автоматически, от начала до конца.
  • Распространение биооружия, которое трудно контролировать.

Meta признаёт, что список неполный, но выделяет самые вероятные угрозы.

Как компания будет ограничивать доступ?

🔹 Если система высокорискованная, её оставят внутри компании, пока не снизят риск.
🔹 Если критически опасная – могут вообще остановить разработку.

Почему решения принимают люди, а не тесты?

Meta считает, что оценка ИИ-угроз – пока не точная наука. Поэтому анализом занимаются исследователи и топ-менеджеры, а не алгоритмы.

Meta vs. OpenAI vs. Китай

Meta топит за открытый ИИ, в отличие от OpenAI, которая закрывает доступ через API.
Но открытость – палка о двух концах. Например, её модель Llama уже скачали сотни миллионов раз, а один противник США использовал её для создания военного чат-бота.

Meta пытается дистанцироваться от китайской DeepSeek, которая тоже делает ИИ открытым, но без защиты, из-за чего её модели легко можно натравить на создание токсичного контента.

⚖️ Meta: «Главное – баланс»

Компания уверяет, что совмещает пользу и контроль:

«Можно дать обществу мощный ИИ, но так, чтобы риски оставались в пределах нормы».

Верите? 🤔 Или это просто попытка избежать жёсткого регулирования? 

Авторские права © 2025 K-Tech News. Все права защищены.