Новости Февраль 4, 2025
Марк Цукерберг продолжает гнуть линию «ИИ для всех», обещая сделать AGI (искусственный общий интеллект) доступным. Но в свежем документе Meta намекает: не весь ИИ увидит свет.
Meta представила Frontier AI Framework, где делит ИИ на две группы:
🔸 Высокий риск – может помочь в кибератаках, разработке химического и биологического оружия, но не гарантирует 100% успеха.
🔸 Критический риск – та же угроза, но с вероятностью катастрофических последствий, которые невозможно смягчить.
В документе перечислены примеры, которые компания реально опасается:
Meta признаёт, что список неполный, но выделяет самые вероятные угрозы.
🔹 Если система высокорискованная, её оставят внутри компании, пока не снизят риск.
🔹 Если критически опасная – могут вообще остановить разработку.
Meta считает, что оценка ИИ-угроз – пока не точная наука. Поэтому анализом занимаются исследователи и топ-менеджеры, а не алгоритмы.
Meta топит за открытый ИИ, в отличие от OpenAI, которая закрывает доступ через API.
Но открытость – палка о двух концах. Например, её модель Llama уже скачали сотни миллионов раз, а один противник США использовал её для создания военного чат-бота.
Meta пытается дистанцироваться от китайской DeepSeek, которая тоже делает ИИ открытым, но без защиты, из-за чего её модели легко можно натравить на создание токсичного контента.
Компания уверяет, что совмещает пользу и контроль:
«Можно дать обществу мощный ИИ, но так, чтобы риски оставались в пределах нормы».
Верите? 🤔 Или это просто попытка избежать жёсткого регулирования?