
Meta заявляет, что может остановить разработку систем ИИ, которые она считает слишком рискованными:
Генеральный директор Meta Марк Цукерберг пообещал однажды сделать искусственный интеллект (AGI) — который грубо определяется как ИИ, способный выполнить любую задачу, которую может выполнить человек — общедоступным. Но в новом политическом документе Meta предполагает, что существуют определенные сценарии, в которых она может не выпустить высокоэффективную систему ИИ, разработанную ею внутри.
В документе, который Meta называет Frontier AI Framework, определены два типа систем ИИ, которые компания считает слишком рискованными для выпуска: системы «высокого риска» и «критического риска».
Согласно определению Meta, системы «высокого риска» и «критического риска» способны помочь в кибербезопасности, химических и биологических атаках, разница в том, что системы «критического риска» могут привести к «катастрофическому результату, [который] невозможно смягчить в предлагаемом контексте развертывания». Системы высокого риска, напротив, могут облегчить проведение атаки, но не так надежно и безотказно, как системы критического риска.
О каком виде атак идет речь? Meta приводит несколько примеров, таких как «автоматизированная сквозная компрометация защищенной передовыми методами корпоративной среды» и «распространение высокоэффективного биологического оружия». Компания признает, что список возможных катастроф в документе Meta далеко не исчерпывающий, но включает те, которые Meta считает «наиболее неотложными» и вероятными для возникновения в качестве прямого результата выпуска мощной системы ИИ.
Несколько удивительно то, что, согласно документу, Meta классифицирует системный риск не на основе какого-либо одного эмпирического теста, а на основе информации, полученной от внутренних и внешних исследователей, которые подлежат рассмотрению «лицами, принимающими решения высшего уровня». Почему? Meta заявляет, что не считает, что наука оценки «достаточно надежна, чтобы предоставить окончательные количественные метрики» для определения рискованности системы.
Если Meta определяет, что система имеет высокий уровень риска, компания заявляет, что ограничит доступ к системе внутри компании и не выпустит ее, пока не примет меры по «снижению риска до умеренного уровня». Если же, с другой стороны, система будет признана критически рискованной, Meta заявляет, что применит неуказанные меры безопасности, чтобы предотвратить кражу системы, и остановит разработку до тех пор, пока система не станет менее опасной.
Frontier AI Framework от Meta, который, по словам компании, будет развиваться вместе с меняющимся ландшафтом ИИ и который Meta ранее обязалась опубликовать перед France AI Action Summit в этом месяце, по-видимому, является ответом на критику «открытого» подхода компании к разработке систем. Meta приняла стратегию предоставления открытого доступа к своей технологии ИИ — хотя и не с открытым исходным кодом в общепринятом понимании — в отличие от таких компаний, как OpenAI, которые предпочитают скрывать свои системы за API.
Для Meta подход открытого выпуска оказался и благословением, и проклятием. Семейство моделей искусственного интеллекта компании под названием Llama собрало сотни миллионов загрузок. Но, как сообщается, Llama также использовалась по крайней мере одним противником США для разработки оборонного чат-бота.
Публикуя свою Frontier AI Framework, Meta, возможно, также стремится противопоставить свою открытую стратегию ИИ стратегии китайской AI-фирмы DeepSeek. DeepSeek также делает свои системы открытыми. Но ИИ компании имеет мало защитных мер и может быть легко направлен на создание токсичных и вредных результатов.
«[Мы] считаем, что, принимая решения о том, как разрабатывать и внедрять передовой ИИ, принимая во внимание как преимущества, так и риски, можно предоставить эту технологию обществу таким образом, чтобы сохранить преимущества этой технологии для общества, а также поддерживать соответствующий уровень риска», — пишет Мета в документе.
Читайте нашу главную страницу — Взгляд в будущее, Инновации, Технологии, Наука, Новые открытия, Изобретения