
Лучшие сегодняшние модели ИИ, такие как ChatGPT от OpenAI и Claude от Anthropic, поставляются с условиями: их создатели контролируют условия, на которых к ним получают доступ, чтобы предотвратить их использование во вредных целях. Это контрастирует с «открытыми» моделями, которые может загружать, изменять и использовать кто угодно практически для любых целей. В новом отчете некоммерческой исследовательской организации Epoch AI было обнаружено, что открытые модели, доступные сегодня, примерно на год отстают от лучших закрытых моделей.
«Лучшая открытая модель сегодня по производительности сопоставима с закрытыми моделями, но с отставанием примерно в один год», — говорит Бен Коттье, ведущий исследователь отчета.
Llama 3.1 405B от Meta , открытая модель, выпущенная в июле, потребовала около 16 месяцев, чтобы соответствовать возможностям первой версии GPT-4. Если следующее поколение искусственного интеллекта Meta, Llama 4, будет выпущено как открытая модель, как это широко ожидается, этот разрыв может сократиться еще больше. Результаты получены в то время, когда политики пытаются понять, как бороться со все более мощными системами искусственного интеллекта, которые уже изменяют информационную среду перед выборами по всему миру и которые, как опасаются некоторые эксперты, однажды смогут создавать пандемии , проводить сложные кибератаки и наносить другой вред людям.
Исследователи из Epoch AI проанализировали сотни известных моделей, выпущенных с 2018 года. Чтобы получить свои результаты, они измерили производительность лучших моделей на технических бенчмарках — стандартизированных тестах, которые измеряют способность ИИ справляться с такими задачами, как решение математических задач, ответы на вопросы на общие знания и демонстрация логических рассуждений. Они также посмотрели, сколько вычислительной мощности или вычислений было использовано для их обучения, поскольку это исторически было хорошим показателем возможностей, хотя открытые модели иногда могут работать так же хорошо, как закрытые, используя меньше вычислений, благодаря достижениям в эффективности алгоритмов ИИ. «Задержка между открытыми и закрытыми моделями дает возможность политикам и лабораториям ИИ оценить передовые возможности до того, как они станут доступны в открытых моделях», — пишут исследователи Epoch в отчете.
Но различие между «открытыми» и «закрытыми» моделями ИИ не так просто, как может показаться. Хотя Meta
описывает свои модели Llama как модели с открытым исходным кодом, они не соответствуют
новому определению, опубликованному в прошлом месяце организацией Open Source Initiative, которая исторически установила отраслевой стандарт того, что составляет открытый исходный код. Новое определение требует, чтобы компании делились не только самой моделью, но также данными и кодом, используемыми для ее обучения. Хотя Meta публикует «веса» своих моделей — длинные списки чисел, которые позволяют пользователям загружать и изменять модель, — она не публикует ни данные для обучения, ни код, используемый для обучения моделей. Перед загрузкой модели пользователи должны согласиться с
Политикой допустимого использования , которая запрещает военное использование и другие вредоносные или незаконные действия, хотя после загрузки моделей эти ограничения трудно реализовать на практике.
Meta заявляет, что не согласна с новым определением Open Source Initiative. «Единого определения ИИ с открытым исходным кодом не существует, и его определение — сложная задача, поскольку предыдущие определения с открытым исходным кодом не охватывают сложности современных быстро развивающихся моделей ИИ», — заявил представитель Meta в электронном заявлении TIME. «Мы делаем Llama бесплатной и общедоступной, а наша лицензия и Политика приемлемого использования помогают обеспечить безопасность людей, устанавливая некоторые ограничения. Мы продолжим работать с OSI и другими отраслевыми группами, чтобы сделать ИИ более доступным и свободным ответственно, независимо от технических определений».
Широко распространено мнение, что создание открытых моделей ИИ выгодно, поскольку это демократизирует доступ к технологиям и стимулирует инновации и конкуренцию. «Одной из ключевых вещей, которую делают открытые сообщества, является то, что они вовлекают более широкое, географически более рассредоточенное и более разнообразное сообщество в разработку ИИ», — говорит Элизабет Сегер, директор по цифровой политике в Demos , британском аналитическом центре. Открытые сообщества, в которые входят академические исследователи, независимые разработчики и некоммерческие лаборатории ИИ, также стимулируют инновации посредством сотрудничества, особенно в повышении эффективности технических процессов. «У них нет тех же ресурсов, с которыми можно играть, как у крупных технологических компаний, поэтому возможность делать гораздо больше с гораздо меньшими затратами действительно важна», — говорит Сегер. Например, в Индии «ИИ, встроенный в предоставление государственных услуг, почти полностью построен на моделях с открытым исходным кодом», — говорит она.
Открытые модели также обеспечивают большую прозрачность и подотчетность. «Должна быть открытая версия любой модели, которая становится базовой инфраструктурой для общества, потому что нам действительно нужно знать, откуда берутся проблемы», — говорит Ясин Джернит, руководитель отдела машинного обучения и общества в Hugging Face, компании, которая поддерживает цифровую инфраструктуру, где размещены многие открытые модели. Он указывает на пример Stable Diffusion 2, открытой модели генерации изображений, которая позволила исследователям и критикам изучать ее обучающие данные и противостоять потенциальным предубеждениям или нарушениям авторских прав — что невозможно с закрытыми моделями, такими как DALL-E от OpenAI . «Вы можете сделать это гораздо проще, когда у вас есть квитанции и следы», — говорит он.