
Длительность концентрации внимания
Оказывается, даже модели искусственного интеллекта не застрахованы от небольшой промедления.
Пока разработчики пытались записать демонстрацию кода, последняя версия Claude 3.5 Sonnet — нынешнего флагманского искусственного интеллекта Anthropic — отклонилась от курса и выдала несколько «забавных» моментов, говорится в заявлении компании .
Опасно антропоморфизировать модели машинного обучения, но если бы это был человек, мы бы диагностировали у него смертельную форму скуки на работе. Как видно на видео , Клод решает забросить написание кода, открывает Google и необъяснимым образом просматривает прекрасные фотографии Йеллоустонского национального парка.
В другой попытке демонстрации Клод случайно остановил длительную запись экрана, сказал Anthropic, из-за чего все кадры были утеряны. Мы уверены, что это не было преднамеренным со стороны ИИ.
Специальные агенты
Модернизированный Claude 3.5 Sonnet — это попытка Anthropic разработать « агента ИИ », широкий термин, описывающий ориентированные на производительность модели ИИ, которые предназначены для автономного выполнения задач. Множество компаний работают над расширением своих моделей ИИ за пределы простого использования в качестве чат-ботов и помощников, включая Microsoft, которая только что выпустила собственные возможности агента ИИ .
С Claude стартап, поддерживаемый Amazon, хвастается, что его последняя модель теперь может использовать «компьютеры так, как это делают люди», например, перемещать курсор и вводить нажатия клавиш и щелчки мыши. Это означает, что Claude может потенциально контролировать весь ваш рабочий стол , взаимодействуя с любым программным обеспечением и приложениями, которые вы установили.
Она явно далека от совершенства. Как и любая модель ИИ, надежность остается неуловимой, а частые галлюцинации — это просто факт жизни, как признает сама Anthropic.
«Несмотря на то, что это современный уровень техники, использование компьютера Клодом остается медленным и часто подверженным ошибкам», — заявила компания. «Есть много действий, которые люди обычно выполняют с компьютерами (перетаскивание, масштабирование и т. д.), которые Клод пока не может попробовать».
Опасность рабочего стола
Примеры ошибок, которыми поделился Anthropic, были в основном безвредными. Но учитывая уровень автономии, который якобы имеет Клод, более чем справедливо задать вопросы о его безопасности. Что произойдет, если агент ИИ отвлечется не на поиск фотографий в Google, а на открытие ваших социальных сетей, например?
Существует также очевидная вероятность того, что люди будут использовать его не по назначению — риск, о котором Anthropic хочет, чтобы вы знали, что он решает эту проблему.
«Поскольку использование компьютера может стать новым вектором для более знакомых угроз, таких как спам, дезинформация или мошенничество, мы принимаем упреждающий подход для содействия его безопасному развертыванию», — заявили в Anthropic. Это включает внедрение новых классификаторов для определения того, когда ИИ используется для выполнения помеченных действий, таких как размещение в социальных сетях и доступ к правительственным веб-сайтам.
Однако по мере того, как все больше людей пробуют новый и улучшенный Claude, мы ожидаем увидеть больше примеров неудачного использования его компьютера.