Британская власть предупреждает о рисках использования чатов, управляемых искусственным интеллектом, утверждая, что их можно обманом заставить выполнять вредоносные задачи.
Об этом заявил Национальный центр кибербезопасности Великобритании (NCSC), сообщает Reuters.
В двух своих публикациях ведомство отмечает, что эксперты еще не разобрались с потенциальными проблемами безопасности, связанными с алгоритмами, которые могут генерировать взаимодействие, похожее на человеческое – так называемыми крупными языковыми моделями (LLM).
NCSC отмечает, что использование инструментов на основе искусственного интеллекта, в частности в работе по обслуживанию клиентов и звонкам по продажам, может нести риски, особенно если такие модели будут подключены к другим элементам бизнес-процессов.
Ученые и исследователи неоднократно находили способы манипулировать чат-ботами, давая им несанкционированные команды или обманывая их, чтобы они обходили встроенные в них защитные механизмы.
Например, чат-бот на базе использующего банк искусственного интеллекта можно обманом заставить совершить несанкционированную транзакцию, если хакер правильно структурирует свой запрос.
Воздействие искусственного интеллекта на безопасность все еще находится в центре внимания правительств стран по всему миру. В частности, в США и Канаде уже фиксировали использование технологии LLM хакерами.