Итальянское Управление по защите данных (GPDP) постановило, что чатбот ChatGPT, действующий на основе искусственного интеллекта, нарушает правила защиты данных Европейского Союза.
В сообщении GPDP от 29 января говорится, что результаты расследования итальянского регулятора выявили нарушение конфиденциальности данных, связанных со сбором персональных данных и возрастной защитой.
Расследование велось в рамках рабочей группы, созданной Управлением по защите данных Италии с Европейским советом по защите данных – независимым органом ЕС, который решает вопрос применения Регламента об общей защите данных.
Нарушения ChatGPT связаны с массовым сбором данных пользователей, которые затем используются для обучения алгоритму. Также речь идет о беспокойстве, что чат-бот может генерировать неприемлемый контент для детей.
Теперь у разработчика ChatGPT – компании OpenAI – есть 30 дней для ответа на претензии итальянского регулятора.
В комментарии BBC OpenAI отрицает, что чат-бот не соответствует регламенту ЕС о конфиденциальности.
"Мы активно работаем над уменьшением персональных данных при обучении наших систем, таких как ChatGPT, который также отклоняет запросы на получение частной или конфиденциальной информации о людях", – говорится в ответе компании.
Италия в марте 2023 года стала первой западной страной, заблокировавшей ChatGPT, ссылаясь на обеспокоенность по поводу конфиденциальности. Приблизительно через четыре недели – когда первые претензии были решены – работу ChatGPT возобновили.
Согласно Регламенту ЕС об общей защите данных, компании-нарушительницы могут быть оштрафованы на сумму до 4% от своего глобального обращения.