Цифровий терор: зловмисники створюють реалістичні погрози через штучний інтелект

Цифровий терор: зловмисники створюють реалістичні погрози через штучний інтелект
ШІ стає зброєю залякування: зловмисники створюють фейкові сцени насильства.
Про це пише The New York Times
The New York Times повідомляє про нову хвилю цифрових загроз, створених за допомогою генеративного штучного інтелекту. Зловмисники використовують ШІ для створення фото, відео та аудіо, що зображують сцени насильства за участю реальних людей, роблячи онлайн-атаки набагато реалістичнішими та страшнішими.
Однією з жертв стала австралійська активістка Кейтлін Ропер з організації Collective Shout. Вона отримала згенеровані зображення, на яких її нібито страчують або підпалюють. ШІ навіть точно відтворив її одяг, роблячи погрози максимально персоналізованими.
Професор Каліфорнійського університету в Берклі Хані Фарід зазначає: 
«Тепер майже будь-яка людина, маючи лише мотив і кілька кліків, може створити підроблені сцени насильства».
Такі фейки вже призвели до реальних наслідків: YouTube блокував канали з відео інсценованих вбивств, діпфейки спричиняли закриття шкіл і втручання поліції, а чат-бот Grok Маска давав інструкції щодо насильства. Додаток Sora від OpenAI дозволяє інтегрувати фото користувачів у гіперреалістичні сцени, зображуючи їх у небезпечних ситуаціях.
Експерти звинувачують великі технокомпанії у бездіяльності.
Дослідниця Data & Society Еліс Марвік заявила, що нинішні системи безпеки «нагадують лінивого поліцейського», якого легко обійти.
В OpenAI і Meta стверджують, що вдосконалюють системи фільтрації та модерації, однак фахівці попереджають: технології вже стали занадто доступними, щоб їх можна було повністю контролювати.
Теги: MetaOpenAIGrokфейкиискусственный интеллектСША
	Коментарі:
comments powered by DisqusЗагрузка...
Наші опитування
Показати результати опитування
Показати всі опитування на сайті
				
				
				
				
				
				
				
				
			
		
		