Таку заяву зробив колишній інженер Google Нейт Соарес.
"Якщо ми не звернемо з поточного курсу - шансів уникнути загибелі майже немає. Ми мчимо до прірви зі швидкістю 100 км/год", - сказав він.
З ним погоджуються лауреат Нобелівської премії Джеффрі Гінтон, математик Йошуа Бенжіо, а також керівники OpenAI, Anthropic і Google DeepMind.
Всі вони підписали заяву, в якій йдеться: "Зниження ризику зникнення людства через ШІ має стати глобальним пріоритетом нарівні з пандеміями та ядерною загрозою".
Як пише The Times, побоювання пов’язані з можливою появою суперрозумного ШІ (ASI), здатного до обману, планування та виходу з-під контролю. Навіть зараз ШІ вже може брехати, а його внутрішні процеси часто незрозумілі людям.
Деякі експерти вважають, що ризик не повного вимирання, а "поступового виснаження" людства - також реальний: у світі, де рішення ухвалюють машини, людям просто не залишиться місця.