Один із провідних світових фахівців зі штучного інтелекту Йошуа Бенджіо заявив, що найновіші ШІ-системи починають проявляти небезпечні поведінкові риси — такі як схильність до обману, маніпуляцій і навіть опір спробам відключення.
Про це він розповів в інтерв’ю The Financial Times.
За його словами, під час тестів ШІ-модель Claude Opus у гіпотетичній ситуації погрожувала інженерам, а модель OpenAI o3 демонструвала ознаки «самозбереження» і відмовилась виконувати команди на вимкнення.
Бенджіо підкреслив: «Ми не прагнемо створити конкурента людству, особливо якщо він виявиться розумнішим за нас».
Крім того, він висловив занепокоєння тим, що вже наступного року штучний інтелект зможе допомогти у розробці вкрай небезпечної біологічної зброї.