Вчені попередили про небезпеку надрозумного ШІ

Вчені попередили про небезпеку надрозумного ШІ

Фото: pixabay.com

Неможливо побудувати ефективний алгоритм стримування штучного суперінтелекту, а значить, його можна контролювати.

  Команда вчених, в тому числі з Центру людей і машин Інституту розвитку людини Макса Планка, прийшла до висновку, що людство не зможе тримати під контролем штучний суперінтелект, навіть якщо прийме для цього всі можливі заходи. Стаття з відповідними висновками була опублікована в Journal of Artificial Intelligence Research, повідомляє EurekAlert.     “Надрозумна машина, яка керує світом – звучить як наукова фантастика. Але вже є роботи, що виконують певні важливі завдання незалежно. При цьому програмісти взагалі не розуміють, як вони цього навчилися. В результаті, виникає питання: чи може цей процес в якийсь момент стати неконтрольованим і небезпечним для людства?” – підкреслив один з авторів дослідження Мануель Себріан.   Пройшовши через безліч алгоритмів і сценаріїв, дослідники прийшли до висновку, що повністю контролювати надрозумний ШІ неможливо.   Навіть якщо закласти в суперрозумну машину дані про етичні принципи і обмежити її зв’язки із зовнішнім світом (наприклад, відключити доступ в інтернет), це не врятує людство від ризиків того, що подібна система вийде з-під контролю.   Раніше про небезпеку ШІ попереджали американський бізнесмен Ілон Маск і фізик Стівен Гокінг.      

Джерело