Штучний інтелект може стати “найжахливішою подією в історії нашої цивілізації” – Гокінг

Поширення штучного інтелекту (ШІ) може стати “найжахливішою подією в історії нашої цивілізації”, якщо суспільство не відшукає спосіб контролювати його розвиток, заявив цього тижня відомий фізик Стівен Гокінг.

Коментар вченого пролунав під час виступу на технологічній конференції Web Summit у Лісабоні, Португалія, повідомляє портал CNBC.

“комп’ютери здатні, теоретично, відтворити людський інтелект та перевершити його.”

– заявив Гокінг.

Стівен Гокінг говорив про можливості ШІ у ліквідації шкоди, яку ми завдали природі, викоріненні бідності та захворювань, та про кожний аспект суспільства, який піддається “перетворенню”.

“Успіх у створенні ефективного ШІ може стати найбільшою подією в історії нашої цивілізації. Або найжахливішою. Ми просто не знаємо. Тож, ми не можемо знати, чи буде ШІ безмежно допомагати нам, чи ми будемо проігноровані та відсторонені ним, чи ймовірно знищені ним,”

–  пояснив фізик –

“Лишень, якщо ми не дізнаємось, як підготуватися, уникнути можливих ризиків, ШІ може стати найжахливішою подією в історії нашої цивілізації. Він несе небезпеку, як потужне автономне озброєння, або нові шляхи для пригнічення більшості меншістю. Він може призвести до значних зсувів у нашій економіці.”

Гокінг відзначив, що щоби уникнути жахливих наслідків, творці штучного інтелекту мають звернутися до “найкращих практик та ефективного менеджменту.”

Загрози, які несуть роботи та штучний інтелект, мають бути визначені та прогнозовані – Гокінг. Фото: Alex Knight

Говорячи про підготовчу роботу, Гокінг звернув увагу на законодавчу роботу, яка останніми роками проводилась у Європі. Йдеться про резолюцію та законотворчі ініціативи ЄС, покликані встановити правила відносно ШІ та роботів.

Нагадаємо, раніше цього року в Європі почали розгляд резолюції, яка класифікує армію розвинених роботів як “електронні персони”.

Бути оптимістами та готуватися до найгіршого

“Я оптиміст і я вірю, що ми можемо створити ШІ на благо світу, що він зможе працювати у гармонії з нами. Ми просто повинні взяти до уваги загрози, визначити їх, скористатися з найкращих практик та менеджменту, і заздалегідь підготуватися до наслідків.”

– підсумував фізик.

Гокінг не вперше звертає увагу громадськості на загрози виникнення та поширення штучного інтелекту. Британський фізик входить у число провідних науковців та технологічних підприємців, які занепокоєні потенціалом ШІ. Керівник компаній SpaceX та Tesla Ілон Маск також вважає, що ШІ здатен викликати третю світову війну.

“Якщо ви не переймаєтесь безпекою ШІ, вам варто було б. Значно більше ризиків, ніж з Північною Кореєю.” – І.М.