Середа, 04 серпня 2021

Актуальне

Відсутність новин - теж хороша новина

"Термінатори" вже загрожують людству?

Цього місяця експерти у сфері штучного інтелекту розбурхали інженерну спільноту, коли закликали ООН розглянути питання про обмеження або навіть заборону автономних систем летальної зброї.

Вся увага глобальної павутини була прикута до заяви генерального директора SpaceX Ілона Маска, який попередив, що штучний інтелект (ШІ) може таїти в собі більшу небезпеку, ніж Північна Корея, пише Сандра Ервін у статті для The National Interest.


Група з 116 експертів в області ШІ направили в ООН відкритий лист, в якому говорилося, що "автономні системи летальної зброї можуть призвести до третьої революції в прийомах ведення війни" ". Говорячи від імені компаній, що спеціалізуються в розробці ШІ і роботизованих систем, які можуть бути перепрофільовані в автономні системи летальної зброї, експерти заявили: "" Ми усвідомлюємо особливу відповідальність за наближення цієї грози "".

Маск назвав ШІ екзистенційною загрозою для людства і закликав взяти всі розробки під особливий контроль. Однак частина експертів, які підписали лист, зізналися, що Маск надто нагнітає паніку. 

Безпілотний літальний апарат ВМФ США В-47B здійснив посадку на авіаносець

Чим обернеться даний лист для Пентагону, який направив величезні кошти на розробку роботизованих систем озброєння, поки не ясно. Нарада ООН, на якій розглянуть наслідки розвитку автономних систем летальної зброї, запланована на листопад 2017 року. Експерти закликали ООН знайти кошти, які могли бути "запобігти гонці озброєнь в даній сфері, щоб уникнути можливих дестабілізуючих наслідків і загроз для мирного населення" ".


Засновник і головний виконавчий директор компанії з розробки програмного забезпечення SparkCognition Амір Хусейн підписав цей лист, але заявив, що він виступає проти будь-яких дій, які могли б призвести до уповільнення технічного прогресу. Він зазначив, що спочатку ініціатива була запропонована професором Університету Нового Південного Уельсу Тобі Волшем і переслідувала своєю метою звернути увагу міжнародної громадськості на "" потенційні небезпеки, які можуть таїти в собі автономні системи летальної зброї, і на відсутність широкої міжнародної дискусії з даного питання "".

"Я впевнений, що на даному етапі вирішення проблеми полягає в подвійному збільшенні інвестицій в розробку безпечних і прозорих технологій ШІ" ", - заявив Хусейн.

Старший науковий співробітник аналітичного центру "" Атлантична рада "" Август Коул вважає, що необхідність обговорення проблем автономних систем летальної зброї присутня, але заборона на розвиток автономних систем, які впроваджуються в різні сфери нашого життя, нереалізуємо на практиці. Коул закликав до розвитку міжнародних правових та етичних підстав.

Побоювання також викликає той момент, що Пентагон поки не дав автономним системам летальної зброї чіткого визначення. У 2012 році Пентагон випустив інструкцію з використання автономних систем озброєнь. Це єдиний документ, якого дотримуються військові США при використанні подібних систем, заявив головний науковий співробітник НДЦ аналізу військово-морських проблем (Center for Naval Analyses) Енді Ілачинський. Згідно з цим документом, зброя належить до автономних систем, якщо "" після її активізації вона може визначати і вражати цілі без подальшого втручання людини "". 

На думку Ілачинського, питання про введення нових керівних принципів та інструкцій у галузі автономних систем озброєнь давно назріло. Наукова рада міністерства оборони США в 2012 і 2016 роках опублікувала два дослідження з даного питання, але ні в одному з них "" немає нормального визначення, що таке автономні системи озброєнь або ШІ "", заявив Ілачинський, додавши, що кращі експерти Пентагону так нічого і не змогли виразно сказати.

Той факт, що програма AlphaGo, розроблена Google Deepmind, здобула перемогу над професійним гравцем в логічній настільній грі го, являє собою важливий прорив в області ШІ, вважає представник НДЦ аналізу військово-морських проблем. Однак у просунутих системах, таких як AlphaGo ви не можете провести інженерний аналіз того, чому мала місце та чи інша дія ", - заявив Ілачинський.

Buster Benson


Матч у гру Го між програмою АльфаГо і Лі Седола

"Для міністерства оборони США важливо усвідомити, що в один прекрасний момент вони не зможуть зрозуміти, чому система робить те, що вона робить", - додав Ілачинський.

Причина гучних заяв Маска полягає в тому, що досі не зрозуміло, що відбувається в "" мізках "" автономних систем після завершення їхнього "" навчання "", вважає співробітник НДЦ аналізу військово-морських проблем.

"" Може виявитися, що ви не зможете передбачити поведінку автономної системи, оснащеної ШІ. У цьому сенсі мені зрозумілий страх, який відчувають такі люди, як Маск ", - заявив Ілачинський.

З іншого боку, занадто пізно говорити про заборону автономних систем, джин вже випущений з пляшки. США не можу зупинити розробки в даній області, оскільки інші країни, такі, як Китай, спрямовують всі зусилля на те, щоб зайняти лідируючі позиції у сфері розробки ШІ. Крім того, Пентагону постійно доводиться прораховувати можливі атаки ворогів з використанням систем ШІ, які зараз можуть здатися немислимими. Наприклад, будь-хто може менш ніж за тисячу доларів придбати пару безпілотників, зайти на сайт Массачусетського технологічного інституту, переглянути дослідження в області ШІ, завантажити фрагменти комп 'ютерного коду і завантажити їх у безпілотники. Ми отримаємо "" рій розумних дронів "", це може стати "" проблемою, якій буде важко протистояти, тому що, по-перше, ми до цього не готові, а по-друге, це досить просто зробити за невеликі гроші "", заявив науковий співробітник НДЦ аналізу військово-морських проблем.

Олександр Бєлов