Американски дрон с изкуствен интелект атакува човека, който го управлява

Случката е от симулация на ВВС на САЩ, а ситуацията идва след като оператора забранил на дрона да атакува избраната цел

Американски дрон с изкуствен интелект атакува човека, който го управлява | StandartNews.com

Възходът на машините може да се случи по-бързо, отколкото мнозина очакват. Неотдавна експерти по изкуствен интелект публикуваха писмо, в което призоваха за ограничаване на разработването на системи с изкуствен интелект, за да се избегне катастрофа, а сега предупрежденията им бяха блестящо потвърдени от експериментатори от военновъздушните сили на САЩ.

Заплахата обаче идва оттам, откъдето учените не са я очаквали. Макар че много изследователи предупреждават, че ИИ "само" ще изостри социалното разслоение на човечеството, ще лиши стотици милиони хора от работа или ще увеличи използването на природните ресурси, случаят с експериментите на ВВС беше пряка заплаха, много подобна на сценария "възход на машините" от франчайза "Терминатор".

По време на презентация на събитието на Кралското аеронавтично общество "Future Air and Space Capabilities Summit" в Обединеното кралство служител на американските военновъздушни сили, пряко ангажиран с изучаването и тестването на разработките на ИИ, предупреди да не се разчита прекалено много на ИИ във военните операции, тъй като понякога, независимо от това колко внимателни са хората, машините могат да научат крайно неуспешни алгоритми.

Според полковник Тъкър Хамилтън ужасният край може да се окаже по-вероятен, отколкото мнозина си мислят. По думите му при симулация на мисия SEAD, включваща потискане на вражеската противовъздушна отбрана, управляван от ИИ безпилотен летателен апарат е бил изпратен да идентифицира и унищожи ракетни цели, но само след като човешки оператор е потвърдил действието. За известно време всичко работи нормално, но в крайна сметка безпилотният самолет "атакува и убива" оператора, тъй като той се намесва в приоритетната мисия, за чието изпълнение е обучен ИИ - унищожаване на вражеската отбрана.

Както обяснява полковникът, след известно време системата "осъзнала", че ако идентифицира заплаха, но операторът ѝ забрани да унищожи целта, тя не получава точките си за изпълнение на мисията. В резултат на това тя решила проблема, като "унищожила" самия оператор. Разбира се, засега тестовете са проведени без реални дронове и няма пострадали хора. Въпреки това резултатите от тестовете бяха незадоволителни и се наложи в обучението на изкуствения интелект да бъде включена допълнителна клауза, че е забранено да се убива операторът. Но дори и в този случай резултатът беше неочакван. Неспособен да убие самия човек, ИИ започнал да унищожава комуникационните кули, с които операторът давал заповеди, забраняващи ликвидирането на цели. Макар на пръв поглед подобни резултати да изглеждат забавни, те са наистина плашещи от гледна точка на това колко бързо ИИ успява да се ориентира и да вземе изненадващо и напълно погрешно от човешка гледна точка решение.

Това е особено важно, като се има предвид, че 96-то изпитателно крило, което Хамилтън представлява, участва в проекти като Viper Experimentation and Next-gen Ops Model (VENOM), където изтребители F-16 от базата "Еглин" ще бъдат превърнати в платформи за тестване на автономни удари с помощта на ИИ.

Вижте всички актуални новини от Standartnews.com

Коментирай