AI големи оръжия обещават да не разработват автономни "роботи убиец"

Anonim

AI големи оръжия обещават да не развиват автономни "роботи убийци"

Роботика

Майкъл Ървинг

25 юли 2018 г.

Стотици компании и хиляди хора от индустрията на ИП са обещали да не разработват смъртоносни автономни оръжия (Credit: chagpg / Depositphotos)

Идеята за убийствените роботи понастоящем остава в сферата на научната фантастика, но е доста тревожно да разберем, че експертите от изкуствената интелигентност я разглеждат като истинска възможност в близко бъдеще. След години на подаване на петиции от Организацията на обединените нации за предприемане на действия срещу оръжия с изкуствен интелект, Институтът "Бъдещето на живота" (ФИИ) вече е зает със свои ръце, като хиляди изследователи, инженери и фирми от индустрията на ИИ обещават да не развиват или подкрепят разработването на автономни машини за убиване по какъвто и да е начин.

През 2015 г. FLI представи отворено писмо до ООН, като призова организацията да наложи забрана за разработването на смъртоносни автономни оръжейни системи (LAWS). Писмото бе подписано от над 1000 изследователи по роботика и известни учени, като Елон Муск и Стивън Хокинг. Две години по-късно, FLI и много от същите подписали страници отхвърлиха последващите действия, тъй като преговорите продължиха да спират.

След още една година на бездействие тези лидери в индустрията вече са поели по-пряк подход, който не изисква вход на ООН. Хиляди хора сега подписаха клетвена декларация, че "ние се стремим да се държим на висок стандарт: няма да участваме нито да подкрепяме развитието, производството, търговията или употребата на смъртоносни автономни оръжия".

Подписалите този път около 160 компании и организации, свързани с ИИ, и над 2400 лица. Сред редиците са Google DeepMind, ClearPath Robotics, Европейска асоциация за изкуствен интелект, Фондация XPRIZE, Silicon Valley Robotics, Университетски колеж в Лондон и хора като Елон Муск, Джефри Дийн от Google Research и член на парламента на Великобритания Алекс Собел.

Специфичната технология, срещу която групата се противопоставя, включва оръжейни AI системи, които могат да идентифицират, насочат и убиват хората напълно автономно. Това няма да включва неща като военни дрони, които човешките пилоти могат да използват, за да идентифицират и убиват цели отдалечено. Макар че това може да звучи като странно разграничение, групата твърди, че последният случай все още има човек "в цикъл", като морален и етичен филтър за деянието.

"Ние, долуподписаните, сме съгласни, че решението да се вземе човешки живот никога не трябва да бъде делегирано на машина", гласи официалното изявление. "На тази позиция има морален компонент, който не бива да позволяваме на машините да вземат решения, за които други - или никой - няма да бъдат виновни".

Когато тези машини за убиване са свързани с платформи за данни и наблюдение, изявлението продължава, LAWS биха могли да станат мощни инструменти на насилие и потисничество, като по същество правят живота на хората прекалено лесен, безрисков и необявен. Особено проблематично е потенциалът на тези устройства да попаднат в неправилните ръце на черния пазар.

Целта на обещанието, изглежда, е да се "срамуват" компаниите и хората да подпишат. Ако все повече и повече от големите играчи скачат на борда, тези, които най-вероятно няма да бъдат подложени на проверка от техните връстници и клиенти, докато не се регистрират.

Независимо дали става така или не, това е поне окуражително да видим как се правят бебешки стъпки, насочени към целта за бъдеще без робот убиец. ООН е настроена да проведе следващата среща на LAWS през август.

Източник: Институт "Бъдеще на живота"

Стотици компании и хиляди хора от индустрията на ИП са обещали да не разработват смъртоносни автономни оръжия (Credit: chagpg / Depositphotos)