AI stora vapen lovar att inte utveckla autonoma "mördare robotar"

Anonim

AI stora vapen lovar att inte utveckla autonoma "mördare robotar "

Robotics

Michael Irving

25 juli 2018

Hundratals företag och tusentals människor från AI-industrin har lovat att inte utveckla dödliga autonoma vapen (Kredit: Chagpg / Depositphotos)

Idén om mördarrobotar förblir för närvarande i riken i science fiction, men det är ganska alarmerande att inse att artificiell intelligens experter behandlar det som en verklig möjlighet inom en snar framtid. Efter flera år med att begära Förenta nationerna att vidta åtgärder mot beväpnad AI har Life of Life Institute (FLI) nu tagit saker i sina egna händer, med tusentals forskare, ingenjörer och företag inom AI-industrin som lovade att inte utveckla eller stödja utveckling av autonoma dödmaskiner på något sätt.

FLI presenterade 2015 ett öppet brev till FN, vilket uppmanade organisationen att införa ett förbud mot utveckling av dödliga autonoma vapensystem (LAWS). Brevet undertecknades av över 1 000 robotforskare och framstående forskare, som Elon Musk och Stephen Hawking. Två år senare skickade FLI och många av de samma signatörerna en uppföljning, som samtal ständigt stalled.

Efter ett annat år av passivitet har dessa branschledare nu tagit ett mer direkt tillvägagångssätt som inte kräver FN: s insats. Tusentals människor har nu tecknat ett löfte som förklarar att "vi väljer att hålla oss till en hög standard: Vi kommer inte att delta eller stödja utveckling, tillverkning, handel eller användning av dödliga autonoma vapen."

Undertecknarna denna gång omfattar bland annat 160 AI-relaterade företag och organisationer och över 2.400 individer. Bland ledarna finns Google DeepMind, ClearPath Robotics, European Association for AI, XPRIZE Foundation, Silicon Valley Robotics, University College London och personer som Elon Musk, Google Researchs Jeffrey Dean och medlem av Storbritanniens parlament Alex Sobel.

Den specifika tekniken som gruppen motsätter sig är vapenbaserade AI-system som kan identifiera, rikta och döda människor helt autonomt. Det skulle inte innehålla saker som militära droner, vilka mänskliga piloter kan använda för att identifiera och döda mål på distans. Medan det kanske låter som en märklig skillnad att göra, argumenterar gruppen för att det senare fallet fortfarande har en mänsklig "i loop" som ett moraliskt och etiskt filter för handlingen.

"Vi undertecknade är överens om att beslutet att ta ett mänskligt liv aldrig ska delegeras till en maskin, " läser det officiella uttalandet. "Det finns en moralisk komponent i den här positionen, att vi inte bör tillåta maskiner att fatta beslut om livslångt fattande som andra - eller ingen - kommer att vara skyldiga till. "

När dessa dödmaskiner är kopplade till data- och övervakningsplattformar fortsätter uttalandet, LAGER kan bli kraftfulla instrument för våld och förtryck, vilket i grunden gör att människan är för lätt, riskfri och oförklarlig. Särskilt problematiskt är potentialen för att dessa enheter faller i fela händer via den svarta marknaden.

Syftet med pantet verkar vara att "skämma" företag och människor till att underteckna. Om fler och fler av de stora spelarna hoppar ombord, kommer de som inte kommer att bli föremål för granskning av sina kamrater och kunder tills de också registrerar sig.

Huruvida det spelar ut på det sättet, är det åtminstone uppmuntrande att se barnsteg görs mot målet om en mördare robotfri framtid. FN kommer att hålla nästa möte om LAWS i augusti.

Källa: Future of Life Institute

Hundratals företag och tusentals människor från AI-industrin har lovat att inte utveckla dödliga autonoma vapen (Kredit: Chagpg / Depositphotos)