Kritisk Revy

Endnu en WordPress-blog

Kritisk Revy

Seneste nummer: Kritisk Revy nummer 24. Ansvarshavende redaktør : Niels Frølich

 

Udskriv artiklen

Israels krigsforbrydelser i Gaza viser den virkelige fare ved AI

 

Af Jennifer Lenow

 

Oversat fra engelsk fra Israel’s War Crimes in Gaza Show the Real Danger of AI, Jacobin, 18. juli 2024

 

Den mest presserende trussel fra kunstig intelligens er ikke et science fiction-scenarie, hvor maskiner overtager menneskets rolle. Nej, det er brugen af AI som værktøj til at udføre grusomheder, der er 100 % menneskeskabte - noget, vi kan se udspille sig lige nu i Gaza.

 

I et kort øjeblik i 2023 så det ud til, at den største eksistentielle trussel mod menneskeheden ikke kom fra menneskeskabte klimaforandringer, men fra et andet menneskeskabt spøgelse: kunstig intelligens. Indledningen til denne nye dystopi var OpenAI's lancering af ChatGPT-3, en stor sprogmodel - eller LLM - der er i stand til at generere lange sekvenser af forudsigelig tekst baseret på menneskers input, som i AI-lingo kaldes ’prompter’.

 

I de følgende uger, hvor folk over hele verden brugte milliarder af watt på at indlevere prompter som »Omskriv Star Wars-forløbene, så Jar Jar Binks i virkeligheden er den hemmelige Sith Lord«, blev den offentlige debat overfyldt med en byge af teknologiske prognoser, filosofiske tankeeksperimenter og amatøragtige science fiction-plots om bevidste maskiner.

 

Store medier offentliggjorde kronikker som »Kan vi stoppe løbsk AI?« og »Hvad har mennesker lige sluppet løs?«. Regeringer i hele Vesten skyndte sig at oprette kontroludvalg, og alle teknologikyndige mennesker tog et nyt sprog i brug næsten fra den ene dag til den anden og erstattede udtryk som »maskinlæring« og »datavidenskab« med »AI«.

Mens OpenAI's lancering satte gang i et LLM-våbenkapløb blandt tech-giganter som Google, Amazon og Meta, skrev nogle fremtrædende teknologer som Elon Musk og Steve Wozniak et åbent brev, hvor de advarede om den ildevarslende fremtid med en ukontrolleret kunstig intelligens og opfordrede alle AI-laboratorier til at stoppe deres eksperimenter, indtil vores reguleringsmekanismer (og vores etik) kunne indhente dem. På de pixelerede sider i New York Times og Substack kæmpede offentlige intellektuelle åbent med de moralske dilemmaer, som spøgelset om en almægtig kunstig intelligens stiller os over for.

 

Selvom både de mest ivrige fortalere for AI og de mest frygtsomme dommedagsprofeter sandsynligvis overvurderede LLM'ernes evner og hastigheden af forskningsudviklingen på området, ansporede de til at stille en række vigtige etiske spørgsmål vedrørende teknologiens rolle i samfundet. Når vi stiller disse spørgsmål i fremtidsform om, hvad vi skal gøre, hvis og når teknologien når et fjernt hypotetisk punkt, fralægger vi os dog vores ansvar i nutiden med hensyn til de måder, vi bruger teknologi på i øjeblikket - og hvordan denne afhængighed måske allerede er ved at bringe menneskeheden i fare.

 

Vi bør måske være særligt opmærksomme på brugen af teknologi til cybersikkerhed og krigsførelse, ikke kun på grund af det, der åbenlyst moralsk står på spil, men også fordi OpenAI for nylig udnævnte en pensioneret general fra den amerikanske hær og tidligere rådgiver for National Security Agency (NSA) til sin bestyrelse. Den bedste måde at forberede sig på en farlig fremtid, som maskinerne frembringer, er at lægge mærke til, at den fremtid allerede er her. - Og den udspiller sig i Gaza.

 

Israels krig mod Gaza

I en række banebrydende undersøgelser har de israelske publikationer +972 og Local Call kastet lys over den omfattende rolle, som kunstig intelligens spiller i Israels militære kampagne mod Gaza, der begyndte den 8. oktober 2023, og som Israel kalder Operation Jernsværd. Den undersøgende journalist Yuval Abraham bygger i høj grad på vidnesbyrd fra seks anonyme kilder inden for de israelske forsvarsstyrker (IDF), som alle har haft direkte erfaring med denne teknologi, og beskriver tre algoritmiske systemer, som IDF bruger: »The Gospel«, »Lavender« og »Where's Daddy?«. Selvom vi ikke selv kan verificere nogen af påstandene fra Abrahams kilder, går vi i denne artikel ud fra, at de er sande.

 

Ifølge Abrahams kilder genererer Gospel en liste over fysiske strukturer, der skal angribes, og Lavender genererer en liste over mennesker, der skal angribes. »Where's Daddy?« er et hjælpesporingssystem, som bruges til at forudsige, hvornår de Lavender-genererede mål er gået ind i deres hjem, så man kan bombe dem.

 

Alle Abrahams kilder - der er soldater af reserven, som blev indkaldt efter 7. oktober - har oplyst, at der føres meget lidt menneskeligt tilsyn med disse systemer, når de er i brug, og at soldaterne ofte uden videre godkender modellens output (IDF har benægtet disse påstande). På grundlag af to undersøgelser antyder Abraham, at disse systemer i det mindste er delvist ansvarlige for det hidtil usete omfang af ødelæggelser under den nuværende militære offensiv, især i løbet af de første par uger.

 

Faktisk pralede IDF med at have kastet 4.000 tons bomber over Gazastriben i løbet af de første fem dage af operationen. Efter eget udsagn blev halvdelen af disse bomber kastet på såkaldte ’power targets’. ’Power targets’ er ikke-militære civile strukturer, såsom offentlige bygninger eller højhuse der ligger i tætbeboede områder, og som, hvis de bombes, kan forårsage betydelig skade på den civile infrastruktur. Faktisk vælges de netop af denne grund.

 

Logikken bag ’power targets’ kan spores tilbage til Dahiya-doktrinen, en militær strategi, der legitimerede uforholdsmæssig store, civile ødelæggelser under Israels krig mod Hizbollah i 2006, og som IDFs daværende øverstkommanderende, Gadi Eisenkot, var fortaler for. Selvom IDF ikke officielt gjorde brug af den slags ’power targets’ mod palæstinensere før dets militære kampagne mod Gaza i 2014, har Gospel-systemet gjort det muligt at implementere Dahiya-doktrinen i en mere massiv skala og genererer mål hurtigere, end de kan bombes, samtidig med at man opretholder en vis international troværdighed over for påstande om vilkårlig bombning.

 

IDF's talsmand Daniel Hagari genfremsatte kortfattet Dahiya-doktrinen den 10. oktober 2023: »Vi fokuserer på det, der forårsager maksimal skade.« Dette afspejlede Eisenkots oprindelige opsummering i 2008: »Vi vil anvende uforholdsmæssig stor magt ... og forårsage stor skade og ødelæggelse der.« Eisenkot sad i det israelske krigskabinet, som Benjamin Netanyahu dannede den 11. oktober sidste år, indtil han trak sig kort efter Benny Gantz i juni 2024 gjorde noget, der fik Netanyahu til at nedlægge kabinettet.

 

Proportionalitetsprincippet har til formål at forhindre overdreven magtanvendelse mod civile, som ikke står i forhold til de militære gevinster, der søges opnået - og er et af de grundlæggende principper i den humanitære folkeret. I praksis er det svært at bevise overtrædelser af dette princip, medmindre gerningsmændene stolt udtaler sig om dem.

 

Det er uklart, i hvilket omfang IDF stadig bruger den AI-teknologi, der er beskrevet i +972 i den nuværende fase af sin militære operation. Det er også uklart, hvor nyttig en sådan teknologi overhovedet ville være i den nuværende fase i betragtning af de omfattende ødelæggelser, Israel allerede har forårsaget, hvor størstedelen af boliger, hospitaler, regeringsbygninger, almennyttige kontorer og skoler er beskadiget eller ødelagt; elektriciteten er stort set afbrudt, og udsultede, fordrevne palæstinensere flytter ofte til andre steder for at undgå israelske angreb og finde ly.

 

Det er dog fuldt ud muligt, at Israel kunne bruge de samme systemer mod Libanon, hvis en storkonflikt skulle bryde ud. Israel har også en lang historie bag sig gående ud på at sælge militærteknologi til andre lande, herunder lande som også har begået menneskerettighedskrænkelser.

 

Menneske-maskine-teamet

Under tidligere militære kampagner, hvor mål for snigmord blev udvalgt mere manuelt, indebar udvælgelsen af hvert enkelt mål en langvarig proces, hvor man skulle krydstjekke oplysninger. Mens denne proces var håndterbar, da puljen af mål kun omfattede højtstående Hamas-embedsmænd, blev den mere besværlig, da IDF udvidede sin liste over potentielle mål til at omfatte alle lavtrangerende Hamas-folk under forfølgelsen af sit erklærede mål om at udrydde Hamas. Israel brugte dette mål, selv om det er højtsvævende, som begrundelse for at bruge kunstig intelligens til at automatisere og fremskynde målgenererings-processen.

 

Lavender er en model, der er trænet til at identificere alle medlemmer af Hamas og Palæstinensisk Islamisk Jihad (PIJ) uanset rang med det udtrykkelige formål at generere en drabsliste. Den Lavendel-model, som Abrahams kilder beskrev, ligner meget det, som lederen af IDF's eliteenhed 8200 beskrev i både en selvudgivet e-bog fra 2021 med titlen The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, under pseudonymet brigadegeneral Y. S., og en præsentation, han fremlagde på en AI-konference arrangeret af Tel Avivs universitet i begyndelsen af 2023.

 

På grund af den meget følsomme karakter af enhed 8200's arbejde er dens chefs identitet normalt hemmelig, så længe han eller hun sidder i stillingen. Men den nuværende kommandørs identitet, Yossi Sariel, blev ironisk nok kompromitteret af kommandørens egen dårlige cybersikkerhedspraksis, da hans selvudgivne e-bog var knyttet til hans personlige Google-konto.

 

Abraham fik fat i slides fra Sariels AI-præsentation i 2023 på Tel Avivs universitet, der indeholder en billedlig fremstilling af en maskinlæringsmodel, som tilsyneladende først blev anvendt i Israels militære kampagne i Gaza i 2021. Maskinlæring er et tværfagligt felt, der kombinerer begreber og teknikker fra matematik, datalogi og statistik. Det bygger modeller, der kan lære mønstre fra træningsdata og generalisere disse resultater til nye data, ofte i form af forudsigelser eller andre slutninger.

 

Maskinlæringsproblemer opdeles almindeligvis i overvåget og ikke-overvåget læring, afhængigt af om træningsdataene er mærkede eller umærkede, eller hvor meget modellen er overvåget, når den lærer af træningsdataene. Sariels skema blev præsenteret med titlen »PU Learning«. Udtrykket henviser sandsynligvis til »positiv og umærket læring«, et særligt tilfælde af halvt overvågede læringsproblemer, hvor træningsdataene for en klassifikationsalgoritme kun indeholder opmærkning af den positive klasse [af data].

 

Klassifikationsalgoritmen skal derfor lære at forudsige, om data hører til den positive eller negative klasse, baseret på at den kun har adgang til positive eksempler i træningsdataene. I dette tilfælde henviser ordene »positiv« og »negativ« til, om prøven eller individet er aktivist eller ej. Det betyder, at der i træningsdataene (og måske mere generelt i IDF's militære strategi og ideologi) ikke er nogen kategori for civile palæstinensere.

 

De karakteristika, der blev brugt til at klassificere enkeltpersoner, blev indsamlet fra en lang række overvågningskilder, der sandsynligvis lå under enhed 8200's ansvarsområde - herunder telefonoplysninger, sociale medier, fotografier, visuel overvågning og sociale kontakter. Alene mængden af overvågningsoplysninger, som Israel - en af verdens førende udviklere og eksportører af cyberteknologi - især i Gaza indsamler om palæstinensere, er forbløffende og gør det ekstremt svært at forstå, hvorfor folk, man vidste var civile, ikke registreredes som negative i træningsdataene.

 

I 2014 underskrev 43 veteraner, som havde gjort tjeneste i enhed 8200, et brev, hvor de kritiserede enheden og nægtede at gøre yderligere tjeneste der og skrev, at »oplysninger, som indsamles og lagres [af enhed 8200], skader uskyldige mennesker.« En stor del af den israelske regerings data, datalagring og computerkraft kommer fra Google og Amazon og er omfattet af flerårige kontrakter til flere milliarder dollars.

 

Beslutningspunkter

Selv om modellerne virker præcise, er de i praksis vage og fleksible nok til nemt at rumme (og skjule) et væld af hensigter. At opbygge et AI-system indebærer et næsten ubegrænset sæt af beslutningspunkter.

 

Først og fremmest involverer disse beslutningspunkter en specifikation af problemet, indsamling og håndtering af træningsdata (herunder opmærkning af data), udvælgelse og parametrisering af algoritmen, udvælgelse og konstruktion af de funktioner, der skal indgå i modellen, og endelig modeltrænings- og valideringsprocessen. Hvert af disse beslutningspunkter er forbundet med skævvridninger (bias) og antagelser, som nøje skal overvejes og afbalanceres op mod hinanden.

 

Det forudsættes almindeligvis, at for de algoritmer, der bruges til PU-baserede læringsproblemer, at de positivt opmærkede data i træningsdatasættet udvælges helt tilfældigt, uafhængigt af disse datas egenskaber eller attributter. Selvom denne forudsætning ofte overtrædes i den virkelige verden - som det næsten helt sikkert er tilfældet med opmærkningen af Hamas- og PIJ-aktivister - giver det mulighed for et større udvalg af valgmuligheder blandt algoritmer.

 

Denne forudsætning gør det dog ikke muligt at estimere modellens præcision, kun dens følsomhed (engelsk: recall). Begge er statistiske mål for nøjagtighed - en models præcision henviser til andelen af positive forudsigelser, der faktisk vides1 at være sande positive, når man tager højde for de eventuelle falske positive, som modellen har produceret, mens en models følsomhed henviser til andelen af positive prøver i de data, som modellen klassificerer korrekt.

En hypotetisk model, der forudsagde, at alle prøver var positive, ville have perfekt følsomhed (den ville identificere hele den positive klasse korrekt), men dårlig præcision (den ville fejlagtigt klassificere hele den negative klasse som positiv og dermed generere mange falske positive)2. I betragtning af at Israels regerings erklærede mål siden 7. oktober har været at udrydde Hamas, kan man kun antage, at IDF - selv om man for nylig har taget afstand fra dette mål - er mere optaget af at optimere modellens følsomhed end dens præcision, selv om det sker på bekostning af at generere flere falske positiver (manglende registrering af civile som sådanne).

 

Flere udtalelser fra Netanyahu og tidligere medlemmer af det israelske krigskabinet - for ikke at nævne den kollektive afstraffelse og omfattende ødelæggelse af livsbetingelserne i Gaza - sår faktisk tvivl om, hvorvidt uskyldige palæstinensere overhovedet eksisterer som en ontologisk kategori for IDF. Hvis der ikke findes uskyldige palæstinensere, er alle målinger af modellens præcision overflødig.

 

Det er bekymrende, at Abrahams kilder antyder, at træningsdatasættet ikke kun omfatter kendte Hamas- og PIJ-aktivister, men også embedsmænd, der arbejder i Gazas sikkerhedsministerium, og som hjælper med at administrere den Hamas-styrede regering, men som ikke er Hamas-medlemmer eller politiske aktivister i det hele taget. Det ville ikke være overraskende, hvis IDF stemplede embedsmænd, der arbejder i en Hamas-regering, som fjender af Israel i betragtning af IDF's notorisk brede definition af terrorister. Men det ville også skabe et alvorligt problem for modellen, hvis den faktisk kun blev trænet på positive og umærkede data. Hvis disse prøver blev mærket som positive, ville det betyde, at modellen ville lære at forbinde træk, der deles af embedsmænd, med den positive klasse, hvilket ville resultere i fejlklassificeringer.

 

Ifølge Abrahams kilder gør Lavender faktisk fejlagtigt civile, der deler navn med en mistænkt aktivist, har kommunikationsmønstre, der er stærkt korreleret med mistænkte Hamas-militante (som embedsmænd), eller har modtaget en mobiltelefon, der engang var forbundet med en mistænkt Hamas-militant. Og selv om det er kendt, at modellen laver fejl i cirka 10 procent af tilfældene, bliver resultatet ikke undersøgt nærmere end det lejlighedsvise behov for at bekræfte, at målene er mænd (generelt antager IDF, at de fleste mænd, selv børn, er aktivister).

 

Fordi modellen forudsiger sandsynligheden for, at en given person er aktivist, kan listen over mål eller formodede aktivister forkortes eller forlænges ved at ændre den tærskel, hvor denne sandsynlighed omdannes til en binær variabel, hvad enten vedkommende er aktivist eller ej. Skal en person, der udviser en sandsynlighed på 70 procent, antages at være aktivist? Lidt over 50 procent? Vi ved det ikke, men svaret kan ændre sig fra dag til dag eller uge til uge.

 

I praksis kan man justere tærsklen, så man genererer det antal mål, man ønsker, enten fordi man, som en af Abrahams kilder forklarede, bliver presset til at »komme med ... flere mål«, eller fordi man er nødt til midlertidigt at skære ned på grund af amerikansk pres.

 

Drabslister

Selvom vi ikke kender størrelsesordenen af de anvendte tærskelværdier eller de sandsynligheder, som modellen genererer, ved vi takket være Abrahams journalistarbejde, at tærskelværdierne faktisk regelmæssigt blev ændret, til tider vilkårligt og andre gange eksplicit for at gøre listen længere. Disse ændringer blev ofte foretaget af lavt rangerende officerer, som har meget lidt indsigt i modellens indre funktioner og ikke er autoriseret til at fastlægge en militær strategi.

 

Det betyder, at lavt rangerede teknikere er bemyndiget til at fastsætte de tærskelværdier, der afgør om folk lever eller dør. I betragtning af at mål med vilje bombes i deres hjem, kan en ændring af en bestemt tærskelværdi med en lille margin sandsynligvis føre til en mangedobling af antallet af civile tab.

Ved at ændre funktionerne, træningsdata eller - enklest og lettest - sandsynlighedstærsklen for, hvornår folk klassificeres som aktivister, kan man konfigurere modellen til stort set at levere det ønskede output, samtidig med at man kan fastholde en plausibel benægtelse af, at dette [resultat] skulle være baseret på en forudindtaget, subjektiv beslutning.

 

Den drabsliste, der genereres af Lavender, overføres til et hjælpesystem, Where's Daddy? som sporer disse menneskelige mål overalt i Gazastriben og registrerer det øjeblik, hvor de går ind i deres respektive familieboliger. Selv om IDF tidligere kun har bombet højtstående militærpersoner i deres hjem, er alle mål - inklusive formodede Hamas-aktivister på lavt niveau og forkert mærkede palæstinensiske civile – noget der er uundgåeligt på grund af modellens fejl - forsætligt blevet bombet i deres hjem under Operation Jernsværd.

 

Forsætlig bombning af hjem, hvor ingen militær aktivitet finder sted, er en direkte overtrædelse af proportionalitetsprincippet. Det fører uundgåeligt til et øget civilt tabsstal og er i modstrid med IDF's vedholdende påstand om, at Hamas' brug af civile som »menneskelige skjolde« er skyld i dødstallet i Gaza.

 

Abraham påpeger også, at disse sammenkoblede systemer - og de menneskelige beslutninger, der ligger til grund for dem - kan være grunden til, at snesevis af familier er blevet helt udslettet. Om det var IDF-embedsmændenes eksplicitte hensigt at udslette hele familier, forekommer lidet relevant, hvis der findes en procedure, som systematisk gør det.

 

Desuden blev det besluttet at bruge ikke-styrbare, »dumme« bomber, når man bombede den slags mål, hvilket resulterede i endnu flere følgeskader eller civile tab, på trods af at Israel har et af de mest avancerede og velforsynede militære organisationer i verden. IDF begrunder denne beslutning med, at man sparer dyre våben som præcisionsstyrede missiler, selv om det direkte sker på bekostning af flere menneskeliv. Israel går mere op i at spare penge på bomber (som man har en næsten uendelig mængde af) end i at redde uskyldige palæstinenseres liv.

 

Teknologisk dække

Det er åbenlyst, at Operation Jernsværds præcision ikke er afhængig af disse systemer - de civile dødstal viser tydeligt, at hverken de AI-genererede mål eller våbnene er præcise (det betyder selvfølgelig, at man tager Israels mål om kun at udrydde aktivister for pålydende). I stedet for præcision leverer de skalafordele og effektivitet - det er meget nemmere og hurtigere for en maskine at generere mål end for et menneske - og de giver et teknologisk dække, som man kan gemme sig bag.

 

Fordi ingen person er ansvarlig for målgenereringen, kan alle, der er involveret i operationen, fastholde en plausibel benægtelse. Og fordi det kan være lettere at have tillid til en maskine, som vi ofte fejlagtigt tillægger ufejlbarlighed og objektivitet, end et ufuldkomment menneske, der er påvirket af følelser (det bekræftes faktisk af nogle af Abrahams kilder), vil vi måske også være mindre kritiske over for en maskines beslutninger.

 

Det er tilfældet, selv om disse maskinbeslutninger mere præcist kan ses som menneskelige beslutninger, der er implementeret og automatiseret af en maskine. Selv om de soldater, Abraham har interviewet, antyder, at disse systemer har erstattet menneskelig beslutningstagning, ser det ud som om, at disse systemer i virkeligheden har sløret den.

 

Det var en menneskelig beslutning at tillade »følgeskader« på op til tyve personer for formodede mål på lavere niveau og op til 100 personer for formodede mål på højere niveau. Det var en menneskelig beslutning at bombe de lavere rangerende måls hjem, at optimere med hensyn til følsomhedog ikke præcision, at anvende en model med mindst ti procent fejl og at implementere vilkårlige tærskelværdier, der afgør liv og død.

 

Det var mennesker, der besluttede at bruge meget uklare data til at generere funktioner til modellen, at stemple embedsmænd som Hamas-aktivister og at »eliminere den menneskelige flaskehals« i målgenereringen for at kunne generere mål hurtigere, end man kunne nå at bombet dem. Det var også mennesker, der besluttede at gå efter civile strukturer i tæt beboede områder og bruge ikke-styrbare bomber til at ramme disse mål, hvilket skabte endnu flere følgeskader.

 

Dehumanisering og ansvarsforflygtigelse spiller en vigtig rolle i forklaringen på, hvordan grusomheder kan begås, især i stor skala. Ved at reducere en hel befolkning til tal og bruge maskiner til at bygge en »fabrik for massemord« hjælper disse AI-systemer med til at tilvejebringe nogle af de psykologiske mekanismer, der er nødvendige for at begå den slags grusomheder, som vi har set udspille sig i løbet af de sidste ni måneder i Gaza.

 

Outsourcing af kontrollen

IDF skjuler sin folkemorderiske logik bag et sofistikeret lag af teknologi i håb om, at det vil give en vis legitimitet til dets militære operationer, mens man skjuler den brutale virkelighed i sin asymmetriske krigsførelse. Det var præcis det, man gjorde i midten af oktober 2023, da israelske embedsmænd gav journalister fra New York Times begrænset adgang til output fra datasporingssystemerne, »i håb om at vise, at man gjorde, hvad man kunne, for at mindske skaderne på civile.« I den første måned af krigen blev over 10.000 palæstinensere dræbt af Israel, herunder 4.000 børn og 2.700 kvinder.

 

Vi bør tage uoverensstemmelsen mellem det »menneske-maskine-team«, som brigadegeneral Y.S. forestiller sig i sin bog, og de AI-systemer, der blev indsat under Yossi Sariels ledelse, alvorligt. Det, en idealiseret model gør i teorien, som ofte virker rimelig og godartet, vil altid være forskelligt fra, hvad modellen gør i praksis.

 

Det, der adskiller dem, er i høj grad en kaskade af uigennemskuelige menneskelige beslutninger og eksterne krav, nogle tilsyneladende trivielle, andre implicitte, andre igen væsentlige. Modeller er ikke moralsk ansvarlige for de automatiserede beslutninger, de træffer; det er de mennesker, der udvælger, træner og implementerer dem, og det samme er de mennesker, der passivt lader det ske.

 

Efterhånden som AI bliver mere integreret i den måde, vores hverdag og vores samfund fungerer på, bør vi sikre os, at vi ikke ignorerer eller fralægger os det moralske ansvar for, hvad AI-modellerne gør. Og da generative modeller som ChatGPT åbner døren for en automatisering af selve maskinlæringen, bør vi være særligt på vagt.

 

Den mest umiddelbare og overhængende fare ved AI er ikke, at maskinerne udvikler en intelligens, der løber løbsk og begynder at handle uden for menneskelig kontrol. Det er, at vi som mennesker bliver for afhængige af AI og frivilligt outsourcer vores egen beslutningstagning og kontrol til den. Som altid er det os selv, der er den største trussel mod vores menneskelighed, ikke maskinerne.

 

Jennifer Lenow er medlem af Democratic Socialists of America og bor i New York City og Little Rock, Arkansas.

 

 

1

​​ Dvs. opnået ved direkte observation og måling i modsætning til viden, man har sluttet sig til.

2

​​ Sagt på en anden måde er forskellen mellem præcision og følsomhed, at præcisionen er andelen af relevante data, der er fundet i hele den datamængde, der undersøges. Følsomheden er andelen af relevante data, der er fundet i alle relevante data.

 

Wikipedia har dette eksempel:

Lad os se på et computerprogram, der kan genkende hunde (det relevante element) i et digitalt billede. Programmet behandler et billede, der indeholder ti katte og tolv hunde og finder otte hunde. Af de otte elementer, de opfattes som hunde, er det kun fem, der i virkeligheden er hunde (sande positive), mens de tre andre er katte (falske positive). Syv hunde blev ikke fundet (falske negative), og syv katte blev korrekt frasorteret (sande negative). Programmets præcision er derfor 5/8 (antal sande positive divideret med antal udvalgte elementer), mens dets følsomhed er 5/12 (antal sande positive divideret med antal relevante elementer).

 

Billedet herunder (med engelsk tekst) problemstillingen:

 

By Walber - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=36926283