<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-W3GDQPF" height="0" width="0" style="display:none;visibility:hidden">

Roboter må gå på «etikkskole»

Er det mulig å få kontroll på kunstig intelligens?

Publisert 26. jan. 2019
Oppdatert 28. jan. 2019
Lesetid: 5 minutter
Artikkellengde er 1054 ord
lead

EUs utkast til etiske retningslinjer for kunstig intelligens kalt «Ethics Guidelines for trustworthy AI» har vært på høring i januar 2019. Det endelige resultatet ventes fremlagt av EUs ekspertgruppe for AI i mars.Retningslinjene gir generelle føringer for utvikling og bruk av kunstig intelligens. Dette er EUs nyeste forsøk på å holde den fremvoksende teknologien under kontroll. Spørsmålet er om de vil fungere slik de er ment.Kunstig intelligens gir etiske dilemmaer Kunstig intelligens (AI) er en teknikk der datasystemer innehar egenskapen til å «lære» av egne erfaringer og løse nye problemer. Denne egenskapen kan minne om menneskelig intelligens.I likhet med mennesker må disse maskinene «læres» forskjellen på riktig og galt. Ved bruk av maskinlæring og annen kunstig intelligens kan enorme mengder data behandles raskt, og i slike tilfeller er risikoen for personvernkrenkelser høy dersom den behandlingsansvarlige ikke har innebygd personvern, sikkerhet og bruk av teknikker for å redusere risikoen for brudd på personopplysningssikkeheten i fokus.Det er mange eksempler som belyser de etiske utfordringene som kunstig intelligens innebærer. Et eksempel er den førerløse bilen som oppdager en kollisjon og raskt må velge mellom å beskytte dens egne passasjerer eller fotgjengerne som krysser veien.Et annet eksempel er AI-systemet som kontrollerer hvem som får tilgang på en livreddende vaksine etter et dødelig epidemiutbrudd. Dersom 100 000 mennesker er smittet hvor det kun er vaksiner til 10 000, står systemet overfor et etisk dilemma — hvem skal prioriteres? Barn? Alenemødre? Ikke-kriminelle? Skattebetalere? Det er ingen tvil om at kunstig intelligens utfordrer etikken.De lærde strides – trussel eller bare muligheter?Det forkynnes mye om farene og fordelene ved kunstig intelligens. De lærde er delte om hvor strengt man bør regulere feltet.Man har teknologievangelister som Kai-Fu Lee, tidligere sjef for Google i Kina, som mener at kunstig intelligens er akkurat det som skal til for å redde menneskeheten.Samtidig har man dommedagsprofeter som Tesla- og SpaceX-gründeren Elon Musk, som spår kunstig intelligens som den største trusselen menneskeheten står overfor i det 21- århundret.I Global Risk Report 2017 gjennomført av World Economic Forum ble AI ansett for å være teknologien med størst nytteverdi i verden, men også den med det største skadepotensialet. Så det kan være at både evangelistene og dommedagsprofetene har rett. Den som kontrollerer dataen, kontrollerer befolkningen Cambridge Analytica-skandalen fra 2018 stikker seg ut som et eksempel på uetisk bruk av kunstig intelligens. Skandalen omhandlet selskapet Cambridge Analytica som hadde utformet maskinlæringsalgoritmer som gjenkjente individuelle amerikanske velgere og utsatte de for målrettet politisk reklame. Algoritmene som ble benyttet, var matet med privat informasjon om velgernes aktivitet på Facebook.Skandalen fungerte som en oppvåkning for lovgivere, og den bidro til at folk fikk øynene opp for bruk av kunstig intelligens som et politisk våpen.Denne skandalen illustrerte også hvordan det teknologiske landskapet endrer seg i et voldsomt tempo. Skandalen viste at det er flere regulatoriske hull som åpner opp for en uetisk bruk av AI. Samtidig viste skandalen oss at den som kontrollerer dataen, også kontrollerer befolkningen.Kunstig intelligens må ha et innbakt «etisk formål»De etiske retningslinjene tar sikte på å legge til rette for utviklingen av en pålitelig AI som maksimaliserer fordelene og minimerer farene ved slike systemer.Retningslinjene dikterer at kunstig intelligens skal utvikles, distribueres og brukes med et innbakt «etisk formål». I dette ligger det at systemet må forstå grunnleggende rettigheter, etiske prinsipper og menneskelige verdier.Retningslinjene gir føringer for hvordan målsettingen om en pålitelig AI kan realiseres. Det påpekes blant annet at det «etiske formålet» bør innlemmes i den tidligste designfasen. Avslutningsvis gir retningslinjene føringer for hvordan man vurderer påliteligheten til AI og hvorvidt en står overfor en etisk ansvarlig AI.Et tidligere utkast av de etiske retningslinjene inneholdt klare grenser for hvilke AI-aktiviteter som ikke skulle foregå på europeisk territorium. Eksempler på dette er  systemer for identifikasjon uten samtykke (ansiktsgjenkjenning) og dødelige automatiske våpensystemer («killer robots»). Det er ingen overdrivelse å si at retningslinjene minner om framtidsscenarioer fra en «Black Mirror» episode.Det er påpekt i retningslinjene at EUs utvikling av en etisk ansvarlig AI er spesielt viktig i den globale konkurransen mellom USA og Kina. Denne målsettingen synes å sikte til det politiske klimaet i disse nasjonene, som favoriserer teknologiske og økonomiske fremskritt på bekostning av grunnleggende (europeiske) etiske verdier.Det store spørsmålet er hvorvidt målsettingen kan oppnås på en måte som ikke kveler den teknologiske utviklingen i Europa, men heller posisjonerer Europa som en ledende figur innen trygg og etisk AI. Hvorvidt denne «i pose og sekk»-mentaliteten vil føre frem, blir spennende å se. Det er imidlertid klart at en etisk ansvarlig AI vil kunne forhindre Elon Musks dommedagsprofeti fra å finne sted.  «Digital totalitær stat»I Kina har myndighetene startet innføringen av et «social credit system». Systemet kombinerer store mengder data (big data), kunstig intelligens og ansiktsgjenkjenning, og gir innbyggerne en såkalt «borgerscore» som styrer hva man får tilgang på i samfunnet.Ifølge kinesiske myndighetene er systemet (selvsagt) etter alt å dømme en suksess. «Solskinnshistoriene» fra Kina inkluderer kinesiske innbyggere som nekter militærtjeneste og som en følge av dette er utestengt fra utdanningssystemet. Fotgjengere som går over veien på rødt lys, får ikke lån. Venner og familiemedlemmer av politiske aktivister, får ikke trygd eller tegne forsikring.En målsetting om en etisk ansvarlig AI kunne kanskje forhindret George Orwells «Big Brother»-karakter fra å våkne til live i et det som kan minne om ett totalitært Kina. Istedenfor sitter man igjen med et system som ifølge kinesiske myndigheter skal være på plass i hele Kina fra 2020 og vil få betydning for en femtedel av planetens befolkning.Orwells dystoptiske «1984» rett rundt hjørnet?EUs siste fremstøt for å kontrollere den fremvoksende teknologien er et godt initiativ, men bør ikke en her gå ett skritt lenger? Det er ingen tvil om at vi på sikt vil få lovgivning fra som tar sikte på å forhindre utvikling og bruk av kunstig intelligens som er uetisk. Spørsmålet er om det da ikke allerede er for seint.  De etiske retningslinjene vil bestemme hvem som reddes i trafikken, hvem som får vaksinen og hvorvidt Fitbit-klokken din kan tyste på deg til forsikringsselskapet. Det er dermed klart at det foreligger et behov for etiske retningslinjer for utvikling og bruk av kunstig intelligens.Det er ingen tvil om at vi vil få lovgivning som bygger videre på disse retningslinjene i fremtiden. Vi følger dermed spent med på utviklingen i EU når det gjelder reguleringen av kunstig intelligens.Artikkelen er skrevet av advokatfullmektig Hermon Melles og partner/advokat Magnus Ødegaard, Bing Hodneland advokatselskap.