<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-W3GDQPF" height="0" width="0" style="display:none;visibility:hidden">

Europol med kraftig AI-advarsel

Kriminelle vil ta i bruk kunstig intelligens til svindel og annen kriminalitet, slår Europol fast.

    Publisert 1. apr. 2023 kl. 09.22
    Oppdatert 1. apr. 2023 klokken 09.22
    Lesetid: 3 minutter
    Artikkellengde er 700 ord
    NYTT VERKTØY: Den mye omtalte chatboten ChatGPT har både gledet og skremt mange. Europol advarer nå om hvilke muligheter slike nye verktøy gir kriminelle. Foto: Dreamstime

    Såkalte chatboter som kan skrive overbevisende tekster med utgangspunkt i innspill fra brukeren, har fått mye oppmerksomhet den siste tiden. Før påske rykket Europol og advarte om at denne teknologien ikke bare vil bli brukt til positive formål.

    Europol er EUs sentrale organ for politietterretning og -samarbeid.

    Chatboten ChatGPT, som er skapt av det amerikanske selskapet OpenAI, ble lansert i november. Brukerne kastet seg over produktet og ble forbløffet over programmets evne til å svare klart på spørsmål. ChatGPT har vist seg i stand til å lage alt fra sonetter og dataprogrammer til eksamensbesvarelser.

    – Mulighetene denne typen systemer for kunstig intelligens gir kriminelle, gir dystre utsikter, konstaterer Europol.

    Europol har nylig etablert et « innovasjonslaboratorium » som både skal se på kriminelles bruk av teknologi og mulighetene ny teknologi gir politiet i deres arbeid. Avdelingen har vurdert chatboter generelt, men har også sett konkret på ChatGPT i en serie seminarer.

    ChatGPT ble valgt ut fordi systemet i øyeblikket er det høyest profilerte og mest brukte i sitt slag, skriver Europol.

    Svindel og phishing

    En av konklusjonene er at kriminelle kan bruke ChatGPT til å innhente informasjon om nye og ukjente temaer raskt. Det kan for eksempel dreie seg om å samle opplysninger om «hvordan man kan bryte seg inn, begå terrorhandlinger eller overgrep mot barn», sier Europol i sin uttalelse.

    Å lage overbevisende tekst til svindelforsøk er også et bruksområde som skisseres. Chatbotens evne til å produsere tekst gjør den særlig effektiv i forbindelse med såkalt phishing, mener Europol.

    Et phishing-angrep gjennomføres ved å lure brukeren med en tekst og en lenke til en falsk nettside, der vedkommende lures til å legge inn innloggingsinformasjon. Deretter kan de nettkriminelle bruke brukernavn og passord til å stjele data.

    En tidligere studie gjennomført av det amerikansk-israelske selskapet Check Point Research (CPR) har også vist hvordan chatboten også kan brukes til å infiltrere nettbaserte systemer gjennom phishing.

    Propaganda og desinformasjon

    Europol sier også at ChatGPTs evne til å raskt produsere tekster som ser autentiske ut, også gjør det til et «ideelt verktøy for propaganda og desinformasjon, siden det setter brukerne i stand til å lage og spre budskap som speiler et narrativ med relativt liten innsats».

    Kriminelle med manglende teknisk innsikt kan også bruke tjenester som ChatGPT til å lage dataprogrammer, påpeker Europol.

    ChatGPT har innebygde sikkerhetssystemer som skal sette innholdsbegrensninger og hindre at systemet svarer på spørsmål som regnes som skadelige eller partiske. Europol mener imidlertid at kreative spørsmålsstillere kan omgå disse.

    Den Haag-baserte organisasjonen påpeker også at kunstig intelligens er i en tidlig fase, og at systemenes kapasiteter antas å bli enda bedre over tid.

    – Det er av største viktighet at det blir oppmerksomhet rundt dette temaet for å sikre at mulige smutthull oppdages og lukkes så raskt som mulig, uttaler det europeiske politisamarbeidet.

    Eksperter ber om pause

    BER OM PAUSE: I uken før påske gikk Elon Musk og et stort antall eksperter og akademikere ut og ba om en seks måneders pause i utviklingen av kraftig kunstig intelligens. Foto: Bloomberg

    I uken før påske gikk Elon Musk og et stort antall eksperter og akademikere ut og ba om en seks måneders pause i utviklingen av kraftig kunstig intelligens. Oppfordringen kom i et åpent brev.

    Pausen trengs for å utvikle retningslinjer som kan sikre at KI-systemene ikke utgjør en fare, mener ekspertene. Hvis ikke KI-selskapene selv setter utviklingen på vent, ber de myndighetene i verdens land om å gripe inn.

    Ekspertene mener AI-systemene har nådd et punkt der de er i ferd med å kunne løse generelle oppgaver på samme måte som mennesker. Systemer med intelligens på nivå med mennesker kan utgjøre en stor risiko for samfunnet og menneskeheten, heter det i brevet.

    – Bør vi la maskiner oversvømme informasjonskanalene våre med propaganda og usannheter? Bør vi automatisere bort alle jobbene, også de som er givende? spør ekspertene.

    Det er organisasjonen Future of Life Institute som står bak det åpne brevet.

    (NTB)