Kunstig Intelligens er utvilsomt fantastisk på mange måter, og faktisk på god vei til å revolusjonere fagfelt som helsevesen, finans og transport for å nevne noen. AI gir oss innsikt som tidligere var umulig å oppnå. Innsikt som faktisk kan redde liv.
Men – AI er ikke et universalmiddel for alle problemer. Alt blir ikke til gull.
Muligheten for at det også blir en trussel er ganske stor, og den risikoen må reduseres. Hvis AI skal utvikles og brukes på en trygg, etisk og god måte, må myndigheter, bedrifter, utviklere og andre beslutningstagere komme på banen og jobbe sammen. Raskt. Vi trenger robuste sikkerhetsmekanismer, etiske retningslinjer, og definering av ansvar.
Slik det er nå, er det folks egne etiske kompasser som styrer
Hackere kan nå bruke AI til å automatisere ondsinnede prosesser, eller skape mer sofistikerte og effektive angrep. Etter hvert som AI-teknologier fortsetter å utvikle seg, er det sannsynlig at cyberkriminelle i økende grad vil bruke dem til kriminell gevinst.
Akkurat nå er det minimalt med regler og forskrifter for bruk av kunstig intelligens. Forslag om egen AI-lov fra EU har vært under arbeid i over to år, men fortsatt er ingenting godkjent.
Målet med denne er først og fremst å styrke reglene rundt datakvalitet, åpenhet, menneskelig tilsyn og ansvar. Slik det er nå, er det folks egne etiske kompasser som styrer, en Kardemommelov. Derfor haster det å få løsninger på plass.
Her er seks punkter som bør vurderes i prosessen:
AI er ikke en forbigående hype, det har vært her i mange år allerede - men det gjenstår å se hvor stor innvirkning det vil ha på samfunnet før et felles lovverk faktisk blir vedtatt.
Pål Aaserudseter
Sikkerhetsarkitekt i Check Point Norge