Hva er egentlig god og dårlig kunstig intelligens?
Erikson, Timmermans og Undheim
Med kunstig intelligens utvikler vi løsninger vi ikke helt kjenner og derfor heller ikke kjenner rekkevidden av. Da ser vi heller ikke de etiske dilemmaene som kan oppstå, skriver NHH-professor Bram Timmermans og medforfattere i en DN-kronikk.
Kunstig intelligens omfavnes og fryktes av oss som samfunn, virksomheter og privatpersoner. Det siste vi ønsker oss, er en verden der algoritmene skaper systematisk urettferdighet, der kunstig intelligens muliggjør fullskala overvåkning eller der sosiale medier-bots forurenser den offentlige debatten.
Vi venter på EUs foreslåtte lovverk for kunstig intelligens. Parallelt blir det diskutert en rekke ulike typer initiativ – fra å innføre et obligatorisk emne i kunstig intelligens og etikk i teknologiske utdannelsesløp, til å utvikle en profesjonsetikk for programmerere av kunstig intelligens.
Hva er egentlig god og dårlig kunstig intelligens?
Erikson, Timmermans og Undheim
Den kan, som legenes hippokratiske ed, bidra til å etablere etiske retningslinjer for det enkelte selskap som jobber med kunstig intelligens.
Myndigheter i har flere land har etablert såkalt regulatoriske sandkasser. Det er en dialogplattform der regulatoriske myndigheter og innovative virksomheter sammen utforsker hvordan løsninger basert på kunstig intelligens kan utvikles i tråd med eksisterende regelverk.
Selv uten et spesifikt lovverk spiller for eksempel personregelverket allerede inn på løsninger for kunstig intelligens.
Disse initiativene er viktige og interessante. Men de unnlater å diskutere: Hva er egentlig god og dårlig kunstig intelligens?
Utfordringene med etisk, kunstig intelligens handler ikke bare om hva vi vil eller hva vi får lov til. Det handler også om hva vi klarer å forestille oss.
Vi vil hevde at kunstig intelligens opererer i en virkelighet av «sann uvisshet». Sann uvisshet er en type uvisshet det er umulig å regne på, og som vi ikke engang har et språk for eller en bevissthet rundt.
Kunstig intelligens er komplekst, og utviklingen går rivende fort. Det er vanskelig for brukere, og etter et visst punkt også for programmerere, å forstå helt hvordan systemet virker, hvilke beslutninger det tar og hvorfor.
Med kunstig intelligens utvikler vi løsninger vi ikke helt kjenner, og derfor heller ikke kan kjenne den fulle rekkevidden av.
Erikson, Timmermans og Undheim
Med kunstig intelligens utvikler vi løsninger vi ikke helt kjenner, og derfor heller ikke kan kjenne den fulle rekkevidden av. Da kjenner vi heller ikke de etiske dilemmaene som kan følge. Vi kan ikke kalkulere potensielle opp- og nedsider med teknologien på en overbevisende måte.
Gitt denne sanne uvissheten, er det ikke nok å appellere til «det gode mennesket». Hva er egentlig godt?
Det er heller ikke nok å redusere kunnskapshull. Hva er egentlig kunnskap?
Vi må derfor fremme arenaer som øker virksomheters moralske forestillingsevne.
En forskningsartikkel i det vitenskapelige tidsskriftet «AI and Ethics» peker på regulatoriske sandkasser som en mulig løsning på dette problemet. Disse sandkassene ble etablert av myndighetene, primært som et verktøy for å lukke kunnskapsgapet. De ble laget for å avklare og veilede innovative bedrifter på hva som er innenfor og utenfor loven gjennom egne, dedikerte, tette veiledningsløp.
Datatilsynets regulatoriske sandkasse for ansvarlig, kunstig intelligens har et uttalt mål om hjelpe innovative enkeltaktører med å følge regelverket og utvikle personvernvennlige løsninger. Det skal gjøres gjennom å øke virksomhetenes forståelse for regulatoriske krav og for hvordan produkter og tjenester basert på kunstig intelligens kan ivareta kravene i personvernregelverket i praksis.
Men sandkassene kan spille en annen minst like viktig rolle: Den kan bidra til å redusere regulatorisk usikkerhet ved å gi regulatoriske avklaringer på innovative problemstillinger. Det kan gjøres gjennom unike fire til seks måneders løp, der virksomheter sammen med Datatilsynet diskuterer innovative, teknologiske løsninger
Sandkassene kan også hjelpe virksomheter til å forestille seg mulige konsekvenser av egen teknologi gjennom å tilby en åpen, kreativ og samskapende arena.
Den største utfordringen med ansvarlig, kunstig intelligens, er ikke at de fleste teknologiledere og deres selskaper mangler moralske prinsipper. Utfordringen er at de mangler moralsk forestillingsevne.
Hvis sandkassene lykkes med å fremme virksomheters evne til å se bortenfor det åpenbare, vil de også kunne bidra til å fremme virksomhetens evne til å skape bedre, mer robuste og mer ansvarlige innovasjoner.
Dette er dimensjoner som går langt utover det strengt lovmessige. Og da vil sandkassene virkelig kunne spille en sentral rolle i å fremme ansvarlig innovasjon.
Kronikken var først publisert i Dagens Næringsliv 26. februar 2023.