Mens kunstig intelligens (KI) kan gjøre ting bedre, raskere og billigere enn mennesker, kan også KI feile på måter mennesker aldri kan, skriver kronikkforfatterne.

Meninger:

Kunstig intelligens kan bli en gamechanger for humanitær sektor

Bistandsmyndigheter, frivillig sektor og enkeltansatte bør engasjere seg langt sterkere i diskusjonen om hva slags konsekvenser generativ kunstig intelligens (KI) får for humanitært arbeid. 

Dette er en kronikk. Meninger i teksten er skribentenes egne.

Kronikkforfattere:

  • Kristin Bergtora Sandvik, UiO / Prio 
  • Kristoffer Lidén, Prio 
  • Maria Gabrielsen Jumbert, Prio

Sommeren 2023 diskuterte FN det akutte behovet for å kontrollere og regulere generativ kunstig intelligens (KI), som er den teknologien som Chat GPT, Bard og tilsvarende applikasjoner bygger på. 

I den humanitære sektoren er forventningene til KI avventende: Mens det er håp om at ny teknologi kan gjøre nødhjelp raskere, bedre og mer effektiv, stilles det også spørsmål ved om denne teknologien blir den neste AK-47

Tre ting er særlig viktig når norske aktører fortsetter å utvikle og avklare sin bruk av KI:

En virkelig «gamechanger»

Den humanitære sektoren har gjennomlevd et tiår med intenst fokus på digitalisering og innovasjon og stor fanfare rundt teknologiske «gamechangers». Her er endelig en gamechanger: Generativ KI som gir brukerne mulighet til å produsere nytt innhold – ord, bilder, videoer – ved å gi instruksjoner til systemet. Chat GPT er den mest kjente versjonen så langt, men mange andre lignende produkter er lansert siden, som Bard av Google og bildeproduserende verktøy som DALL-E (også av Open AI), Midjourney, og Stable Diffusion.

Spørsmålet er bare hvilket «game» og hva slags «change» denne teknologien representerer for sektoren. Humanitære aktører arbeider per definisjon med sårbare grupper i akutte krisesituasjoner. Mens KI kan gjøre ting bedre, raskere og billigere enn mennesker, kan også KI feile på måter mennesker aldri kan. 

I de kommende månedene og årene vil mye endre seg både med teknologien i seg selv og hvordan den brukes i nødhjelpsoperasjoner. Givere, organisasjoner og den enkelte humanitære arbeider må håndtere både eget forhold til teknologi, hva som er spesielt med generativ KI, hvilke muligheter man har til å forbedre bistanden, hva som utgjør risikomomentene og hvordan man kan håndterer kjent og ukjent risiko.

Eksperimentell teknologi

Generativ KI må sees som uregulert, eksperimentell teknologi. Offentlige diskusjoner rundt regulering av kunstig intelligens har ofte antatt et skjær av magi og trolldom. Denne fortryllelsen er i ferd med å bli brutt, ettersom EU, kinesiske, og amerikanske myndigheter kvesser lovgivningsklørne. Selv om effektiv lovgivning kommer på plass, er de underliggende konsekvensene for den humanitære sektoren store. 

Ikke bare utgjør bruk av generativ KI i humanitære operasjoner en form for eksperimentering, men man risikerer at selve styrings- og administrasjonsstrukturene i sektoren blir en del av denne eksperimenteringen. Dette betyr at diskusjoner rundt humanitær etterrettelighet ikke bare må fokusere på kontroll over teknologien, men også hvordan KI griper inn i styringsmodellene i den humanitære sektoren. 

De humanitære aktørene har selv ansvaret for å bygge kompetanse på dette området. Både organisasjonene og deres ansatte har et ansvar for å reflektere over hvordan man balanserer en fremoverlent og en ansvarlig bruk av KI, og for å tenke over hvordan dette påvirker både de humanitære operasjonene og arbeidshverdagen til den enkelte.

Fokus på strategisk tenkning og verdier

Det mangler strategisk tenkning rundt bruk av KI i det humanitære feltet, både blant givere og organisasjoner. Ingen av de store giverlandene har så langt inkludert kunstig intelligens i sine humanitære strategier. Mens dette er arbeid som haster, bør myndigheter og store aktører involvere de humanitære organisasjonene i dette arbeidet. 

Norges nåværende humanitære strategi ble lansert i 2018 og utløper i 2023. Denne strategien begrenser seg stort sett til å observere at «digital advances and the use of data are creating new challenges». Den neste strategien bør ha et godt grep om nasjonal KI-politikk, KI som utenrikspolitisk utfordring og KI som humanitær ressurs. Samtidig må aktørene på organisasjonsnivå legge opp til bred deltagelse når de skal utforme sin egen KI-strategi. Det holder ikke at noen IT-konsulenter tar ansvar – dette er prosesser som må forankres hos alle ansatte.

For Norge som giverland må det være en logisk sammenheng mellom hva de geopolitiske og regionale interessene er med hensyn til KI og hvordan man ser for seg bruk og kontroll av KI i det humanitære feltet. Et grunnleggende spørsmål å stille er for eksempel om KI bør sees som et offentlig gode i Norges humanitære politikk. 

Mens Norge er en viktig støttespiller for Digital Public Goods Alliance, så nevner ikke den norske KI-strategien fra 2020 KI som et offentlig gode. I samme leia er spørsmål om hvordan kjernepunkter i tidligere strategier, såkalte «norske verdier» (rettsstatlige verdier, sosial demokrati, likhet, demokrati, deltagelse, høy tillit) og «den norske modellen» (nært samarbeid mellom staten og sivilsektor) forholder seg til KI. Er det for eksempel på tide med en mer kritisk innstilling til hvordan tillit gjør det enklere både å samarbeide på tvers av sektorer og å styre befolkningen?

Globalt går forsøkene på å kontrollere teknologiindustrien og regulere ny teknologi nå noe raskere. Mens denne utviklingen vil sette skranker for humanitær sektors teknologibruk, fratar den ikke sektoren ansvaret for å regulere seg selv. Regulering er heller ikke det samme som strategi. 

Kort sagt: en humanitær KI-strategi må bygge gjennomtenkte balanseganger og fokus på verdier. Den kan ikke være løsrevet fra en overnasjonal, nasjonal eller utenrikspolitisk KI-strategi. Den humanitære sektoren bør ta utgangspunkt i sitt eget mandat – å avhjelpe menneskelig lidelse i konflikt og krise – og sektorenes grunnleggende verdier som formulert gjennom de humanitære imperativene og prinsippene: å ikke gjøre skade og å opptre upartisk, ikke-diskriminerende og humant.

Powered by Labrador CMS