Annonse
09:23 - 10. april 2018

Kunstig intelligens setter opp et speil for våre egne fordommer, skriver Anita Schjøll Brede

Kunstig intelligens setter opp et speil for våre egne fordommer, skriver Anita Schjøll Brede.

Vi står foran en kunstig intelligens-revolusjon. Her rører en kvinne ved en robot utviklet av Darpa (Defense Advanced Research Projects Agency) i USA. Foto: Chip Somodevilla/Getty Images
Annonse

Teknologien og oss

 

Anita Schjøll Brede er teknologi-gründer som bor i Norge og Silicon Valley. Dette er første tekst i en serie på tre der hun skriver om hvordan teknologien speiler vår egen menneskelighet. Denne uken: Slik viser kunstig intelligens oss våre egne fordommer.

 

Tall lyver ikke, har jeg alltid hørt. Data er den nye oljen, påstås det videre, og bare vi har nok av disse tallene, denne dataen, disse tabellradene med sensorinformasjon, så kan vi løse alle verdens problemer med en dæsj kunstig intelligens.

Vi står så absolutt midt i en KI-revolusjon, der fagfeltet kunstig intelligens etter flere tiår med kun spede vårer og fryktelig kalde vintre nok en gang blomstrer opp, og denne gangen med nok databehandlingskraft (tilgang på maskiner) og tilgang på data (takket være internett) til at vi faktisk kan høste fruktene av tiår med teoretisk arbeid. To jentunger i en garasje kan i dag bygge systemer som man for bare et par-tre tiår siden måtte være professor med tilgang på en supercomputer for å få til.

Enkelt forklart for den ennå ikke innvidde leser så er forskjellen på «vanlige» dataprogrammer og dataprogrammer bygget med kunstig intelligens, også kalt maskinlæring i disse dager, eksemplifisert ved følgende: Et «vanlig» dataprogram fungerer som en kalkulator – slik at dersom A + B = C, så får du C hver eneste gang du skriver inn A + B. Et KI-basert program derimot, henter svarene sine fra dataen det har tilgjengelig. Så dersom A + B = C når programmet først kjører i gang, så kan godt svaret bli noe helt annet når programvaren har sett mer data over tid. Vi kan kalle dette at programvaren er bygget mer som vår menneskehjerne: vi lærer også over tid, og kan godt finne på å bytte mening når vi har funnet ut mer om et emne, eller gjort oss mer eller mindre smertefulle erfaringer. (I denne sammenheng er det verd å merke seg at vi ennå ikke vet hvordan menneskehjernen fungerer, så dette er kun en sammenligning for illustrasjonen og inspirasjonens skyld).

Programvaren er bygget mer som vår menneskehjerne

På samme måte som et barn er fullstendig prisgitt omverdenens holdninger for å skape sin egen virkelighet, så er disse maskinene helt prisgitt dataen vi mater de med. Og når vi som mennesker ikke er nøye med datasettene vi velger oss – for husk at dette er helt konkret ett eller en liten håndfull mennesker som sier «denne samlingen bilder/tekst/tall her er riktig materiale for vår programvare å lære av» – så kan konsekvensene bli fatale. Enten det er mobilappen FaceApp som gjør et mørkhudet menneske hvitere og med smalere nese når «hot»-filteret settes på, delstaten Florida som tok i bruk et dataprogram for å anslå risiko for gjentatt kriminalitet og som viste seg å være rett ut rasistisk, det faktum at ansiktsgjenkjenning (som for eksempel på nyeste iPhone) fungerer bedre for hvite menn, eller de forskerne fra Carnegie Mellon som fant at jobbannonser for sjefsstillinger ble vist til mannlige søkere seks ganger så ofte som til kvinnelige.

Og her kommer det som jeg synes er så fryktelig spennende: de siste årene har antall diskusjoner om etikk og datasett i KI også eksplodert, i takt med teknologien. Det dette betyr, i praksis, er at vi nå åpent og ærlig diskuterer hvilke menneskelige fordommer vi tar med oss inn i algoritmene. Tygg litt på den. Fordi vi kvantifiserer, setter tall på, og regner oss frem til svar – så setter vi plutselig tall på egne fordommer. Og møter dem i døra, med et smell.

Fordi når FaceApp sitt team valgte ut et datasett bestående av kun hvite mennesker som alle gikk i kategorien «hot», så var det jo ikke med slemme intensjoner. Det var rett og slett ingen i rommet den dagen som stoppet opp og sa: «Hei folkens – skjønnhet er jo kulturavhengig, og dessuten består verden av mer enn hvite mennesker – skal vi dobbeltsjekke at vi får med bilder fra flere ulike land og etnisiteter?» Om dette rommet var hovedsakelig fullt av hvite menn som rett og slett ikke tenkte så langt vites ikke, men vi kan jo lett tenke oss det. Og debatten det har skapt, om at vi er nødt til bringe diversitet inn i teamene våre, er veldig velkommen: nettopp fordi det ikke handler om «diversitet fordi vi er snille» men «diversitet fordi det er skrikende nødvendig for vår kommersielle suksess». Man kan si hva man vil om beinhard kapitalisme, men av og til er den et hjelpsomt verktøy.

Man kan si hva man vil om beinhard kapitalisme, men av og til er den et hjelpsomt verktøy.

Vi møter fordommene våre i døra med et smell når vi innser at programvaren som serverte opp jobbannonser hovedsakelig til menn, baserer seg kun på historiske data. Og at når vi bygger programvare som skal forme fremtiden, så holder det ikke med historiske data, men også en inngående forståelse av fortiden – og et uttalt ønske om hvordan vi vil at fremtiden skal være. Løser dette problemet på direkten? Nei så absolutt ikke, men fra mitt perspektiv så er jeg utrolig takknemlig for at disse algoritmene nå tvinger oss til å ta den debatten (igjen.)

Vi møtte også fordommene våre da Microsoft’s Twitter bot Tay skulle lære seg menneskelig interaksjon fra internett. Det er en allment kjent hemmelighet at Twitters anonyme hjørner får frem det verste i mennesker, men at bot’en skulle bli en rasistisk, homofob kvinnehater i løpet av 24 timer var det ingen som forutså. Dataene som Tay lærte av var menneskeskapt, og mens maskiner hverken er ’gode’ eller ’onde’ – de er bare verktøy – så er hva vi lærer våre maskiner basert på vår egen, noen ganger smertelig utilstrekkelige, menneskehet.

Vi trenger åpne øyne og bevissthet i den revolusjonen vi er inne i, og det som er spennende er at mulighetene åpnet opp gjennom KI gjør at vi må ta de vanskelige debattene. Tørre å møte oss selv i døra. Og så lenge vi har mange stemmer i debatten – på tvers av kjønn, rase, seksualitet og funksjonsevne – så kan vi faktisk bygge en ny verdensorden inn i algoritmene. Sånn vi tenker oss at verden kanskje kan bli, hvis vi drømmer stort nok og jobber hard nok.

    i

Du har nå lest en gratis smakebit fra Morgenbladet. Vil du ha mer godt lesestoff? Bli abonnent
Annonse

Sommerkampanje med 50% rabatt på abonnement. Trykk her for bestilling.