Anbefalingsspecial: Hvordan anvender vi kunstig intelligens på en etisk måde?
INVIs analysechef, Sofie Burgos-Thorsen, står i spidsen for udviklingen af Model for Vilde Problemer. Unikt for Sofies arbejde med data er en distinkt datafeministisk tilgang, der beror på en kritisk tilgang til magt og fastlåste videnssystemer, som hun brænder for at vende på hovedet og skubbe til.
Derfor stiller hun altid spørgsmålet: Hvilken viden og erfaring går vi glip af med de konventionelle metoder og værktøjer, vi bruger til at beslutte svære ting? Kan vi udvide vores datafantasi ved at inddrage en større diversitet af perspektiver – særligt de mennesker, der oplever problemerne tæt på, som har relevant erfaring og viden, der ofte overses eller ignoreres?
Ifølge Sofie, indebær dette at være nysgerrig og åben overfor mulighederne i digitale teknologier som eksempelvis kunstig intelligens – men uden at være blinde for de bias og udfordringer, der også kan være forbundet med dem.
Her kan du læse om tre bøger, som Sofie Burgos-Thorsen er blevet inspireret af i arbejdet med, hvordan vi skaber et etisk fundament for INVIs Model for Vilde Problemer.
-
Sofie Burgos-Thorsen har gennem de sidste 10 år arbejdet med digital innovation, participatorisk design, kunstig intelligens og byplanlægning på tværs af forskning og praksis med erfaring fra blandt andet Copenhagen Institute for Futures Studies, Techfestival Copenhagen, og Gehl Arkitekter.
Hun er uddannet sociolog, har en PhD fra Tekno-Antropologisk Laboratorium, samt MIT og brænder for at bygge bro mellem datavidenskab, design justice, og sociologiske analyser, med henblik på at skabe social forandring inden for strategi, design og politik.
#1
Atlas of AI af Kate Crawford
Crawford argumenterer for, at AI ikke er en neutral teknologi, men er baseret på omfattende udvinding af sjældne mineraler, dataindsamling uden samtykke og arbejdskraft fra mennesker i udnyttende forhold. Hun belyser, hvordan AI-systemer forstærker eksisterende uligheder og gavner store tech-virksomheder, mens almindelige mennesker bliver overvåget og undertrykt.
Hun gør AI håndgribeligt. For mange er kunstig intelligens noget immaterielt, som ligger oppe i en sky. Crawford trækker det ned på jorden, og på baggrund af mere end et årtis forskning synliggør hun fra en ny og spændende vinkel, hvad AI er for en teknologi. Noget af det nyeste fra Crawford er desuden det imponerende projekt “Calculating Empires A Genealogy of Technology and Power Since 1500”, som hun har lavet med Vladan Joler, og som man kan finde online her.
#2
Data feminism af Catherine D'Ignazio af Lauren Klein
Den her bog er også med til at informere, hvordan vi griber AI an hos INVI. Catherine og Lauren afdækker, hvordan AI ofte reproducerer ulighed og assymetriske magtdynamikker i samfundet. Men imens Crawford fokuserer mest på de negative sider af AI, så undersøger Catherine og Lauren også, hvordan vi kan bruge teknologierne til at skabe positiv forandring – hvordan teknologien også kan være svaret på bekymringerne. Som de skriver, så er datametoder og AI et tveægget sværd, og vi bør melde os ind i kampen for at skabe transparente, ansvarlige, og demokratiske anvendelser af AI. Dén ramme, såvel som de syv datafeministiske principper præsenteret i bogen, er til stor inspiration for den måde vi arbejde med AI på i INVI.
Bogen er desuden open acces hos MIT Pess, så alle kan læse med.
#3
Design Justice af Sasha Costanza-Chock
I Design Justice undersøger Sasha Costanza-Chock, hvordan design der involverer marginaliserede grupper, kan nedbryde strukturel ulighed, fremme frigørelse og skabe socialt bæredygtige løsninger. Costanza-Chock giver os skarpe argumenter for, hvorfor det er værdifuldt at involvere mange forskelligartede stemmer i udviklingen af løsninger på samfundets vilde problemer. Det er helt centralt for dét vi gerne vil med vores Model for Vilde Problemer - øge inddragelse, bringe flere stemmer til bordet, samt skabe større diversitet i det beslutningsgrundlag der informerer beslutningstagen. Både fordi vi tror på, at det skaber retfærdighed og legitimitet, men også fordi det simpelthen giver os bedre løsninger. Hvis vi tager budskabet fra Sasha helt seriøst, så kalder Design Justice også på at vi bør involvere forskellige stemmer i den måde vi udvikler vores Model for Vilde Problemer. Det gør vi allerede til dels, men vi håber på at åbne mere op over det næste års tid, og invitere forskere, studerende, og forskellige praktikere til at være med til at give forskellige blikke på, hvordan vi skal tænke om bias og “ansvarlig AI” i relation til vores model.
Design Justice er også open access hos MIT Press her!