Artikel
Vi skal have ret til at være fri for algoritmisk manipulation

Både lovgivning og overenskomster bør i højere grad beskytte os mod at blive små brikker i det store teknologiske spil, siger Christina Colclough.

Vi skal have ret til at være fri for algoritmisk manipulation

Digitaliseringen i Danmark har været for voldsom og ukritisk, mener ph.d. Christina Colclough, der arbejder for at beskytte arbejdstagernes rettigheder. Men det kræver særlige regler, især efter udbredelsen af kunstig ­intelligens.

Tekst_ Malene Romme-Mølby
Foto_ Tim Kildeborg Jensen

Om Christina Colclough

  • Leder og grundlægger af The Why Not Lab.
  • Har tidligere været ansat som generalsekretær for Nordic Financial Unions i Stockholm, Head of EU Affairs i UNI Europa i Bruxelles, ansvarlig for Fremtidens arbejde i UNI Global Union i Schweiz og arbejdsmarkedsforsker på FAOS, Københavns Universitet.
  • Ph.d. i sociologi, Københavns Universitet.
  • Master i politisk økonomi, Lancaster University.
  • Bachelor i kulturgeografi, Københavns Universitet.

Forleden læste digitaliseringsekspert og ph.d. Christina Colclough om en app, der kan vurdere børns mentale tilstand. Et par danske folkeskoler havde testet den og så positivt på appen, der ifølge producenten kan bruges til at hjælpe børn og unge til bedre trivsel.

Christina Colclough slår opgivende ud med armene og siger:

“Har de stillet spørgsmål om, hvor børnenes data forsvinder hen? Hvis et barn bliver kategoriseret som sårbart, kan det så nogensinde slippe fra det mærkat? Ting på internettet dør ALDRIG!”

Christina Colclough har i mange år arbejdet først som arbejdsmarkedsforsker og siden i fagbevægelsen i Norden, Europa og globalt. Hun er i dag leder og grundlægger af The Why Not Lab, der arbejder for at beskytte arbejdstageres rettigheder i den digitale tidsalder.

For akkurat som ovenstående eksempel, hvor børns data kan blive misbrugt, og deres rettigheder kan blive krænket, så påvirker digitaliseringen og den kunstige intelligens’ indtog også arbejdstagernes rettigheder, påpeger Christina Colclough.

“I 2016 begyndte jeg for alvor at dykke ned i udbredelsen af kunstig intelligens (AI) og data, og hvad det ville komme til at betyde for arbejdstagerne. Jeg kunne se, at det ville eksplodere, så i 2020 forlod jeg fagbevægelsen for at kunne dedikere mig fuldstændigt til problemstillingen og sætte fokus på udfordringerne.”

At digitaliseringen er eksploderet, kan de fleste nok genkende. Men hvilke voldsomme konsekvenser det kan få for det enkelte menneske, og heriblandt den enkelte arbejdstager, er knap så udbredt. Hvordan regeringer ifølge Christina Colclough ikke formår at beskytte folks grundlæggende rettigheder i forhold til techvirksomhederne. Hvordan det bliver sværere at slippe for algoritmisk manipulation.

Først er vi dog nødt til at træde et skridt tilbage i digitaliseringens spor for helt at se kimen til den digitale blomstring eller vildtvoksning, om man vil. Dengang alle os, der blev født før mobiltelefonen, “kom sovende ind i den digitale tidsalder”, som Christina Colclough beskriver det.

“Vi blev forført af mobiltelefoner, skærme og apps. Vi var helt fortryllede og stillede aldrig det sunde spørgsmål: ‘Hvordan kan de apps være gratis?’” siger Christina Colclough.

I takt med at computeren blev stærkere og stærkere – hurtigere og hurtigere, så steg den digitale indgriben i samfundet, uden at vi var opmærksomme på det.

Vi har glemt at stille spørgsmålet: ‘Hvad betaler vi med?’
Christina Colclough

“I forhold til udviklingen af teknologier plejer jeg at sige: ‘Vi ved ikke, hvad vi ikke ved!’ Med det mener jeg, at vi ikke har kunnet gennemskue, hvilken magt de her teknologier har, og hvilken indflydelse alle de data og kvantificering af data kan have nu og på sigt,” siger Christina Colclough og uddyber:

“Derfor har vi ikke kunnet se problemet i det. Vi tænkte bare: ’Gud, hvor er det nemt og bekvemmeligt’ – og bekvemmelighed bliver fordret af dovenskab. Mobiltelefoner, apps og mange andre teknologier taler til bekvemmelighed og ønsket om nemme løsninger. Men vi har glemt at stille spørgsmålet: ‘Hvad betaler vi med?’”

For at forstå konsekvenserne skal man forstå, hvad byggestenene i digitale teknologier er, forklarer Christina Colclough. Byggestenene er data – alt fra lydfiler og tekster til fakta, tal, videooptagelser og meget mere. Alle de data bliver sammenkørt i digitale, avancerede systemer og analyseret gennem algoritmer.

“Man skal forstå data og algoritmer for at forstå konsekvenserne. Men det er jo den matematik, som mange af os aldrig helt forstod – sandsynlighedsregning, algebra, ligninger og så videre – som er med til at skabe de her såkaldte ‘fakta’, siger Christina Colclough, samtidig med at hun med to fingre på hver hånd tegner citationstegn i luften og forklarer:

“De her fakta og analyser er jo afhængige af de øjne, der ser!”

Og apropos øjnene, der ser:

“Hvem ejer data, og hvem har adgang til data i de digitale systemer, som vi beskæftiger os med for eksempel på arbejdet?” spørger Christina Colclough og giver et eksempel:

“Hvem registrerer, når lærerne logger ind og logger ud, og hvad de gør i skolens systemer? Hvor hurtigt de svarer en elev? Hvad bliver data brugt til? Bliver lærerne evalueret på baggrund af det?”

Magten er i stigende grad i hænderne på udviklerne af systemerne, og det er især et problem, fordi de fleste avancerede digitale systemer er tredjepartsteknologier og sjældent tilpasset danske forhold, pointerer Christina Colclough.

“Forholdet mellem medarbejdere og ledelse – det gode ved den danske model – er altså ved at blive udvidet til en tresomhed, hvor magtforholdet ikke er lige,” siger hun.

Algoritmer er dumme
Christina Colclough er meget bekymret over, hvordan danske politikere ser det som et mål, at Danmark skal være verdensførende i digitalisering.

“Vi har i forvejen gang i en fuldstændig vanvittig digitalisering i Danmark, hvor vi har været for ukritiske. Måske fordi vi i Danmark har en så høj grad af tillid, at vi ikke kan forestille os, at nogen vil gøre os ondt. Men den tillid skal der værnes om. For nylig udgav udenlandske forskere en artikel, der spørger, om tilliden i det danske samfund er i fare på grund af den stigende overvågning,” fortæller Christina Colclough, der oplever, at der allerede er mange skræmmeeksempler på, at digitaliseringen er gået for vidt. Og hun frygter, at mange flere vil komme, hvis ikke man formår at trække i den digitale håndbremse.

Hun nævner blandt andet, hvordan den hollandske regering måtte gå af i 2021 efter at have indført et algoritmisk system, der uretmæssigt stemplede tusinder af børnefamilier som svindlere og uberettigede modtagere af børnebidrag. Over 1.700 børn blev tvangsfjernet fra deres hjem. Det blev dog afsløret, at algoritmen var designet til at diskriminere ikke-etniske hollændere.

“Regeringen stolede blindt på systemet i stedet for at tage ansvaret på sig og forvalte systemet. Derfor opdagede de ikke den diskriminerende bias.”

Christina Colclough fortsætter med et andet eksempel fra USA, hvor en tidligere borgmester ønskede at undersøge, hvorfor byens folkeskoler fik dårligere rating end andre steder. Han hyrede et bureau, der gennem algoritmer fandt lærere, der scorede lavest i en effektivitetsmåling. Konsekvensen var, at godt 200 lærere blev fyret. En lærer tog kampen op for at forstå, hvorfor hun var blevet afskediget. Hun afslørede, at det algoritmiske systems resultater byggede på sammenligning af elevernes karakterer over to år. Faldt karaktererne, konkluderede systemet, at læreren var dårlig. Problemet var bare, at algoritmen ikke tog højde for, at det ikke var de samme elever, man sammenlignede.

“Pointen er, at algoritmerne kan være dumme og kun kan arbejde med det input, som udviklerne har givet dem. Hvis man stoler blindt på et algoritmisk system, kan det derfor få frygtelige konsekvenser,” betoner Christina Colclough.

Men er den EU-indførte persondataforordning – General Data Protection Regulation (GDPR) – ikke netop skabt for at værne om personers grundlæggende rettigheder i forhold til dataindsamling? 

“Det er en fantastisk lovgivning med en gennemgribende beskyttelse af individets data,” svarer Christina Colclough.

Hun fremhæver især artikel 13, som blandt andet pålægger arbejdsgivere, der indfører et digitalt system, at oplyse arbejdstagere om formålet med systemet, hvad der er kilder til data, og hvor længe data opbevares.

“Problemet er bare, at spørger man danske såvel som europæiske tillidsrepræsentanter, så ved størstedelen ikke, hvilke digitale systemer der bliver brugt,” siger Christina Colclough.

Persondataforordningen er også relevant i forhold til systemer, der behandler data for unge eller ansatte, der defineres som en højrisikogruppe, hvor artikel 35 foreskriver, at der laves en konsekvensanalyse i samråd med de ansatte, forklarer Christina Colclough.

“Men bliver det gjort? Er lærerne nogensinde blevet involveret i en konsekvensanalyse?” spørger hun.

Algoritmerne og al den data, der bliver skabt om os, gør os til en vare.
Christina Colclough

Danmark skal gå forrest
GDPR-reglerne er heller ikke nok, når det drejer sig om kunstig intelligens, understreger Christina Colclough.

“Kunstig intelligens, som deep learning eller machine learning, er jo anderledes end andre teknologier, fordi det hele tiden lærer og forandrer sig. Det betyder, at systemet kan blive indført på et gymnasium, hvor det pludselig begynder at anbefale eller gøre noget, som ingen rigtigt forstår. Derfor er der behov for, at man kontinuerligt holder øje med de her systemer, så de ikke kommer til at diskriminere, behandle uretfærdigt eller at videreformidle bias og diskrimination,” forklarer Christina Colclough.

Hun er blevet mere håbefuld, efter at Europa-Parlamentet har fremlagt ændringsforslag til EU’s AI forordning, der på engelsk kaldes AI Act. Her tager parlamentet godt fat i mange af de problemer og huller, der var i EU-Kommissionens udkast, vurderer Christina Colclough. AI forordningen skal snart til forhandling mellem Europarådet, Europa-Kommissionen og Europa-Parlamentet.

Christina Colclough fremhæver nogle af parlamentets vigtigste ændringsforslag, som vil have betydning for lærerne:

“EU-Parlamentet har understreget, at en arbejdsplads, der anvender et AI-system, skal udarbejde en konsekvensanalyse, og at denne analyse bør laves i samarbejde med medarbejderne. Det er en klar forbedring af EU-Kommissionens udkast, der blot krævede, at udviklerne af disse systemer skulle lave en konsekvensanalyse. Ydermere foreslår parlamentet, at der indskrives en artikel om, at medlemsstaterne gennem overenskomster eller love kan lave særlige regler, hvad angår algoritmeledede værktøjer. Det er supervigtigt.”

Hun tilføjer:

“Selvom EU-Parlamentets ændringsforslag nævner ‘governance’ 35 gange, så er det ikke tydeligt, hvad de mener med det, og hvad governance i praksis vil indebære. Her skal vi drage nytte af samarbejdskulturen i Danmark og kræve, at systemerne skal forvaltes af ledelse og medarbejdere.”

I det hele taget kan Danmark spille en meget vigtig rolle, mener Christina Colclough.

“Danmark og eventuelt resten af de nordiske lande burde gå forrest, fordi velfærden og respekten for de grundlæggende rettigheder betyder så meget for vores økonomi og samfund. Vores regeringer skal støtte Europa-Parlamentets ændringsforslag om, at medlemsstaterne via love eller overenskomster kan fastsætte særregler for brugen af kunstig intelligens på arbejdspladser. Vi skal kræve det, vi på engelsk kalder ‘inclusive governance’. Det vil sige, at de, som er subjekter af et system – på en arbejdsplads vil det blandt andet være de ansatte – skal sidde med ved bordet ved udarbejdelse af konsekvensanalyser og ved den kontinuerlige forvaltning af systemet. Det er den eneste måde, hvorpå vi med god samvittighed kan implementere teknologier med kunstig intelligens på arbejdspladser, fordi vi dermed sørger for at beskytte arbejdstagernes rettigheder,” vurderer Christina Colclough.

For akkurat som flere og flere i undervisningsverdenen bliver opmærksomme på konsekvenserne ved, at børn og unge er omgivet af skærme og algoritmer hele tiden – selv i skolen – så skal man tage et skarpt blik på, hvordan den store mængde data ændrer vores samfund, mener Christina Colclough, der giver endnu et par eksempler: I Amazons fysiske butikker i USA er der ikke fast prissætning, men ‘dynamic pricing’, hvilket betyder, at Amazons algoritmer beregner prisen på den bog, du ønsker at købe, efter at have lavet en profilering af dig. Dynamisk prissætning er ifølge hende også på vej i forsikringsselskaber og dagligvarehandlen.

“Hvis vi accepterer det her, så risikerer vi at splitte vores samfund og skade den sociale sammenhængskraft. Algoritmerne og al den data, der bliver skabt om os, gør os til en vare. Når borgerne forstår det, så tror jeg, at der vil komme en stor modreaktion, og her kunne Danmark gå forrest og kræve helt klare betingelser, transparens og ansvarlighed i forhold til udbredelsen af kunstig intelligens og digitalisering,” anfører Christina Colclough, der også opfordrer gymnasielærerne til at begynde at stille kritiske spørgsmål på skolen:

‘Hvem har adgang til vores data? Hvilke langtidskonsekvenser kan det få? Har skoleledelsen styr på det? Og er systemerne udviklet i overensstemmelse med dansk undervisningskultur og arbejdsmarkedstradition?’

“De fleste af os ønsker formentlig stadig at bruge teknologier, men teknologien skal servicere os og ikke omvendt. Vi skal sørge for at få de kompetencer, vi skal have for at stille de rigtige og kritiske spørgsmål om digitale systemer. Og vi skal have ret til at være fri for algoritmisk manipulation – ret til bare at være,” siger Christina Colclough og uddyber:

“Komponisten Debussy talte om, at musikken ikke er i noderne, men i den stilhed, der opstår imellem noderne. Vi skal forlange mere algoritmisk stilhed.”

Kommentar til artiklen

Skriv et svar

Anbefalede stofområder
Anbefalede emner

Artikler

Meninger

Anmeldelser

Ingen resultater