Artikel
Professor advarer: Tech-giganter udfordrer vores individuelle rettigheder
Magasin6_Udsyn_Rebecca_Topbanner

Et af de helt store spørgsmål er, hvilken betydning udbredelsen af kunstig intelligens som ChatGPT kan få for borgernes adgang til informa­tion og for den offentlige samtale. Hvordan det kan påvirke demokratiet, mener Rebecca Adler-Nissen.

Professor advarer: Tech-giganter udfordrer vores individuelle rettigheder

De digitaliseringsivrige politikere skal i gang med skabe værn mod kunstig intelligens. For manglende transparens og kontrol af teknologierne kan få store konsekvenser. Det mener professor i statskundskab Rebecca Adler-Nissen.

Tekst_ Malene Romme-Mølby
Foto_ Jacob Nielsen

Rebecca Adler-Nissen

  • Født i 1979.
  • Professor på Institut for Statskundskab, Københavns Universitet.
  • Director of Strategic Partnerships, Copenhagen Centre for Social Data Science.
  • Medlem af Center for Europæisk Politik.
  • Leder af forskningsprojektet Digital Sovereignty.
  • Medlem af regeringens ekspertgruppe, som skal understøtte arbejdet med at sætte rammerne for tech-giganterne.
  • Forfatter til flere samfundsfaglige bøger og artikler.
  • Modtager af flere priser blandt andet EliteForsk-prisen.

Det var aldrig sket med ny medicin eller andre gennemgribende nyopfindelser, som direkte påvirker mennesket. At man tillader, det bliver udrullet så hurtigt og voldsomt i ­hele samfundet – og uden kontrollerede forsøg og test. Men sådan er det sket med generativ kunstig intelligens.

Det mener Rebecca Adler-Nissen, der er professor i statskundskab på Københavns Universitet.

Hun forsker i digitale teknologier, international politik, diplomati og EU og sidder i regeringens ekspertgruppe, som skal understøtte arbejdet med at sætte rammerne for tech-­giganterne.

Siden OpenAI’s chatbot ChatGPT blev lanceret for godt et år siden, er den blevet udbredt i en grad og med en hastighed, som ikke er set tidligere. Det har også gjort, at det virker, som om mange, heriblandt myndighederne, har sovet i timen. Retfærdigvis bør man dog bemærke, at selv forskere med faglig indsigt i sprogmodeller og kunstig intelligens også var overraskede over den hurtige udvikling, siger Rebecca Adler-Nissen.

“Udviklere af sprogmodeller havde ikke regnet med, at man ville frigive ChatGPT til alle, når man ikke havde testet den mere. De sammenlignede det med at give almindelige mennesker koden til affyring af USA’s atommissiler. Jeg tror, mange vil ­mene, at det er et kæmpe etisk problem  – måske endda en skandale,” vurderer hun og fortsætter:

“Nogle vil måske ­retfærdig­gøre det med, at de sofistikerede chatbotter alligevel var kommet før eller siden, og at de allerede giver os gevaldige og meget positive produktivitets­gevinster. Men var det sket bare om ét år eller to, havde vi ­fået lovgivningen på plads. Spørgsmålet er nu, om vi når at regulere, inden den har gjort så meget skade, at vi ikke kan råde bod på det?”

Tiden og lukketheden er ret essentiel i anskuelsen af ChatGPT og andre sprogmodeller som Metas ­Llama, der er i stand til at generere nyt, unikt indhold for eksempel tekst eller billeder.

“De vil ikke fortælle, hvilken og hvor meget data sprogmodellerne er trænet på, og hvilke bias og stereo­typer de bygger på. Vi ved heller ikke, hvordan modellerne opfører sig over tid. Men vi ved, at de nu kan rette sig selv. De bliver stadigt bedre, jo ­mere vi bruger dem og fodrer dem med ­data. Meget af det data er høstet ulovligt; det er altså beskyttet af ophavsret. Det er kunstnere, forfattere, designere og helt almindelige menneskers værker,” pointerer hun.

Rebecca Adler-Nissen frygter, at de svageste vil komme til at be­tale den højeste pris for udrulningen af kunstig intelligens i samfundet, hvis ikke man kan få lov at se, hvordan modellen er nået frem til sit resultat, og på hvilket grundlag herunder hvilke bias der er i data.

“Vi kan få en helt grotesk situa­tion, hvor vi ikke kan forklare, hvorfor folk bliver afvist til en ældre­bolig eller et lån – nogle af de ting, som man formentlig om kort tid vil bruge kunstig intelligens til.”

Tech-giganterne vil have mere information om personen end de fleste efterretningstjenester.
Rebecca Adler-Nissen, professor
Institut for Statskundskab, Københavns Universitet

Fanget i tech-giganternes net
Rebecca Adler-Nissen er især optaget af magtkoncentrationen.

“Det er meget få, men meget ­store tech-virksomheder, som besidder meget information om os, og som har udsigt til at konsolidere deres magt. De har allerede nu en stor mængde information om os fra vores færden på nettet, samtidig med at de har ­data om os fra sociale medier. Den viden sælger de. Vores individuelle privatliv og rettigheder er dermed presset, og det kan udvikle sig til et nationalt sikkerhedsproblem,” anfører hun og giver et eksempel:

En tech-virksomhed som Google har hele søgehistorikker på ­millioner af mennesker. Hvis en person for eksempel har spurgt Bard – der er ­Googles svar på ChatGPT – om emner som selvskade, seksuel orientering ­eller skizofreni, så udgør de følsomme oplysninger en hel sundheds­journal sammen med alle de øvrige data om personen.

”Hvis personen senere overvejer at blive statsminister, vil tech-giganterne have mere information om personen, end de fleste efterretningstjenester kan drømme om. Det er en problematisk situation, for personen kan afpresses, eller følsom infor­mation kan lækkes til fjendtlige ­aktører,” siger Rebecca Adler-Nissen.

Situationen bliver endnu mere ­kritisk i en tid med geopolitisk usikkerhed, advarer professoren.

”Amerikanerne er vores ­allierede, men vi ved ikke, hvad der sker i Det Hvide Hus. Hvad nu hvis en Trump-type vinder det amerikanske præsidentvalg og siger, at han vil ­vide alt, hvad virksomhederne ved om Mette Frederiksen? Eller hvad nu, hvis tech-giganterne pludselig skruer op for prisen for deres abonnementer til generativ kunstig intelligens? Vi ved jo, at lige nu er ChatGPT en ­underskudsforretning.”

Mange af problemerne i den digitale verden kan spores tilbage til tech-virksomhedernes forretningsmodel, påpeger Rebecca Adler-Nissen.

”Tech-giganterne bruger os som billigt kvæg til at generere penge. Vores data bliver solgt til tredjepart, som så kan kanalisere annoncer i ­retning af os. Efterhånden som det meste af vores informationssøgning og beslutningsunderstøttelse foregår på en håndfuld virksomheders platforme, cloud-løsninger og chatbotter, udfordres vores privatliv, virksom­heders forretningshemmeligheder, vores individuelle autonomi og vores evne til at træffe egne beslutninger,” siger professoren og illustrerer det med en sammenligning til den analoge verden:

Det svarer til, at al vores adfærd, når vi besøger biblioteket, registreres. Det vil sige både de bøger, vi læser i dybden, dem, vi skimmer, og dem, vi kigger lidt på i smug. Der vil også være registreret, hvor meget tid vi tilbringer ved de enkelte bøger. Når vi så forsøger at arbejde os hen imod udgangen af biblioteket, vil en meget insisterende bibliotekar gøre det svært at forlade stedet ved at blive ved med at smide bøger i vores retning – både de bøger, som vi læser i fuld offentlighed, men også de bøger, som omhandler lidt mere private emner.

”Hele din virkelighed og eksistens vil blive fanget ind af dine histo­riske søgninger og din adfærd, og du vil dermed været fanget i det net, som du selv og din brug af tech-giganternes løsninger har skabt,” siger ­Rebecca Adler-Nissen.

Hun minder om, at tech-virksomhederne har mange psykologer og neurologer ansat til at sikre, at vi forbliver på deres platforme.

Magasin6_Udsyn_Rebecca_02

​Vigtigere at kunne tænke selv
Rebecca Adler-Nissen mener, det er svært helt at forudse, hvilke konsekvenser kunstig intelligens vil få for samfundet. Hun tror, at det kan få ­gevaldige positive konsekvenser for innovation inden for sundhed og ­klima. Det vil også effektivisere mange kedelige og langsommelige processer, men meget afhænger af, hvordan man præcist implementerer og regulerer den.

Et af de helt store spørgsmål er, hvilken betydning udbredelsen af kunstig intelligens som ChatGPT kan få for borgernes adgang til informa­tion og for den offentlige samtale, ­siger hun. Hvordan det kan påvirke demokratiet.

“Helt centralt i de fleste definitioner af det repræsentative demokrati er, at borgerne kan oplyse sig om verden og derved træffe valg og stemme på nogle mennesker, som så repræsenterer dem. Men den demokratiske proces udfordres, når information genereres automatisk og på platforme, der er uden for vores kontrol,” siger hun.

“Der er risiko for, at vi i Danmark får seks millioner forskellige virkeligheder genereret af de seks millioner forskellige personaliserede, syntetiske virkeligheder. Problemet er altså ikke alene misinformation og deep fakes, men også den dybe individualisering. Som det ser ud nu, ­lærer de kommercielle chatbotter os bedre og bedre at kende og fodrer os med den version af verden, som får os til at blive hængende – ikke den version, der udfordrer os eller støder os. Jeg er meget optaget af, at et demokrati kræver et vist overlap af fælles virkelighedsforståelser. Det betyder ikke, at vi skal være enige om alting, men demokratiet er afhængigt af, at der er en form for ‘ground truth’, som et større fællesskab i samfundet er enig om.”

Hun frygter, at ‘grundsand­heden’ får sværere og sværere kår, fordi tech-giganternes platforme faciliterer personificeret information, som er påvirket af ens tidligere digitale handlingsmønstre.

“Frem for alt så er tech-gigant­erne drevet af at tjene penge – ikke af et oplysnings- eller debatideal,” pointerer hun.

Rebecca Adler-Nissen er meget bekymret over den måde, vi har indrettet – eller nærmere ladet andre indrette – vores digitale infrastruktur uden at stille krav.

Og det undrer hende, hvor mange der har svært ved at forstå skygge­siderne ved det. For kort tid holdt hun oplæg for skolefolk, der spurgte hende, hvordan man skal undervise i det. Hun svarede:

”Lær først eleverne om forretningsmodellen og den globale magtkoncentration, hvor de giver deres data væk. Kunstig intelligens er ­ikke gratis, vi betaler en meget høj pris med vores data.”

Det er desuden vigtigt, at ­eleverne forstår teknologien, der er bag generativ kunstig intelligens og sprog­modeller som ChatGPT.

“Eleverne skal forstå, at sprog­modellen på den ene side er super­avanceret, fordi den meget hurtigt kan svare på alt muligt. Men på den anden side er den jo superprimitiv, fordi den ikke kan forklare dig, hvorfor den er kommet med det svar, eller hvor sandsynligt det er, at svaret er korrekt,” siger hun.

Sprogmodellen bruger noget, der kaldes et neuralt netværk, som måske lyder som en hjerne, men som faktisk er et matematisk system, der analyserer store mængder data, forklarer hun. Chatbotten fungerer ved at skrabe for eksempel internettet for digital tekst eller billeder. Den indsamler oplysninger fra websteder, sociale medier og databaser, men den vælger ikke nødvendigvis de mest pålidelige kilder. Selvom chatbotter kan virke troværdige, er de ikke altid pålidelige og kan producere indhold, der er stødende, racistisk, forudindtaget, forældet eller forkert, advarer professoren.

“Det er så vigtigt, at eleverne forstår, at kunstig intelligens trods navnet ikke er intelligent på den ­måde, vi normalt forstår menneskelig intel­ligens. Den siger det, der er mest sandsynligt, ikke det, der er sandt,” siger Rebecca Adler-Nissen.

Hun har noteret sig, at der har ­været meget diskussion om vigtig­heden af faget teknologiforståelse.

”Jeg tror bare, at det er lige så vigtigt at vide, hvem der tjener penge på brug af bestemte produkter, hvordan de er designet, hvilke data de bygger på, og hvilke begrænsninger de har som at vide, hvordan man bruger dem. Kunstig intelligens kan ikke ­begrænses til ét fag. Det kommer til at ændre hele vores forestilling om viden, og hvordan vi skal lære.”

Derudover mener hun, at man i uddannelsessektoren bør erkende, at “Pandoras æske er åbnet,” i stedet for at tænke sig tilbage til en tid inden ChatGPT. For man kan ikke bare ­lukke for sprogmodellerne nu.

”Og så skal vi have en helt grundlæggende drøftelse af, hvad de studerende og eleverne skal lære. Hvad er videnskab? Hvad kan kunstig intel­ligens, og hvad kan mennesket?”

Rebecca Adler-Nissen mener, at det er en oplagt mulighed for at se på, om undervisningen og eksamen er indrettet til det nuværende samfund. Hun tror, at der vil være behov for at have eksamen både med og uden hjælpemidler.

“Jeg tror, at det i fremtiden får endnu større værdi at kunne tænke selvstændigt. Derfor er det meget vigtigt, at vi træner de studerende i at klare sig uden hjælpemidler og at tænke selv. Vi er nødt til at have nogle mennesker, der både kan klare sig med og uden teknologierne,” fastslår hun.

Tech-giganterne bruger os som billigt kvæg til at generere penge.
Rebecca Adler-Nissen, professor
Institut for Statskundskab, Københavns Universitet

Tilsyn af kunstig intelligens
I mange år har der overvejende ­været, hvad Rebecca Adler-Nissen beskriver som digitaliseringsivrige politi­kere. Men hun oplever, at det er ved at gå op for politikerne, at vores ver­sion af digitalisering allerede har haft ­nogle ikke-­intenderede konsekvenser og sandsynligvis vil få endnu ­flere, hvis ikke man træffer radikale beslutninger. Der vil også være et stort behov for ­regulering af kunstig intelligens.

“Den gode nyhed er, at man kan ­gøre ret meget, og man er allerede langt i forsøg inden for sprogteknologien og kunstig intelligens, hvor man ­tager hensyn til grundlæggende rettig­heder,” fortæller Rebecca Adler-­Nissen.

Hun fremhæver især EU’s forordning om kunstig intelligens, den såkaldte AIAct, som det spanske formandskab håber at forhandle færdig inden jul.

“Der er masser af fornuftige tiltag og regler på vej over hele verden, men meget er endnu ikke afklaret, for ­eksempel hvordan man præcist finder ud af, om generative chatbotter kategoriseres som høj risiko, hvor man har højere krav til blandt andet datakvalitet og menneskeligt tilsyn,” nævner hun.

Desuden vil der gå to år, inden de nye EU-regler kan træde i kraft, ­fordi man vil give virksomheder og bor­gere tid til at tilpasse sig reglerne.

Men der er også meget, der ikke står i forordningen, som afhænger af, hvordan man praktisk implementerer kunstig intelligens, understreger professoren.

“Hvert land, hver kommune, hver skole og hver lærer skal gøre op med sig selv, hvordan man vil anvende kunstig intelligens: hvad er godt, og hvad er uforsvarligt? Og så skal vi finde frem til ‘good governance’ – altså den gode forvaltning. Det er vi slet ikke rustet til endnu,” siger hun og begrunder, hvorfor der er behov for særlige tiltag og regler i forbindelse med kunstig intelligens:

“Det er en kæmpe udfordring, at vi har sprogmodeller, som er ‘black boxes’, der udvikler sig. De kan godt være skabt, så de fra start lever helt op til forordningen, men de udvikler sig jo over tid. Hvordan skal vores lovgivning og vores forvaltning tage højde for det?”

Rebecca Adler-Nissen mener også, at der bør føres en form for eksternt tilsyn, hvis kunstig intelligens bruges i den offentlige sektor. Det kunne være et organ lidt som Ombudsmanden og Rigsrevisionen, der løbende kunne holde øje med brugen af teknologierne og teknologiernes udvikling.

Derudover fremhæver hun ‘­value alignment’ – altså den måde, som den generative kunstige intelligens tilpasses og modereres i forhold til værdier. I starten var ChatGPT villig til at svare på alt muligt: opskriften på sennepsbomber og hvordan man mest effektivt brækker sig efter at have overspist. Men nu er chatbotten blevet tilpasset af OpenAI, og det ­bliver den løbende, når brugere op­dager upassende svar, forklarer hun. I Kina har styret nu indført regler, som kræver, at sprogmodellernes svar flugter med det kinesiske kommunistiske partis holdninger. Men vi ved ikke præcist, hvordan de chatbotter, vi bruger, er ‘alignet’.

“Har vi i Europa eller Danmark særlige tanker om, hvad man kan eller ikke kan få svar på? Skal chatbotten have lov til at være racistisk, drillende, satirisk eller homofobisk? Hvad der er provokerende i et land, er det jo ikke nødvendigvis i et andet land? Disse spørgsmål er kulturelt og historisk forankrede, selvom de selvfølgelig også er universelle,” siger ­Rebecca Adler-Nissen, der undrer sig over dem, der opfatter value alignment som censur, men overser, at vores information på nettet jo ikke er fri.

“De store chatbotter og sociale medier tilpasses løbende af tech-­giganter, det er jo en form for censur, som vi dog ikke kender detaljerne af. Dertil er de jo begrænsede af kvaliteten og mængden af den data, de er trænet på,” siger hun og fortsætter:

“De fleste kan vel se fornuften i, at det ikke er tech-giganterne, der alene skal bestemme, hvad du i fremtiden kan få svar på, og hvilke slags svar du må få: Kort sagt hvilke værdier der skal gennemsyre den offentlige og private meningsdannelse. Derfor skal vi kræve transparens, og at vi selv kan styre kunstig intelligens.”

Kommentar til artiklen

Skriv et svar

Anbefalede stofområder
Anbefalede emner

Artikler

Meninger

Anmeldelser

Ingen resultater