Det var aldrig sket med ny medicin eller andre gennemgribende nyopfindelser, som direkte påvirker mennesket. At man tillader, det bliver udrullet så hurtigt og voldsomt i hele samfundet – og uden kontrollerede forsøg og test. Men sådan er det sket med generativ kunstig intelligens.
Det mener Rebecca Adler-Nissen, der er professor i statskundskab på Københavns Universitet.
Hun forsker i digitale teknologier, international politik, diplomati og EU og sidder i regeringens ekspertgruppe, som skal understøtte arbejdet med at sætte rammerne for tech-giganterne.
Siden OpenAI’s chatbot ChatGPT blev lanceret for godt et år siden, er den blevet udbredt i en grad og med en hastighed, som ikke er set tidligere. Det har også gjort, at det virker, som om mange, heriblandt myndighederne, har sovet i timen. Retfærdigvis bør man dog bemærke, at selv forskere med faglig indsigt i sprogmodeller og kunstig intelligens også var overraskede over den hurtige udvikling, siger Rebecca Adler-Nissen.
“Udviklere af sprogmodeller havde ikke regnet med, at man ville frigive ChatGPT til alle, når man ikke havde testet den mere. De sammenlignede det med at give almindelige mennesker koden til affyring af USA’s atommissiler. Jeg tror, mange vil mene, at det er et kæmpe etisk problem – måske endda en skandale,” vurderer hun og fortsætter:
“Nogle vil måske retfærdiggøre det med, at de sofistikerede chatbotter alligevel var kommet før eller siden, og at de allerede giver os gevaldige og meget positive produktivitetsgevinster. Men var det sket bare om ét år eller to, havde vi fået lovgivningen på plads. Spørgsmålet er nu, om vi når at regulere, inden den har gjort så meget skade, at vi ikke kan råde bod på det?”
Tiden og lukketheden er ret essentiel i anskuelsen af ChatGPT og andre sprogmodeller som Metas Llama, der er i stand til at generere nyt, unikt indhold for eksempel tekst eller billeder.
“De vil ikke fortælle, hvilken og hvor meget data sprogmodellerne er trænet på, og hvilke bias og stereotyper de bygger på. Vi ved heller ikke, hvordan modellerne opfører sig over tid. Men vi ved, at de nu kan rette sig selv. De bliver stadigt bedre, jo mere vi bruger dem og fodrer dem med data. Meget af det data er høstet ulovligt; det er altså beskyttet af ophavsret. Det er kunstnere, forfattere, designere og helt almindelige menneskers værker,” pointerer hun.
Rebecca Adler-Nissen frygter, at de svageste vil komme til at betale den højeste pris for udrulningen af kunstig intelligens i samfundet, hvis ikke man kan få lov at se, hvordan modellen er nået frem til sit resultat, og på hvilket grundlag herunder hvilke bias der er i data.
“Vi kan få en helt grotesk situation, hvor vi ikke kan forklare, hvorfor folk bliver afvist til en ældrebolig eller et lån – nogle af de ting, som man formentlig om kort tid vil bruge kunstig intelligens til.”
Tech-giganterne vil have mere information om personen end de fleste efterretningstjenester.
Fanget i tech-giganternes net
Rebecca Adler-Nissen er især optaget af magtkoncentrationen.
“Det er meget få, men meget store tech-virksomheder, som besidder meget information om os, og som har udsigt til at konsolidere deres magt. De har allerede nu en stor mængde information om os fra vores færden på nettet, samtidig med at de har data om os fra sociale medier. Den viden sælger de. Vores individuelle privatliv og rettigheder er dermed presset, og det kan udvikle sig til et nationalt sikkerhedsproblem,” anfører hun og giver et eksempel:
En tech-virksomhed som Google har hele søgehistorikker på millioner af mennesker. Hvis en person for eksempel har spurgt Bard – der er Googles svar på ChatGPT – om emner som selvskade, seksuel orientering eller skizofreni, så udgør de følsomme oplysninger en hel sundhedsjournal sammen med alle de øvrige data om personen.
”Hvis personen senere overvejer at blive statsminister, vil tech-giganterne have mere information om personen, end de fleste efterretningstjenester kan drømme om. Det er en problematisk situation, for personen kan afpresses, eller følsom information kan lækkes til fjendtlige aktører,” siger Rebecca Adler-Nissen.
Situationen bliver endnu mere kritisk i en tid med geopolitisk usikkerhed, advarer professoren.
”Amerikanerne er vores allierede, men vi ved ikke, hvad der sker i Det Hvide Hus. Hvad nu hvis en Trump-type vinder det amerikanske præsidentvalg og siger, at han vil vide alt, hvad virksomhederne ved om Mette Frederiksen? Eller hvad nu, hvis tech-giganterne pludselig skruer op for prisen for deres abonnementer til generativ kunstig intelligens? Vi ved jo, at lige nu er ChatGPT en underskudsforretning.”
Mange af problemerne i den digitale verden kan spores tilbage til tech-virksomhedernes forretningsmodel, påpeger Rebecca Adler-Nissen.
”Tech-giganterne bruger os som billigt kvæg til at generere penge. Vores data bliver solgt til tredjepart, som så kan kanalisere annoncer i retning af os. Efterhånden som det meste af vores informationssøgning og beslutningsunderstøttelse foregår på en håndfuld virksomheders platforme, cloud-løsninger og chatbotter, udfordres vores privatliv, virksomheders forretningshemmeligheder, vores individuelle autonomi og vores evne til at træffe egne beslutninger,” siger professoren og illustrerer det med en sammenligning til den analoge verden:
Det svarer til, at al vores adfærd, når vi besøger biblioteket, registreres. Det vil sige både de bøger, vi læser i dybden, dem, vi skimmer, og dem, vi kigger lidt på i smug. Der vil også være registreret, hvor meget tid vi tilbringer ved de enkelte bøger. Når vi så forsøger at arbejde os hen imod udgangen af biblioteket, vil en meget insisterende bibliotekar gøre det svært at forlade stedet ved at blive ved med at smide bøger i vores retning – både de bøger, som vi læser i fuld offentlighed, men også de bøger, som omhandler lidt mere private emner.
”Hele din virkelighed og eksistens vil blive fanget ind af dine historiske søgninger og din adfærd, og du vil dermed været fanget i det net, som du selv og din brug af tech-giganternes løsninger har skabt,” siger Rebecca Adler-Nissen.
Hun minder om, at tech-virksomhederne har mange psykologer og neurologer ansat til at sikre, at vi forbliver på deres platforme.
Vigtigere at kunne tænke selv
Rebecca Adler-Nissen mener, det er svært helt at forudse, hvilke konsekvenser kunstig intelligens vil få for samfundet. Hun tror, at det kan få gevaldige positive konsekvenser for innovation inden for sundhed og klima. Det vil også effektivisere mange kedelige og langsommelige processer, men meget afhænger af, hvordan man præcist implementerer og regulerer den.
Et af de helt store spørgsmål er, hvilken betydning udbredelsen af kunstig intelligens som ChatGPT kan få for borgernes adgang til information og for den offentlige samtale, siger hun. Hvordan det kan påvirke demokratiet.
“Helt centralt i de fleste definitioner af det repræsentative demokrati er, at borgerne kan oplyse sig om verden og derved træffe valg og stemme på nogle mennesker, som så repræsenterer dem. Men den demokratiske proces udfordres, når information genereres automatisk og på platforme, der er uden for vores kontrol,” siger hun.
“Der er risiko for, at vi i Danmark får seks millioner forskellige virkeligheder genereret af de seks millioner forskellige personaliserede, syntetiske virkeligheder. Problemet er altså ikke alene misinformation og deep fakes, men også den dybe individualisering. Som det ser ud nu, lærer de kommercielle chatbotter os bedre og bedre at kende og fodrer os med den version af verden, som får os til at blive hængende – ikke den version, der udfordrer os eller støder os. Jeg er meget optaget af, at et demokrati kræver et vist overlap af fælles virkelighedsforståelser. Det betyder ikke, at vi skal være enige om alting, men demokratiet er afhængigt af, at der er en form for ‘ground truth’, som et større fællesskab i samfundet er enig om.”
Hun frygter, at ‘grundsandheden’ får sværere og sværere kår, fordi tech-giganternes platforme faciliterer personificeret information, som er påvirket af ens tidligere digitale handlingsmønstre.
“Frem for alt så er tech-giganterne drevet af at tjene penge – ikke af et oplysnings- eller debatideal,” pointerer hun.
Rebecca Adler-Nissen er meget bekymret over den måde, vi har indrettet – eller nærmere ladet andre indrette – vores digitale infrastruktur uden at stille krav.
Og det undrer hende, hvor mange der har svært ved at forstå skyggesiderne ved det. For kort tid holdt hun oplæg for skolefolk, der spurgte hende, hvordan man skal undervise i det. Hun svarede:
”Lær først eleverne om forretningsmodellen og den globale magtkoncentration, hvor de giver deres data væk. Kunstig intelligens er ikke gratis, vi betaler en meget høj pris med vores data.”
Det er desuden vigtigt, at eleverne forstår teknologien, der er bag generativ kunstig intelligens og sprogmodeller som ChatGPT.
“Eleverne skal forstå, at sprogmodellen på den ene side er superavanceret, fordi den meget hurtigt kan svare på alt muligt. Men på den anden side er den jo superprimitiv, fordi den ikke kan forklare dig, hvorfor den er kommet med det svar, eller hvor sandsynligt det er, at svaret er korrekt,” siger hun.
Sprogmodellen bruger noget, der kaldes et neuralt netværk, som måske lyder som en hjerne, men som faktisk er et matematisk system, der analyserer store mængder data, forklarer hun. Chatbotten fungerer ved at skrabe for eksempel internettet for digital tekst eller billeder. Den indsamler oplysninger fra websteder, sociale medier og databaser, men den vælger ikke nødvendigvis de mest pålidelige kilder. Selvom chatbotter kan virke troværdige, er de ikke altid pålidelige og kan producere indhold, der er stødende, racistisk, forudindtaget, forældet eller forkert, advarer professoren.
“Det er så vigtigt, at eleverne forstår, at kunstig intelligens trods navnet ikke er intelligent på den måde, vi normalt forstår menneskelig intelligens. Den siger det, der er mest sandsynligt, ikke det, der er sandt,” siger Rebecca Adler-Nissen.
Hun har noteret sig, at der har været meget diskussion om vigtigheden af faget teknologiforståelse.
”Jeg tror bare, at det er lige så vigtigt at vide, hvem der tjener penge på brug af bestemte produkter, hvordan de er designet, hvilke data de bygger på, og hvilke begrænsninger de har som at vide, hvordan man bruger dem. Kunstig intelligens kan ikke begrænses til ét fag. Det kommer til at ændre hele vores forestilling om viden, og hvordan vi skal lære.”
Derudover mener hun, at man i uddannelsessektoren bør erkende, at “Pandoras æske er åbnet,” i stedet for at tænke sig tilbage til en tid inden ChatGPT. For man kan ikke bare lukke for sprogmodellerne nu.
”Og så skal vi have en helt grundlæggende drøftelse af, hvad de studerende og eleverne skal lære. Hvad er videnskab? Hvad kan kunstig intelligens, og hvad kan mennesket?”
Rebecca Adler-Nissen mener, at det er en oplagt mulighed for at se på, om undervisningen og eksamen er indrettet til det nuværende samfund. Hun tror, at der vil være behov for at have eksamen både med og uden hjælpemidler.
“Jeg tror, at det i fremtiden får endnu større værdi at kunne tænke selvstændigt. Derfor er det meget vigtigt, at vi træner de studerende i at klare sig uden hjælpemidler og at tænke selv. Vi er nødt til at have nogle mennesker, der både kan klare sig med og uden teknologierne,” fastslår hun.
Tech-giganterne bruger os som billigt kvæg til at generere penge.
Tilsyn af kunstig intelligens
I mange år har der overvejende været, hvad Rebecca Adler-Nissen beskriver som digitaliseringsivrige politikere. Men hun oplever, at det er ved at gå op for politikerne, at vores version af digitalisering allerede har haft nogle ikke-intenderede konsekvenser og sandsynligvis vil få endnu flere, hvis ikke man træffer radikale beslutninger. Der vil også være et stort behov for regulering af kunstig intelligens.
“Den gode nyhed er, at man kan gøre ret meget, og man er allerede langt i forsøg inden for sprogteknologien og kunstig intelligens, hvor man tager hensyn til grundlæggende rettigheder,” fortæller Rebecca Adler-Nissen.
Hun fremhæver især EU’s forordning om kunstig intelligens, den såkaldte AIAct, som det spanske formandskab håber at forhandle færdig inden jul.
“Der er masser af fornuftige tiltag og regler på vej over hele verden, men meget er endnu ikke afklaret, for eksempel hvordan man præcist finder ud af, om generative chatbotter kategoriseres som høj risiko, hvor man har højere krav til blandt andet datakvalitet og menneskeligt tilsyn,” nævner hun.
Desuden vil der gå to år, inden de nye EU-regler kan træde i kraft, fordi man vil give virksomheder og borgere tid til at tilpasse sig reglerne.
Men der er også meget, der ikke står i forordningen, som afhænger af, hvordan man praktisk implementerer kunstig intelligens, understreger professoren.
“Hvert land, hver kommune, hver skole og hver lærer skal gøre op med sig selv, hvordan man vil anvende kunstig intelligens: hvad er godt, og hvad er uforsvarligt? Og så skal vi finde frem til ‘good governance’ – altså den gode forvaltning. Det er vi slet ikke rustet til endnu,” siger hun og begrunder, hvorfor der er behov for særlige tiltag og regler i forbindelse med kunstig intelligens:
“Det er en kæmpe udfordring, at vi har sprogmodeller, som er ‘black boxes’, der udvikler sig. De kan godt være skabt, så de fra start lever helt op til forordningen, men de udvikler sig jo over tid. Hvordan skal vores lovgivning og vores forvaltning tage højde for det?”
Rebecca Adler-Nissen mener også, at der bør føres en form for eksternt tilsyn, hvis kunstig intelligens bruges i den offentlige sektor. Det kunne være et organ lidt som Ombudsmanden og Rigsrevisionen, der løbende kunne holde øje med brugen af teknologierne og teknologiernes udvikling.
Derudover fremhæver hun ‘value alignment’ – altså den måde, som den generative kunstige intelligens tilpasses og modereres i forhold til værdier. I starten var ChatGPT villig til at svare på alt muligt: opskriften på sennepsbomber og hvordan man mest effektivt brækker sig efter at have overspist. Men nu er chatbotten blevet tilpasset af OpenAI, og det bliver den løbende, når brugere opdager upassende svar, forklarer hun. I Kina har styret nu indført regler, som kræver, at sprogmodellernes svar flugter med det kinesiske kommunistiske partis holdninger. Men vi ved ikke præcist, hvordan de chatbotter, vi bruger, er ‘alignet’.
“Har vi i Europa eller Danmark særlige tanker om, hvad man kan eller ikke kan få svar på? Skal chatbotten have lov til at være racistisk, drillende, satirisk eller homofobisk? Hvad der er provokerende i et land, er det jo ikke nødvendigvis i et andet land? Disse spørgsmål er kulturelt og historisk forankrede, selvom de selvfølgelig også er universelle,” siger Rebecca Adler-Nissen, der undrer sig over dem, der opfatter value alignment som censur, men overser, at vores information på nettet jo ikke er fri.
“De store chatbotter og sociale medier tilpasses løbende af tech-giganter, det er jo en form for censur, som vi dog ikke kender detaljerne af. Dertil er de jo begrænsede af kvaliteten og mængden af den data, de er trænet på,” siger hun og fortsætter:
“De fleste kan vel se fornuften i, at det ikke er tech-giganterne, der alene skal bestemme, hvad du i fremtiden kan få svar på, og hvilke slags svar du må få: Kort sagt hvilke værdier der skal gennemsyre den offentlige og private meningsdannelse. Derfor skal vi kræve transparens, og at vi selv kan styre kunstig intelligens.”
Kommentar til artiklen
Eller opret med din email
Klik her, hvis du har glemt din adgangskode