
AI og skriftlige opgaver – hvad nu hvis vi stiller det forkerte spørgsmål?
Da de første generative AI-værktøjer ramte gymnasiet, gik der ikke lang tid, før samtalen tog en bestemt retning: Hvad gør vi ved det? Hvordan stopper vi det? Hvordan sikrer vi, at karaktererne stadig er retfærdige? Især i forhold til de store skriftlige opgaver som SRP og SOP.
Det er en helt forståelig reaktion. Når noget rokker ved vores prøver og vores bedømmelse, føles det som en trussel mod selve fundamentet for det system, der skal måle elevernes viden, færdigheder og kompetencer. De store skriftlige opgaver er netop designet til at fungere som dokumentation: Her viser eleven, hvad hun kan – selvstændigt, fagligt og metodisk.
Hvis vi ikke længere med rimelig sikkerhed kan afgøre, hvad der er elevens eget bidrag, begynder målingen at vakle. Og når målingen vakler, vakler også tilliden til karakteren. AI udfordrer således forbindelsen mellem den tekst, vi bedømmer, og de kompetencer, vi tror, vi måler.
Men måske ligger der en mere grundlæggende antagelse under hele diskussionen. Måske antager vi – næsten uden at opdage det – at AI og bedømmelse er et problem, der kan løses. At hvis vi bare finder den rigtige model, den rigtige regel, den rigtige tekniske løsning, så falder tingene på plads igen. Hvad nu hvis det er her, vi skal begynde at tvivle?
Hvis problemet er snyd, er løsningen så kontrol?
Lad os begynde dér, hvor mange samtaler begynder. Hvis AI primært er et snydeproblem, så giver løsningen næsten sig selv: Mere kontrol, flere overvågede situationer, strammere regler, AI-detektion og klare sanktioner. Det virker logisk. Men hvad sker der, hvis vi går hele vejen ned ad den sti?
AI-detektion er usikker. Falske positiver og falske negativer er ikke hypotetiske risici, men dokumenterede udfordringer. Det betyder, at vi risikerer at mistænkeliggøre elever, der intet har gjort – samtidig med at vi aldrig kan være sikre på at “fange” det hele. Og hvad gør det ved kulturen?
Hvis vi designer skriftlige opgaver med det primære formål at kunne afsløre misbrug, risikerer vi, at skriftligheden først og fremmest kommer til at handle om at bevise, at intet uretmæssigt er sket – frem for at udvikle og vise faglig forståelse. Er det dér, vi vil hen?
Hvis problemet er relevans, er løsningen så integration?
En anden vinkel lyder sådan her: AI er allerede en del af videregående uddannelser og arbejdsmarkedet. Derfor må vi lære eleverne at bruge det ansvarligt og kompetent. Det argument har vægt. Mange lærere oplever, at det ville være kunstigt at lade, som om værktøjerne ikke findes.
Men hvis vi åbner helt for AI i de store skriftlige opgaver, opstår et andet spørgsmål: Hvad er det så, karakteren måler? Er det elevens faglige analyse? Elevens evne til at formulere sig? Eller elevens evne til at styre et værktøj? Hvis vi ændrer praksis, ændrer vi også, hvad karakteren er et tegn på. Er vi bevidste om det?
I debatten glider vi let ind i forsimplede billeder. Enten er eleverne ofre for en fristende teknologi, eller også er de strategiske snydere. VIVE’s evaluering af AI-forsøg i gymnasiet tegner et mere nuanceret billede. For eleverne er ikke enten naive eller kyniske. De bruger AI til idéudvikling, struktur, sproglig støtte og forståelse. De fleste er optagede af at lære – men også af at præstere. Og mange oplever usikkerhed om, hvad der egentlig er tilladt. Uklarhed fylder. Regler opleves forskelligt fra skole til skole – og fra lærer til lærer. Nogle steder er der åben dialog og tydelige rammer. Andre steder hersker der tvivl.
Hvad nu hvis AI og bedømmelse ikke er et problem, der kan løses én gang for alle?
Hvis vi maksimerer kontrol
Forestil dig, at vi beslutter os for at beskytte karakterens troværdighed som udtryk for elevens kompetencer, for enhver pris. Vi indfører flere overvågede situationer. Begrænser hjælpemidler. Strammer dokumentationskrav. Vi styrker måske målingens integritet. Men vi fjerner samtidig opgaven fra den virkelighed, eleverne faktisk skal agere i. I videregående uddannelser og på arbejdsmarkedet løses komplekse problemer sjældent uden adgang til digitale ressourcer.
Vi risikerer at træne elever i at præstere under kunstige betingelser – og samtidig undlade at træne dem i kritisk og ansvarlig brug af de værktøjer, de reelt vil møde. Er det et acceptabelt kompromis?
Hvis vi maksimerer autenticitet
Lad os gå den anden vej. Vi designer opgaver, hvor AI må bruges åbent. Vi vurderer refleksion, dømmekraft og proces. Vi styrker måske relevansen. Men vi gør samtidig bedømmelsen mere kompleks. Forskelle i digital kompetence og strategisk brug kan få større betydning. Arbejdsbelastningen vokser, hvis proces skal følges tættere. Sammenligneligheden udfordres.
Er det et acceptabelt kompromis?
Vi kan ikke maksimere alt. Når vi designer bedømmelse i en AI-mættet tid, træffer vi valg om, hvad vi prioriterer: Kontrol, autenticitet, retfærdighed, gennemførlighed, læring eller legitimitet. Ingen af disse værdier kan maksimeres samtidig.
Det betyder ikke, at alt er relativt. Men det betyder, at enhver løsning indebærer et kompromis. Og måske er det netop her, uroen begynder. For hvad nu hvis vores frustration ikke skyldes, at vi endnu ikke har fundet den rigtige løsning – men at vi leder efter noget, der slet ikke findes? Hvad nu hvis AI og bedømmelse ikke er et problem, der kan løses én gang for alle?
Hvad nu hvis det er en helt anden type problem?
Det spørgsmål tager jeg fat på i næste indlæg.





Kommentar til indlægget
Eller opret med din email
Klik her, hvis du har glemt din adgangskode