top of page

Når algoritmen bestemmer hvem som får bygge skolen


ree

Kunstig intelligens er på full fart inn i offentlige innkjøpsavdelinger. Løftet er å spare tid og penger, men prisen kan bli en svekket rettssikkerhet. For hva skjer når taperen av et anbud spør hvorfor maskinen valgte som den gjorde?


I 2025 er kunstig intelligens (KI) ikke lenger fremtidsmusikk i offentlig sektor, men et verktøy som rulles ut i saksbehandlersystemer og konkurransegjennomføringsverktøy. For en presset innkjøper som skal pløye gjennom hundrevis av sider med tilbudsdokumenter, fremstår teknologien som en gavepakke. KI kan oppsummere tekster, sammenligne kravspesifikasjoner og rangere leverandører på sekunder.


Effektiviseringsgevinsten er åpenbar. Risikoen er imidlertid at vi beveger oss inn i en "svart boks" hvor beslutningsprosessene blir ugjennomsiktige. Offentlige anskaffelser hviler på et absolutt krav om etterprøvbarhet. Når en leverandør taper en kontrakt, har vedkommende krav på en saklig begrunnelse. Spørsmålet er om norske kommuner er rustet til å gi den begrunnelsen når det egentlig var en algoritme som tok avgjørelsen.


Tre konkrete fallgruver

Innføringen av KI i anbudsprosesser utfordrer dagens regelverk på flere punkter. Det er særlig tre områder som peker seg ut som kritiske for rettssikkerheten.


1. Svart boks-problematikken og begrunnelsesplikten Kjernen i anskaffelsesregelverket er transparens. En leverandør skal kunne forstå nøyaktig hvorfor konkurrenten fikk bedre score. Mange avanserte KI-modeller opererer som en "svart boks"; de gir et svar basert på mønstergjenkjenning, men kan ikke alltid forklare den logiske veien frem til svaret. Dersom en saksbehandler klipper og limer en vurdering fra en KI-generator uten å kunne ettergå resonnementet, brytes koblingen mellom vurdering og begrunnelse. Hvis begrunnelsen er generert av en statistisk sannsynlighet snarere enn en konkret vurdering av tilbudet, vil det offentlige tape i Klagenemnda for offentlige anskaffelser (KOFA) hver gang en leverandør klager.


2. Hallusinasjoner i kravspesifikasjonene KI brukes ikke bare til å evaluere, men også til å lage anbudene. Det er fristende å be en språkmodell om å "skrive en kravspesifikasjon for et nytt pasientvarslingssystem". Faren er at teknologien hallusinerer – den finner på overbevisende, men ikke-eksisterende standarder eller funksjonskrav. Dette kan føre til at oppdragsgiver stiller krav som ingen leverandører kan oppfylle, eller som favoriserer en spesifikk teknologi på feilaktig grunnlag. Ukritisk bruk av generativ KI i forberedelsesfasen kan dermed føre til avlyste konkurranser og bortkastede samfunnsressurser.


3. Bias som favoriserer "konsulentspråk" Store språkmodeller er trent på enorme mengder tekst, og de har en tendens til å favorisere velformulerte, standardiserte svar. I en anbudskonkurranse kan dette slå skjevt ut. En stor leverandør med en profesjonell tilbudsavdeling som skriver "riktig" og polert språk, kan bli rangert høyere av en algoritme enn en mindre, lokal gründerbedrift som har en bedre teknisk løsning, men et mer muntlig eller upolert språk i tilbudet. Hvis KI-verktøyet premierer form fremfor innhold, undergraves formålet om å finne den beste leveransen.


Det menneskelige alibiet

Leverandørene av disse verktøyene understreker at det alltid skal være et "menneske i løkken" (human in the loop). Det er saksbehandleren som til syvende og sist skal trykke på knappen.


I en travel hverdag kan dette fort bli en illusjon. Når tidsfristen nærmer seg og bunken med dokumenter er høy, er veien kort til å stole blindt på maskinens sammendrag og anbefaling. Det kreves høy kompetanse og selvtillit for å overprøve en algoritme som presenterer et ferdigtygd svar med stor skråsikkerhet.


Behov for nye kjøreregler

Teknologien er kommet for å bli, og potensialet for å spare skattebetalerne for penger er stort. Men dagens innføring skjer delvis i et juridisk vakuum. Vi mangler tydelige nasjonale retningslinjer for hvordan KI skal vektes og kontrolleres i en offentlig anskaffelse.


Uten slike kjøreregler risikerer vi en praksis der effektivitet trumfer rettssikkerhet. Resultatet kan bli at leverandørene mister tilliten til systemet, fordi de opplever at det er vilkårlige, digitale terningkast som avgjør om de får oppdraget eller ikke. Det offentlige må ta styringen over verktøyene før verktøyene tar styringen over prosessen.

Kommentarer


Abonner på vårt nyhetsbrev

bottom of page