
AI-systemer får mere magt uden menneskelig kontrol
79 procent af virksomheder implementerer autonome AI-agenter, mens lovkrav og praksis halter bagefter
Tre ud af fire virksomhedsledere har allerede begynd at implementere autonome kunstige intelligens-systemer — uden fuld indsigt i hvor meget mennesker skal kontrollere dem.
Det fremgår af PwC's Global AI Agent Survey fra maj 2025, som viser at 79 procent af virksomheder allerede ruller autonome AI-agenter ud. Samtidigt planlægger 88 procent at øge deres AI-budgetter i det kommende år.
AI-agenter opererer på et spektrum af autonomi. I den ene ende af skalaen finder man systemer, hvor mennesker står helt uden for beslutningsprocessen — såkaldt "human-out-of-the-loop". I den anden ende er mennesker aktivt involveret i hver beslutning — "human-in-the-loop". Mellem disse yderpunkter ligger hundredvis af variationer af kontrol og uafhængighed.
## Lovkrav uden garanti
EU's AI-forordning definerer kunstig intelligens som "maskine-baserede systemer designet til at operere med en varierende grad af autonomi." Forordningen kræver, at højrisiko-AI-systemer opfylder obligatoriske krav til teknisk robusthed, for at sikre egnethed til formålet og forhindre skævhed.
Men lovkravene fokuserer på høj-risiko-systemer. Mange af de AI-agenter, virksomheder implementerer, klassificeres ikke som højrisiko og undgår dermed strenge krav til menneskelig overvågning.
[MANGLER: Konkrete eksempler på dansk virksomheders implementering af autonome AI-agenter uden menneskelig kontrol]
## Kontrol kræver nye systemer
Jo flere autonome agenter en virksomhed implementerer, desto større værdi har det at have styringssystemer på plads, som kan sætte rammer og overvåge dem. Det understreger softwarefirmaet SAP i deres analyse af enterprise-AI.
Det betyder, at virksomheder, der ønsker at implementere virkelig autonome AI-systemer, skal investere i kontrolmekanismer sideløbende. Mange gør det ikke, viser praksis.


