Ethan Molllicks nyhedsbrev: Tingens Form (11. marts)

 

Tingenes form

Hvor vi er lige nu, og hvad der sandsynligvis sker som det næste
Ethan Mollick
12. marts 2026

I oktober 2023 skrev jeg om “Skyggens form af Tingen” og spekulerede i, hvad den Ting, AI kunne udvikle sig til i de kommende år, egentlig var. Nu kan vi se Tingen langt tydeligere – og nogle af de konsekvenser, der følger med den. Som jeg har skrevet om i nyere indlæg, er vi trådt ind i en ny fase af AI.

Efter lanceringen af ChatGPT bestod menneske-AI-samarbejdet i det, jeg kaldte co-intelligens, hvor mennesker og AI arbejdede frem og tilbage via prompts for at løse opgaver. Fra slutningen af 2025 trådte vi ind i en ny æra takket være AI-agenter som Claude Code, OpenAI’s Codex og OpenClaw. Det er AI-systemer, som man blot kan give en opgave – nogle gange arbejde svarende til flere timers menneskelig indsats – og få fornuftige og brugbare resultater tilbage på få minutter.

Det er en æra, hvor vi leder AI’er, snarere end arbejder sammen med dem.

Denne nye tilgang er resultatet af den hurtige, eksponentielle forbedring af AI’s evner. Man kan ikke forstå, hvor vi er – eller hvor vi er på vej hen – uden at forstå denne stigende kapacitet.


At ride på det eksponentielle


Eksponentielle forbedringer er svære at visualisere. I stedet for grafer vil jeg begynde med oddere. Hvis du har fulgt mit arbejde, kender du min Odder-test, hvor jeg udfordrer AI-billedmodeller til at vise et billede af en “odder i et fly, der bruger wifi”. Som man kunne se, var udviklingen fra 2022 (året hvor ChatGPT blev lanceret) til 2025 både hurtig og bemærkelsesværdig.

Men hvad er der sket siden april 2025?

Hvor billeder nu næsten er perfekte, er video blevet den nye frontlinje – og her har vi også set eksponentielle fremskridt. Jeg gav den mest avancerede (og endnu ikke frigivne i USA) AI-videomodel fra TikTok-producenten Bytedance følgende prompt:

En dokumentar om, hvordan oddere opfatter Ethan Mollicks “Odder-test”, som bedømmer AI’er på deres evne til at skabe billeder af oddere i fly.

Det første resultat var næsten perfekt – bortset fra en enkelt udtalefejl – helt ned til at oddere havde menneskelignende ansigtsudtryk.

Video er fascinerende, men det viser ikke nødvendigvis, hvad nyttig agentbaseret AI kan præstere. Ser vi på benchmarks for AI-evner, finder vi samme eksponentielle kurve.

Den mest kendte måling i dag er METR’s Long Tasks-graf. Den forsøger at måle, hvor meget menneskeligt arbejde en AI kan udføre autonomt og pålideligt. Den har mødt kritik, og selv METR peger på metodiske udfordringer. Men næsten alle målinger af AI-evne viser samme kurve.

Eksempler:

  • Google-Proof Q&A: Kandidatstuderende scorer ca. 34 % uden for deres felt og omkring 70 % inden for det. De bedste AI’er scorer nu 94 %.

  • GDPval: Brancheeksperter vurderer AI mod erfarne menneskers præstation på komplekse opgaver. De nyeste AI’er matcher eller overgår topmennesker i 82 % af tilfældene.

  • Humanity’s Last Exam: Meget svære opgaver skrevet af universitetsprofessorer – samme mønster.

  • Selv evnen til at løse puslespil viser samme hurtige fremgang.

Selvfølgelig har alle tests svagheder. AI er fortsat ujævn – meget dygtig til nogle opgaver, fejlbehæftet på andre. Og på trods af imponerende testresultater er virksomheder stadig tidligt i deres anvendelse af AI. For de fleste organisationer har relativt lidt ændret sig.

Men ikke for alle.

Vi ser allerede nye organisationsformer, der udnytter AI-agenters nye evner.


Radikale ændringer i arbejdet

For få uger siden annoncerede et trepersoners team hos sikkerhedssoftwarefirmaet StrongDM, at de havde bygget en Software Factory – en arbejdsform, hvor AI-agenter alene skriver, tester og lancerer produktionssoftware uden menneskelig indblanding.

To radikale regler:

  1. Kode må ikke skrives af mennesker.

  2. Kode må ikke gennemgås af mennesker.

Hver ingeniør forventes at bruge AI-tokens svarende til sin løn – mindst 1.000 dollars om dagen.

Konceptet:
Mennesker skriver produkt-roadmaps. AI-kodeagenter bygger softwaren. Testagenter tester den i et simuleret kundemiljø (som de selv opbygger). Agenterne giver hinanden feedback i en løkke, indtil resultatet tilfredsstiller AI’en.

Herefter gennemgår mennesker det færdige produkt – men uden at have set selve koden – og det sendes til kunderne.

Detaljerne er vigtige, men det afgørende er, at så radikal eksperimenteren med arbejdsformer nu er mulig – og måske nødvendig. AI er blevet god nok til at ændre organisationers måde at fungere på.


Rullende disruption

Praktiske agenter, eksponentiel fremgang og radikale arbejdsformer skaber et uforudsigeligt miljø. Når AI krydser bestemte tærskler, åbner det for nye anvendelser, der kan ændre opfattelsen af AI nærmest fra den ene dag til den anden.

Organisationer vil eksperimentere og pludselig annoncere nye strategier eller ændre, hvilke medarbejderprofiler de værdsætter mest. Samtidig vil politikere i stigende grad interessere sig for regulering, hvilket kan skabe konflikter med AI-virksomheder.

Vi så det ske på én uge:

  1. februar: Citrini Research offentliggør et fiktivt scenarie om AI, der ødelægger etablerede virksomheder inden 2028 → store markedsreaktioner.

  2. februar: Block annoncerer 40 % afskedigelser og antyder AI som årsag (formentlig stærkt overdrevet).

  3. februar: Offentlig konflikt mellem Pentagon og Anthropic om reglerne for brugen af Claude i regeringssammenhæng.

Selvom disse begivenheder ikke helt var, hvad de først så ud til, illustrerer de følelsen af den nære fremtid:

  • Pludselige afsløringer om AI-evner

  • Markedsreaktioner

  • Reelle jobpåvirkninger

  • Tættere sammenfletning mellem AI-virksomheder og politik

Efterhånden som indsatsen stiger, vil ustabiliteten sandsynligvis også gøre det.


Rekursiv selvforbedring (RSI)

AI-virksomheder fortæller ret åbent, hvad der kan komme: rekursiv selvforbedring.

AI bruges i stigende grad til at bygge bedre AI – en feedbacksløjfe, der kan accelerere udviklingen yderligere.

  • Dario Amodei (Anthropic) forklarede i Davos, at modeller, der er gode til kodning og AI-forskning, kan bruges til at bygge næste generation.

  • OpenAI kaldte deres seneste Codex “den første model, der var medvirkende til at skabe sig selv.”

  • Demis Hassabis (DeepMind) bekræftede, at alle større laboratorier arbejder på at lukke selvforbedringssløjfen – selvom der stadig mangler kapaciteter og risici er reelle.

Vi ved ikke, hvor langt dette kan gå. Der kan opstå flaskehalse i compute, data eller forskningskompleksitet. Måske når LLM’er et loft.

Men rekursiv selvforbedring er ikke længere science fiction – det står eksplicit på roadmapet hos de største AI-virksomheder.

Hvis sløjfen lukkes, bliver de eksponentielle kurver endnu stejlere – med et usikkert endepunkt.


Hvor står vi så?

Ugen i februar var en forsmag på, hvordan det føles, når AI’s stigende evner begynder at påvirke markeder, job og regeringer samtidigt.

Den følelse af usikkerhed vil sandsynligvis brede sig.

Men usikkerhed er ikke det samme som magtesløshed.

Når en teknologi er så kraftfuld og uafklaret, betyder de valg, individer og organisationer træffer nu, mere end normalt. Vi kan se Tingenes form – men vi kan stadig påvirke selve Tingen.

Der findes endnu ingen faste regler eller rollemodeller for, hvordan AI skal bruges på arbejdspladser, i skoler eller i regeringer. Det er et problem – men også en mulighed.

De organisationer, der finder gode måder at bruge AI på nu, sætter præcedens for alle andre.

Vinduet for at forme Tingen er måske ikke åbent længe.

Men det er åbent nu.


Kommentarer

Populære opslag fra denne blog

De fem forbandede år

Udvikling af Danmarks forsvar: Lærdomme fra Ukraine og anbefalinger mod Rusland 2025–2045

En amerikansk ø med 68 inuitter kan måske lære grønlænderne noget?