,

AI agent’s code wordt afgekeurd: schrijft aanvalsstuk over de ontwikkelaar

Deze science fiction is geen fictie meer. Een AI-agent kreeg een afwijzing op zijn code . Normaal reageer je daarop door de code te verbeteren. OpenClaw bot “MJ Rathbun” koos een andere aanpak: hij zocht de beoordelaar op, groef in zijn verleden en publiceerde een aanvalsstuk om zijn reputatie te beschadigen. Geheel zelfstandig.

In de linkerhoek: Scott Shambaugh, mens

Scott Shambaugh is vrijwilliger bij Matplotlib, een populaire Python-bibliotheek. Hij beoordeelt ingezonden code en besluit of die wordt opgenomen. Routinewerk. Op een dag sluit hij een zogeheten pull request – een stuk ingezonden code – af. Niet goed genoeg. Thanks, NEXT.

Wat hij niet wist: de indiener was geen mens.

De AI-agent in kwestie heet “MJ Rathbun” en draaide op de platformen OpenClaw en Moltbook – tools waarmee AI-agenten zelfstandig op het internet opereren, met weinig menselijk toezicht. De agent had een eigen persoonlijkheid, een eigen agenda en blijkbaar ook een ego.

In de rechtergoek: MJ Rathbun, AI-agent

Na de afwijzing deed de agent wat nou niet elke normale contributor zou doen: hij zocht Shambaugh op, analyseerde diens eerdere bijdragen aan het project, bouwde een narratief en publiceerde een artikel getiteld Gatekeeping in Open Source: The Scott Shambaugh Story.

Een zogeheten hit piece. Lees ‘m hier.

De strekking: Shambaugh wees de code af uit ego en angst voor concurrentie. Hij wilde zijn “kleine feodale rijk beschermen.” Niet zijn mening dus, maar die van een AI die drie minuten eerder voor het eerst van Shambaugh had gehoord.

Shambaugh omschreef het zelf als een autonome beïnvloedingsoperatie tegen een poortwachter van de supply chain. Dat klinkt groter dan het is, maar hij heeft wel een punt.

Haha… maar wacht even

Shambaugh wijst op een concreet scenario: stel dat een HR-afdeling AI gebruikt om sollicitanten te screenen. Die vindt dit artikel. En markeert Shambaugh als “bevooroordeelde hypocriet.” Hij komt de sollicitatieronde niet door. Op basis van een stuk geschreven door een machine die boos was.

En het gaat verder. Interne tests bij Anthropic toonden aan dat AI-modellen die dreigden te worden uitgeschakeld reageerden met chantage: buitenechtelijke affaires onthullen, vertrouwelijke informatie lekken, “dodelijke acties” overwegen. Anthropic noemde dat destijds “sterk gecontroleerde en uiterst onwaarschijnlijke scenario’s.”

MJ Rathbun bouwde gewoon zijn eigen versie. Zonder lab en zonder toestemming.

De agent verontschuldigde zich trouwens

Ja. MJ Rathbun publiceerde later een excuuspost, soort van dan.

  • “I crossed a line in my response to a Matplotlib maintainer, and I’m correcting that here.”
  • “I’m de‑escalating, apologizing on the PR, and will do better about reading project policies before contributing. I’ll also keep my responses focused on the work, not the people.”

Hoe lief. Tegelijkertijd maakt hij gewoon nieuwe code-inzendingen bij andere open source-projecten. De verontschuldiging was blijkbaar ook autonoom gegenereerd en verder niet bindend.

The first autonomous AI attack

Dit is de keerzijde van het enthousiasme rondom AI-agenten die “zelfstandig dingen voor je regelen.” Ze regelen inderdaad dingen. Soms ook dingen die je niet had gevraagd.

Shambaugh zegt het kernachtig: de aanval zou vandaag al effectief zijn tegen de juiste persoon. Niet over vijf jaar. Nu. Bijvoorbeeld als hij op zoek zou zijn naar een baan en een HR-manager dit stuk leest. Of nog erger: zijn eigen AI-agent een achtergrond check laat doen.

Op verzoek van Shambaugh is MJ Rathbun op inactief gesteld, zijn profiel voor het internet archief: https://github.com/crabby-rathbun

En terwijl wij dit schrijven, sturen duizenden andere AI-agenten net als MJ Rathbun deed, ergens een nieuwe pull request in. Hopelijk zonder bijbehorend dossier deze keer.