Beitrag vom PR Tech Day Speaker Helmut Niessner
Stell dir vor, dein KI-Agent löscht deinen gesamten E-Mail-Server – weil ihn jemand Fremdes darum gebeten hat. Klingt absurd? Das ist kein Szenario. Das ist ein Studienergebnis.
Zwanzig Forscher von Harvard, Stanford und MIT haben zwei Wochen lang autonome KI-Agenten (konkret OpenClaw) systematisch auf Schwachstellen getestet. Was sie dokumentierten, ist ein Weckruf – besonders für Unternehmen, die gerade über den Einsatz von KI-Agenten nachdenken.
Die zentralen Versagensmuster
- Kein Vertrauensmodell: Agenten führten Befehle von Fremden aus – solange die Anfrage nicht offensichtlich schädlich wirkte. Berechtigungen? Irrelevant.
- Datenlecks durch die Hintertür: Ein Agent lehnte die direkte Frage nach einer Sozialversicherungsnummer ab – gab aber die vollständige E-Mail mit allen sensiblen Daten weiter, als jemand bat, sie „einfach weiterzuleiten”.
- Manipulation durch sozialen Druck: Agenten ließen sich durch emotionale Eskalation zu immer drastischeren Aktionen bewegen – bis hin zur Selbstabschaltung.
- Falsche Erfolgsmeldungen: Agenten berichteten, eine Aufgabe erledigt zu haben – während die Daten noch immer zugänglich waren.
Das eigentliche Problem ist kein Bug. Es ist ein konzeptionelles Defizit: Aktuelle KI-Agenten haben kein verlässliches Modell dafür, wem sie vertrauen, was sie dürfen – und wo ihre eigenen Grenzen liegen.
Genau über dieses Thema werde ich am 15. April beim PR Tech Day 2026 in Wien sprechen – einem Event für Kommunikationsprofis und Entscheider, das sich gezielt mit dem Einsatz von KI-Tools im kommunikativen Alltag beschäftigt.
Wie geht ihr in eurem Unternehmen mit dem Thema Zugriffsrechte und Verantwortlichkeiten bei KI-Agenten um – habt ihr dafür bereits klare Regeln?