Im AI Daily Brief zur tatsächlichen Nutzung von KI-Agenten liefert eine neue Anthropic-Studie eine ernüchternde Bestandsaufnahme: KI-Agenten werden weit konservativer eingesetzt als ihre Fähigkeiten erlauben. Kurze Sessions, starke menschliche Kontrolle, kaum echte Autonomie. Und das nicht nur bei Anfängern, sondern quer durch die Nutzung hinweg.

Die Daten zeigen auch eine Ausweitung über Coding hinaus in Backoffice, Marketing, Vertrieb und Finance. Das Potenzial wird also gesehen. Aber die Umsetzung bleibt vorsichtig. Der Grund ist nicht Unwissenheit über die Möglichkeiten. Es ist mangelndes Vertrauen — und das ist rationaler als die Tech-Welt es gerne hätte.

Autonomie wird nicht durch Fähigkeit bestimmt, sondern durch Vertrauen. Und Vertrauen entsteht durch wiederholte, zuverlässige Erfahrung. Wer einmal erlebt hat, wie ein Agent eine Aufgabe falsch interpretiert und Schaden anrichtet, lässt ihn danach nie wieder unbeaufsichtigt. Das ist kein Bug im Nutzerverhalten — das ist gesunder Menschenverstand.

Für die Enablement-Praxis heißt das: Der Weg zu autonomeren Agenten führt nicht über bessere Demos, sondern über bessere Fehlerkultur. Menschen brauchen sichere Räume, um Agentenverhalten zu testen, Grenzen zu verstehen und schrittweise Vertrauen aufzubauen. Wer den Sprung von „KI als Assistent" zu „KI als autonomer Mitarbeiter" erzwingen will, überspringt die wichtigste Phase: die, in der Menschen lernen loszulassen.