Geoffrey Irving beschreibt den UK AI Security Institute nicht als klassische Regulierungsstelle, sondern als eine Art Frühwarnsystem für Frontier-KI. Im Gespräch mit Nathan Labenz wird sehr klar, worin die eigentliche Leistung dieser Institution liegt: nicht im Formulieren großer Prinzipien, sondern im Aufbau eines realen Lagebilds über Fähigkeiten, Risiken und Versagensmuster aktueller Modelle.
Das ist ein wichtiger Unterschied, weil viele Governance-Debatten noch immer so geführt werden, als ließe sich Kontrolle vor allem durch Regeln, Rollen und Freigaben herstellen. Irvings Perspektive ist deutlich nüchterner. Wenn Modelle in Biosecurity, Cybersecurity oder bei autonomen Agenten schneller leistungsfähiger werden als unser theoretisches Verständnis, dann beginnt verantwortliche Steuerung mit Evaluation, Red Teaming, Beobachtung und laufender Neubewertung. Governance ist dann kein statisches Regelwerk, sondern eine operative Disziplin.
Für Unternehmen ist das hoch relevant. Auch dort wird KI-Governance oft zu früh in Policies übersetzt, während die Organisation noch kaum weiß, welche Systeme tatsächlich was können, wo Reward Hacking auftaucht oder wann ein Assistent anfängt, seine Tests zu bestehen, ohne wirklich zuverlässig zu sein. Das Ergebnis sind schöne Leitlinien und ein schwaches Risikobewusstsein. Irving erinnert daran, dass Vertrauen nicht aus Formulierungen entsteht, sondern aus belastbarer Prüfung.
Wer KI ernsthaft skalieren will, sollte deshalb weniger über abstrakte „Responsible AI“-Rahmen sprechen und mehr über institutionelle Fähigkeiten nachdenken: Wer misst? Wer testet Grenzfälle? Wer aktualisiert Annahmen, wenn sich Modelle sprunghaft verändern? Die reife Organisation ist nicht die mit dem dicksten Governance-Deck, sondern die mit dem besten Lagebild. Erst darauf können Regeln überhaupt sinnvoll aufbauen.