Dario Amodei, CEO von Anthropic, sagt im Gespräch mit Dwarkesh Patel etwas, das gegen den Erwartungsstrom schwimmt: Das exponentielle Wachstum der Modellleistung — gemessen an den großen Leistungssprüngen von GPT-3 zu GPT-4 zu Claude 3 zu Claude 3.5 — nähert sich seinem Ende. Nicht weil KI aufhört besser zu werden, sondern weil die Art der Verbesserung sich verändert. Skaleneffekte durch mehr Daten und mehr Rechenleistung allein reichen nicht mehr aus.
Was folgt, ist keine Stagnation — es ist eine andere Art von Fortschritt. Architekturelle Innovationen, bessere Alignment-Methoden, spezialisierte Modelle für enge Domänen. Der Fortschritt wird weniger spektakulär sichtbar, aber nicht weniger bedeutsam. Das ist eine relevante Einordnung für alle, die KI-Strategie auf der Annahme aufgebaut haben, dass die nächste Modellgeneration alle aktuellen Probleme löst.
Für Unternehmen hat das eine direkte Implikation: Wer jetzt wartet, weil das nächste Modell besser sein wird, wartet möglicherweise auf Fortschritte, die kleiner ausfallen als erwartet. Der Abstand zwischen den Fähigkeiten des Modells heute und der Nutzung im Unternehmen ist das eigentliche Problem — und dieser Abstand schließt sich nicht automatisch, wenn das nächste Modell erscheint. Er schließt sich durch Adoption.
Amodeis Einschätzung ist auch ein Korrektiv gegen Hype-getriebene Planung. Strategien die auf „in zwei Jahren kann KI alles" basieren, sind weniger belastbar als Strategien die davon ausgehen: Was heute verfügbar ist, ist gut genug um damit zu starten. Der Hebel liegt nicht im Warten auf bessere Modelle — er liegt im Aufbau der organisatorischen Fähigkeit, vorhandene Modelle effektiv zu nutzen.