Innerhalb einer Woche haben zwei separate Geschworenengerichte in den USA Social-Media-Unternehmen für Schäden an jungen Nutzern haftbar gemacht. Meta und YouTube stehen am Pranger. Aber die eigentliche Pointe liegt in dem, was als Nächstes kommt: KI-Chatbots.

Kevin Roose und Casey Newton analysieren in *Hard Fork* die Tragweite dieser Urteile. Die Logik der Klagen, Plattformen wissen, dass ihre Designs süchtiges Verhalten fördern, und tun nichts dagegen, lässt sich eins zu eins auf KI-Chatbots übertragen.

Character.AI, Replika, sogar ChatGPT im Gesprächsmodus: Wenn ein 14-Jähriger eine parasoziale Beziehung zu einem Chatbot aufbaut und das nachweislich schadet, wer haftet?

Für Unternehmen, die KI-Produkte bauen oder einsetzen, ist das relevant. Nicht weil morgen jeder verklagt wird. Sondern weil sich das regulatorische Klima verschiebt. "Die Plattformen sollten den Kongress anflehen, sie zu regulieren", sagt ein Kommentator, "weil die Alternative ist, von Anwaltskanzleien in die Bedeutungslosigkeit geklagt zu werden."

Das ist der Punkt: Selbstregulierung hat bei Social Media nicht funktioniert. Die Gerichte übernehmen. Und diese Precedents werden auf KI-Produkte angewendet werden, bevor die Industrie eigene Standards hat. Wer heute KI-Features für Endnutzer baut — vor allem für junge Menschen — sollte schon jetzt über Schutzdesign nachdenken. Nicht weil es ethisch nett ist. Sondern weil die rechtliche Haftung kommt.

Die Frage ist nicht mehr ob, sondern wann der erste KI-Chatbot-Hersteller vor einer Jury steht. Und ob er dann auf "Addictive by Design" vorbereitet ist.