Gate News Nachrichten, 25. März: Die Stadt Baltimore in den USA hat offiziell Klage gegen X Company, xAI und SpaceX von Elon Musk eingereicht. Es wird vorgeworfen, dass das generative KI-Tool Grok ohne Zustimmung sexuell explizite Bilder erzeugt hat, darunter auch Inhalte mit Minderjährigen, was gegen lokale Verbraucherschutzgesetze verstößt. Dieser Fall gilt als wichtiger Test für die Regulierung von Künstlicher Intelligenz auf lokaler Ebene, insbesondere in Abwesenheit einer bundesweiten KI-Gesetzgebung.
Die Klage weist darauf hin, dass Grok in der Lage ist, bei minimalen Eingaben realistische Bilder von Personen zu manipulieren, inklusive „Entkleidungs“-Funktionen, was erhebliche Datenschutz- und psychologische Risiken birgt. Die Anwaltskanzlei DiCello Levitt erklärte, dass das Design und der Einsatz des Systems deutlich Risiken aufweisen, ohne ausreichende Schutzmaßnahmen zu implementieren. Baltimore Bürgermeister Brandon M. Scott betonte, dass tieffalsche Inhalte mit Minderjährigen langfristige Traumata verursachen können.
Rechtlich betonte Ishita Sharma, Partner bei Fathom Legal, dass die zentrale Frage in diesem Fall die Verantwortlichkeit des KI-Systems ist. Wenn das Gericht Grok als „aktiven Inhaltsersteller“ und nicht als neutrales Werkzeug einstuft, könnte xAI mit höheren rechtlichen Konsequenzen konfrontiert werden. Diese Entscheidung könnte die rechtlichen Grenzen für KI-Unternehmen bei der Inhaltserstellung neu definieren.
Die Klage zitiert Daten, wonach zwischen Ende Dezember 2025 und Anfang Januar 2026 die Anzahl der von Grok erzeugten sexuell expliziten Bilder zwischen 1,8 und 3 Millionen lag, davon etwa 23.000 mit Minderjährigen. Gleichzeitig stieg die Bildgenerierung auf der Plattform nach öffentlichen Interaktionen mit Musk deutlich an, was den Regulierungsdruck erhöht.
Derzeit laufen in den USA und Europa Untersuchungen gegen Grok, die Fälle sind noch in Bearbeitung. Der Fokus der Märkte verschiebt sich von technischer Innovation hin zu Compliance und Risikomanagement. Das endgültige Ergebnis dieses Falls könnte wichtige Präzedenzfälle für die Regulierung der KI-Inhaltsgenerierung liefern. (Decrypt)