OpenAI genehmigt Gesetz zur Online-Sicherheit von Kindern





OpenAI, das derzeit mit einer Reihe von Klagen wegen angeblicher ChatGPT-Sicherheitslücken konfrontiert ist, hat den Kids Online Safety Act (KOSA) genehmigt. Das Unternehmen sagte, seine Genehmigung sei Teil einer umfassenderen Verpflichtung zur Schaffung „KI-spezifischer Regeln“ für die Kindersicherheit.

Die Zustimmung von OpenAI erfolgt zu einem Zeitpunkt, an dem KOSA, das 2024 vom Senat verabschiedet wurde, offenbar an Dynamik gewinnt. KOSA, das erstmals im Jahr 2022 eingeführt wurde, ist eines von mehreren Online-Sicherheitsgesetzen, die Social-Media-Unternehmen und andere Online-Plattformen dazu verpflichten würden, stärkere Schutzmaßnahmen für Kinder einzuführen. Der Gesetzentwurf wurde mehrmals überarbeitet, aber die aktuelle Version enthält eine Anforderung für Social-Media-Apps, Minderjährigen die Möglichkeit zu geben, „süchtig machende“ Funktionen und algorithmische Empfehlungen abzulehnen. Online-Plattformen haben außerdem die „Sorgfaltspflicht“, schädliche Inhalte einzudämmen, die Essstörungen, Selbstmord und sexuelle Ausbeutung fördern.

Auch Apple, Microsoft, Snap und X unterstützten den Gesetzentwurf. NetChoice, eine Handelsgruppe, zu der Meta und andere Plattformen gehören, sagte, die Maßnahme würde Zensur ermöglichen, ohne Kinder online sicherer zu machen. Auch Datenschutz- und digitale Rechtegruppen wie die Electronic Frontier Foundation lehnen den Gesetzentwurf ab.

Obwohl KOSA hauptsächlich im Zusammenhang mit Social-Media-Plattformen diskutiert wurde, sagt OpenAI, dass der Gesetzentwurf „ergänzend“ zu der bereits geleisteten Sicherheitsarbeit sei. „Wir können nicht die Fehler wiederholen, die beim Aufstieg der sozialen Medien gemacht wurden, als strengere Schutzmaßnahmen für Jugendliche erst eingeführt wurden, als die Plattformen bereits tief im Leben junger Menschen verankert waren“, sagte Chris Lehane, Direktor für globale Angelegenheiten bei OpenAI, in einer Erklärung.

OpenAI sieht sich derzeit einer Reihe von Klagen im Zusammenhang mit seiner eigenen Erfolgsbilanz im Bereich Sicherheit gegenüber. Das Unternehmen wurde von der Familie eines Teenagers wegen ungerechtfertigter Tötung verklagt, der durch Selbstmord starb, nachdem er angeblich seine Pläne mit dem Chatbot besprochen hatte. Eine andere Familie reichte kürzlich eine ähnliche Beschwerde ein und behauptete, ihr Teenager habe aufgrund schlechter medizinischer Beratung durch ChatGPT versehentlich eine Überdosis Drogen genommen.