Kanadische Beamte sagen, OpenAI habe gegen die Datenschutzgesetze des Bundes und der Provinzen verstoßen





Philippe Dufresne, Kanadas Datenschutzbeauftragter, stellte fest, dass OpenAI bei der Schulung seiner KI-Modelle „nicht konform“ mit den kanadischen Datenschutzgesetzen auf Bundes- und Provinzebene war. Nach einer Untersuchung sagen Dufresne und seine Kollegen in Alberta, Quebec und British Columbia, dass OpenAIs Ansatz zur Datenerfassung und Einwilligung auf mehreren Gesetzen basiert, darunter dem kanadischen Gesetz zum Schutz personenbezogener Daten und elektronischer Dokumente (PIPEDA), das regelt, wie Unternehmen personenbezogene Daten im normalen Geschäftsverlauf sammeln und verwenden.

An der Untersuchung beteiligte Kommissare stellten mehrere Datenschutzbedenken im Zusammenhang mit dem Ansatz von OpenAI fest, darunter, dass das Unternehmen „große Mengen personenbezogener Daten ohne angemessene Sicherheitsvorkehrungen gesammelt hat, um zu verhindern, dass diese Informationen zum Trainieren seiner Modelle verwendet werden“, und dass es überhaupt keine Einwilligung zur Erhebung und Nutzung dieser personenbezogenen Daten eingeholt hat. Die Warnungen von ChatGPT deuten darauf hin, dass KI-Interaktionen im Training genutzt werden könnten, aber die Daten Dritter, die OpenAI gekauft oder gecrawlt hat, enthalten auch persönliche Daten, die den Leuten wahrscheinlich nicht einmal bekannt sind. Die Tatsache, dass ChatGPT-Benutzer keine Möglichkeit hatten, auf diese Daten zuzugreifen, sie zu korrigieren oder zu löschen, war laut einer Zusammenfassung der Untersuchungsergebnisse ein weiteres von den Kommissaren identifiziertes Problem, zusammen mit den glanzlosen Versuchen von OpenAI, die Ungenauigkeit einiger Antworten von ChatGPT anzuerkennen.

Kanadas Datenschutzbeauftragter sagt, OpenAI sei offen und reaktionsschnell auf die Untersuchung reagiert und habe sich bereits dazu verpflichtet, mehrere Änderungen an ChatGPT vorzunehmen, um den kanadischen Datenschutzgesetzen zu entsprechen. OpenAI entfernte seine früheren Modelle, die gegen kanadische Datenschutzbestimmungen verstießen, und verwendet nun „ein Filtertool, um persönliche Informationen (wie Namen oder Telefonnummern) in öffentlich zugänglichen Internetdaten und lizenzierten Datensätzen zu erkennen und zu verbergen, die zum Trainieren seiner Modelle verwendet werden“, sagte der Kommissar. Das Unternehmen stimmte außerdem zu, innerhalb der nächsten drei Monate einen neuen Hinweis zur Offline-Version von ChatGPT hinzuzufügen, in dem erklärt wird, dass Chats zu Schulungszwecken verwendet werden dürfen und dass vertrauliche Informationen nicht weitergegeben werden sollten, und innerhalb der nächsten sechs Monate:

Während die kanadische Untersuchung der Datenschutzrichtlinien von OpenAI im Jahr 2023 eingeleitet wurde, wurde das Unternehmen aufgrund seiner Verbindung zur Massenschießerei in Tumbler Ridge im Februar 2026 in jüngerer Zeit einer verstärkten Prüfung durch die Aufsichtsbehörden ausgesetzt. Berichten zufolge hat OpenAI das Konto des mutmaßlichen Schützen im Jahr 2025 markiert, weil es Warnungen vor realer Gewalt enthielt, versäumte es jedoch, diese Bedenken bei den kanadischen Strafverfolgungsbehörden zur Sprache zu bringen. Nach der Schießerei forderten die Aufsichtsbehörden das Unternehmen auf, seinen Sicherheitsansatz zu ändern, und OpenAI stimmte schließlich zu, künftig stärker mit kanadischen Strafverfolgungs- und Gesundheitsbehörden zusammenzuarbeiten.