Der britische Medienregulator Ofcom hat eine Untersuchung gegen Telegram gestartet, nachdem Bedenken hervorgebracht wurden, dass die App nicht ausreichend vor der Verbreitung kinderpornografischer Materialien (CSAM) schützt, wie Ofcom mitteilte. Der Kommunikationsregulator sagte am Dienstag, er untersuche den beliebten Nachrichtendienst nach Erkenntnissen, wonach CSAM auf der Plattform verbreitet wird.
Rechtliche Verpflichtungen und Bedenken
Nach der geltenden Gesetzgebung müssen in Großbritannien betriebene Nutzer-zu-Nutzer-Dienste Systeme haben, um sicherzustellen, dass Nutzer nicht auf CSAM oder andere illegale Inhalte stoßen, und Mechanismen, um damit umzugehen, andernfalls drohen hohe Geldstrafen. In einer Erklärung betonte Telegram. Dass es Ofcoms Vorwürfe „kategorisch ablehnt“ und erklärte, seit 2018 habe es die öffentliche Verbreitung von CSAM auf seiner Plattform durch weltweit führende Erkennungsalgorithmen und Zusammenarbeit mit Nichtregierungsorganisationen fast vollständig eliminiert.
Das Unternehmen fügte hinzu: „Wir sind überrascht von dieser Untersuchung und besorgt, dass sie Teil eines umfassenderen Angriffs auf Online-Plattformen sein könnte, die Freiheit der Meinungsäußerung und das Recht auf Privatsphäre verteidigen.“ Dies ist Teil einer umfassenden Durchsetzungshandlung von Ofcom gegen Dienste, die möglicherweise gegen die umfassenden Sicherheitsvorgaben Großbritanniens verstoßen, einschließlich verschärfter Regeln für Technologieunternehmen, um CSAM zu bekämpfen, was in Großbritannien verboten ist, es zu besitzen oder zu verbreiten.
Unterstützung durch Kinderrechtsgruppen
„Kindersexueller Missbrauch und Ausbeutung verursachen verheerende Schäden an Opfern, und sicherzustellen, dass Apps und Webseiten dies bekämpfen, ist eines unserer höchsten Prioritäten“, sagte Suzanne Cater, Direktorin für Durchsetzung bei Ofcom. Sie fügte hinzu, dass es Fortschritte bei der Bekämpfung von CSAM auf kleineren Diensten gegeben habe, einschließlich Datei-Hosting- und -Sharing-Plattformen, doch das Problem „erstrecke sich auch auf große Plattformen.“
Die Kinderhilfsorganisation NSPCC begrüßte die Untersuchung von Ofcom. „Kürzlich hat die NSPCC-Forschung gezeigt, dass täglich etwa 100 Straftaten im Zusammenhang mit kinderpornografischen Bildern registriert werden“, sagte Rani Govender, stellvertretende Leiterin der Politikabteilung. „Die Ausmaße dieses Missbrauchs sind erschreckend, und wir begrüßen ausdrücklich, dass Ofcom Maßnahmen verstärkt, um es zu bekämpfen, einschließlich dieser Untersuchung gegen Telegram.“
Weitere Maßnahmen und Reaktionen
Die Untersuchung wurde auch von der Internet Watch Foundation (IWF) begrüßt, die darauf abzielt, CSAM im Internet zu identifizieren und zu entfernen, einschließlich auf Telegram. Emma Hardy, Kommunikationsdirektorin bei IWF, sagte, ihre Organisation teile Bedenken bezüglich „böswilliger Netzwerke“ auf der Plattform und dass „zu wenig getan wird, um bekannte, erkannte kinderpornografische Bilder davon abzuhalten, verbreitet zu werden.“ Sie betonte, dass das Unternehmen einige Maßnahmen ergriffen habe, doch um diese „wirklich effektiv zu machen, müsse es mehr tun.“
Ofcom teilte mit, dass es seine Untersuchung gegen Telegram nach einer Kontaktaufnahme mit dem Canadian Centre for Child Protection startete, das angebliche Vorkommen und Verbreitung von CSAM auf der Nachrichten-App meldete. Es fügte hinzu, dass es auch Untersuchungen gegen Teen Chat und Chat Avenue begonnen habe, nachdem Bedenken hinsichtlich möglicher Angriffen auf Kinder durch Zusammenarbeit mit Kinderschutzorganisationen aufgekommen seien. „Teen-orientierte Chatdienste werden viel zu leicht von Tätern genutzt, um Kinder zu verführen“, sagte Cater. „Diese Unternehmen müssen mehr tun, um Kinder zu schützen, andernfalls drohen ernste Konsequenzen gemäß dem Online Safety Act.“
Der Betreiber von Teen Chat teilte der BBC mit, er stimme Ofcoms Position nicht zu. Er betonte, dass Systeme wie aktive menschliche Moderation, Berichte über illegale Inhalte und Chatfilter dafür sorgten, dass „Plattformbedingungen weniger als ideal sind, um [Kindesmissbrauch und -ausbeutung] zu ermöglichen.“ Das Unternehmen fügte hinzu, dass es mit Ofcom zusammenarbeite und alles tue, um illegale Aktivitäten zu verhindern, doch „irgendwann gibt es einen Punkt, an dem kleine Plattformen wie die unsere nicht mehr tun können.“
„Wir warten auf eine Rückmeldung von [Ofcom] und werden weiter mit ihnen zusammenarbeiten, doch wir haben fast die Grenze erreicht, was von einer Plattform wie der unseren vernünftigerweise erwartet werden kann“, hieß es. Chat Avenue teilte der BBC mit, es stimme nicht zu, dass Verführungsversuche auf seiner Plattform verbreitet seien. Es verwies auf eine Reihe von Maßnahmen, die es ergriffen habe, um eine sichere Online-Umgebung zu schaffen, einschließlich „CSAM-Erkennungstools, die sowohl in privaten als auch öffentlichen Bereichen der Plattform eingesetzt werden“, und was es als „aktive Moderation durch geschulte menschliche Moderatoren“ bezeichnete.
Ofcom hat bereits mehrere Strafen gegen Anbieter verhängt, die angeklagt wurden, nicht ihren Pflichten hinsichtlich illegaler Inhalte oder Alterskontrollen nachzukommen. Es hat die Befugnis, Unternehmen mit bis zu 18 Millionen Pfund oder 10 Prozent ihres weltweiten Umsatzes zu bestrafen – je nachdem, was höher ist –, wenn es Unzulänglichkeiten feststellt. Ofcom teilte am Dienstag mit, dass ein File-Sharing-Dienst, den es mit Bedenken hinsichtlich seiner Systeme zur Bekämpfung illegaler Inhalte kontaktiert habe, „wichtige Verbesserungen“ vorgenommen habe, um seinen Pflichten nachzukommen.
Kommentare
Noch keine Kommentare
Be the first to share your thoughts