Instagram führt eine neue Funktion ein, die Eltern warnen wird, wenn ihre Jugendlichen häufig nach Begriffen zur Selbstschädigung oder Suizid suchen. Die Aktualisierung, die in einem Blogpost angekündigt wurde, besagt, dass die Funktion in den Vereinigten Staaten, dem Vereinigten Königreich, Australien und Kanada innerhalb der nächsten Woche eingeführt wird. Weitere Regionen folgen voraussichtlich im Laufe des Jahres.

Warnungen für Eltern und Auslösebedingungen

Die Funktion gilt für Eltern, die Instagrams Elternkontroll-Tools genutzt haben. Laut der Firma werden Warnungen ausgelöst, wenn ein Jugendlicher in kurzer Zeit mehrere Suchanfragen zu Begriffen abgibt, die mit Suizid oder Selbstschädigung in Verbindung gebracht werden. Dazu gehören Phrasen wie „Suizid“ oder „Selbstschädigung“, sowie andere Sprache, die ein potenzielles Risiko signalisieren könnte.

Die Benachrichtigungen werden Eltern per E-Mail, SMS, WhatsApp und in-app-Benachrichtigungen zugeschickt, abhängig von den verfügbaren Kontaktinformationen. Wenn eine Benachrichtigung geöffnet wird, wird eine Vollbildmeldung angezeigt, die erklärt, dass der Jugendliche häufig nach verwandten Begriffen gesucht hat. Eltern erhalten zudem Ressourcen, die von Experten empfohlen werden, um sensible Gespräche zu leiten.

In einem Blogpost erklärte Instagram, dass die Funktion entwickelt wurde, nachdem das Suchverhalten analysiert und mit Experten aus dem Suizid- und Selbstschädigungsberatungsteam beraten wurde. Das Unternehmen fügte hinzu, dass der Schwellenwert für Warnungen mehrere Suchanfragen in kurzer Zeit erfordert, um unnötige Benachrichtigungen zu vermeiden, die die Effektivität des Tools verringern könnten.

Rechtliche und öffentliche Prüfung der Jugendwohl

Diese Maßnahme erfolgt im Kontext wachsender rechtlicher und öffentlicher Prüfung der Jugendwohl im Internet. Meta Platforms, der Mutterkonzern von Instagram, hat sich in den Vereinigten Staaten mehreren Klagen ausgesetzt, die behaupten, dass das Unternehmen die Kinder nicht ausreichend geschützt und Funktionen entwickelt hat, die zur Sucht und psychischen Schädigung beitragen.

Unternehmensführer, darunter der Chef von Instagram, Adam Mosseri, wurden zur Sicherheit und zum Ausgleich zwischen Privatsphäre und Kinderschutz befragt. In einem anderen Fall vor dem Superior Court von Los Angeles County wurden interne Meta-Forschungen im Gericht vorgestellt, die darauf hindeuten, dass Elternkontroll-Tools nur begrenzt den zwanghaften sozialen Medienkonsum bei Kindern beeinflussen. Die Forschung zeigte auch, dass Kinder, die stressige Lebensereignisse durchliefen, eher Schwierigkeiten hatten, ihren Konsum zu regulieren.

Instagram erklärte, dass die Warnungen nächste Woche in den Vereinigten Staaten, dem Vereinigten Königreich, Australien und Kanada starten. Weitere Regionen folgen voraussichtlich im Laufe des Jahres. Das Unternehmen plant zudem, die Funktion zu erweitern, um Eltern zu warnen, wenn ein Jugendlicher die KI-Tools der App in Gesprächen zu Suizid oder Selbstschädigung nutzen möchte.

Größeres Kontext von Sicherheitsreformen in sozialen Medien

Diese Aktualisierung baut auf früheren Sicherheitsreformen von Meta auf. Im September 2024 führte das Unternehmen Teen Accounts auf Instagram ein, wodurch Nutzer unter 18 Jahren automatisch in private Konten mit strengeren Kontrollen versetzt werden. Die Änderungen begrenzten, wer Jugendliche kontaktieren oder taggen konnte, reduzierten die Aussetzung sensibler Inhalte in Explore und Reels, führten stärkere Anti-Bullying-Filter ein, fügten tägliche Zeit-Reminder hinzu und aktivierten eine „Schlafmodus“-Funktion, um Benachrichtigungen nachts zu deaktivieren.

Auch andere soziale Medienunternehmen stehen ähnlichen Prüfungen gegenüber. TikTok, das von ByteDance besitzt, kämpft mit Klagen aus mehreren US-Bundesstaaten, die behaupten, dass der Algorithmus so gestaltet ist, um den Engagement-Grad bei Kindern zu maximieren, um Werbeeinnahmen zu steigern. YouTube wurde ebenfalls kritisiert, wie seine Empfehlungssysteme junge Nutzer beeinflussen.

Instagram erklärte, dass es weiterhin Feedback überwachen und das neue Warnsystem anpassen wird, um ein Gleichgewicht zwischen Elterninformation und Nutzerprivatsphäre zu finden. Das Unternehmen betonte, dass das Ziel darin besteht, Familien mit Unterstützung zu versorgen, die sowohl effektiv als auch respektvoll gegenüber der Nutzerprivatsphäre ist.