2 Remove Virus

Instagram, um Eltern zu benachrichtigen, falls Jugendliche wiederholt Suizid- oder Selbstverletzungsinhalte durchsuchen

Instagram von Meta Platforms Inc hat angekündigt, Eltern oder Erziehungsberechtigte zu benachrichtigen, wenn jugendliche Nutzer innerhalb kurzer Zeit wiederholt nach Begriffen im Zusammenhang mit Suizid oder Selbstverletzung suchen. Das Unternehmen erklärte, dass die Warnungen nur für Eltern gelten, die sich für Instagrams optionale Elternaufsichtstools angemeldet haben. Nachrichten werden je nach den von den Eltern angegebenen Kontaktdaten per E-Mail, SMS, WhatsApp oder per In-App-Benachrichtigung gesendet.

 

 

Instagram teilte mit, dass die Funktion zunächst in den Vereinigten Staaten, Großbritannien, Australien und Kanada verfügbar sein wird, mit einer breiteren Einführung in weitere Länder später im Jahr 2026. Instagram blockiert bereits Inhalte, die es als suizid- oder selbstverletztenbezogen identifiziert, in den Suchergebnissen von Accounts, die als jugendlich eingestuft sind, und verweist diese Nutzer auf Online-Ressourcen zur Unterstützung psychischer Gesundheit.

Meta erklärte, dass die neuen Warnungen dazu dienen, Eltern zu informieren, wenn ein Jugendlicher mehrere solcher Suchen in schneller Folge durchführt. Das Unternehmen erklärte, es habe eine sogenannte “angemessene Schwelle” gewählt, um Eltern nicht über isolierte oder versehentliche Durchsuchungen zu informieren, werde sie aber benachrichtigen, wenn wiederholte Durchsuchungen über einen begrenzten Zeitraum erfolgen. Instagram teilte mit, dass die Warnungen Links zu Unterstützungsressourcen enthalten werden, die Vorschläge machen, wie Eltern sensible Themen rund um Suizid und Selbstverletzung mit ihren Kindern besprechen können.

Das Unternehmen sagte, es arbeite auch an Werkzeugen, die Eltern informieren sollen, falls Jugendliche versuchen, mit seiner künstlichen Intelligenz zu interagieren, um Fragen zu Suizid und Selbstverletzung zu stellen. Meta hat keine konkreten Angaben zur Anzahl der Suchanfragen oder zu den genauen Kriterien angegeben, die eine Benachrichtigung der Eltern auslösen.

Die Initiative ist Teil von Instagrams umfassenderen Bemühungen, die Interaktion von Nutzern mit Suizid- und Selbstverletzungs-bezogenen Inhalten auf seinen Plattformen zu verbessern. Instagram teilte mit, dass es bereits automatisierte Systeme nutzt, um Suizid- oder Selbstverletzungsinhalte aus den Suchergebnissen zu blockieren und Nutzern, die auf solches Material stoßen, Sicherheitsressourcen anzuzeigen. Das Unternehmen erklärte, dass diese Systeme unabhängig davon funktionieren, ob elterliche Aufsichtstools verwendet werden, und die neuen Benachrichtigungen sollen Eltern, die sie erhalten, zusätzliche Sichtbarkeit bieten.

Instagram teilte mit, dass die Unterstützungsressourcen Links zu Organisationen enthalten, die Ratschläge zum Sprechen über emotionalen Stress und Krisensituationen bieten. Das Unternehmen erklärte, es werde weiterhin Maßnahmen entwickeln, die darauf abzielen, junge Nutzer bei der Nutzung seiner Dienste sicher zu halten.

Die Ankündigung der Warnungen durch Meta erfolgt, während das Unternehmen in den Vereinigten Staaten mit rechtlichen Herausforderungen wegen des Umgangs mit Jugendlichen und schädlichen Inhalten konfrontiert ist. Klagen gegen Meta vor US-Gerichten behaupten, dass die sozialen Mediendienste des Unternehmens, einschließlich Instagram, so gestaltet sind, dass sie jungen Menschen schaden können, indem sie Sucht fördern oder Minderjährige nicht vor Inhalten schützen, die ihr Wohlbefinden negativ beeinflussen können.

Meta hat in juristischen Schriftsätzen und öffentlichen Stellungnahmen darauf reagiert, dass die Forschung keine schlüssigen Zusammenhänge zwischen der Nutzung sozialer Medien und dem Schaden der psychischen Gesundheit von Jugendlichen nachweist. Das Unternehmen erklärte, es konzentrierte sich weiterhin auf die Anwendung von Forschung und die Entwicklung von Werkzeugen, die laut Bedarf zum Schutz von Minderjährigen auf seinen Plattformen sind.

Instagram gab an, seine Richtlinien und Werkzeuge basierend auf Feedback und sich entwickelnder Forschung zu aktualisieren, gab jedoch keine konkreten Zeitpläne für den umfassenderen globalen Ausbau oder die Veröffentlichung zusätzlicher Warnfunktionen im Zusammenhang mit Interaktionen mit künstlicher Intelligenz bekannt. Das Unternehmen erklärte, es werde überwachen, wie sich die Benachrichtigungsfunktion der Mutter in den Anfangsmärkten entwickelt und möglicherweise die Kriterien für Warnungen verfeinern. Meta erklärte, dass es weiterhin mit externen Experten zusammenarbeiten wird, um Ansätze zur Nutzersicherheit zu entwickeln, insbesondere für Teenager-Konten, zu entwickeln