Die Covid-19-Pandemie hatte dramatische Auswirkungen auf das Leben der meisten Kinder weltweit. Als die meisten europäischen Länder im Frühjahr 2020 von der Pandemie betroffen waren, verlagerten sich die meisten aller Aktivitäten der Kinder plötzlich in die digitale Welt. Seitdem werden die Schulbildung, die Freizeit, die sozialen Kontakte und das häusliche Leben der jungen Generation größtenteils zu Hause über digitale Medien abgewickelt. Die Nutzung neuer Tools und Dienste sowie die Tatsache, dass die Jüngsten mehrere Stunden am Tag online verbringen, haben ihren Tagesablauf dramatisch verändert. Keine Frage: Die Online-Welt bietet Chancen, neue Möglichkeiten und ersetzt den persönlichen Kontakt. Sie öffnet jedoch auch die Tür zu den bekannten Online-Risiken, wie unangemessene Inhalte, übermäßige Nutzung, Desinformation oder den Missbrauch persönlicher Daten. Vor allem aber Cyberbullying, Cybermobbing und Cyberhate.
So fand eine Studie des EU Joint Research Center der Europäischen Kommission heraus, dass inzwischen jedes zweite Kind schon mindestens einmal Opfer von Cyberbullying wurde.
Abgesehen von den psychischen Folgen, die diese Erfahrung mit sich bringt, zeigen Studien, dass Personen, die Opfer von Cybermobbing geworden sind, viel höherer Gefahr ausgesetzt sind Opfer eines Identitätsdiebstahls zu werden. Hier haben wir es mit einem weiteren ernsthaften Problem zu tun, dass gerade immer aktueller wird.
Cybermobbing ist ein ernstes Problem, das sich von Jahr zu Jahr verschlimmert. Die Cybermobbing-Statistiken [1] zeigen, dass ein breites Spektrum von Bevölkerungsgruppen auf unterschiedlichste Weise betroffen ist. Um dieses Problem zu lösen sind Investitionen in Bildung und Aufklärung elementar. Solange es aber existiert, gibt es Opfer die geschützt werden müssen.
Kinder sprechen nicht darüber was passiert
In den elf europäischen Ländern, die der Bericht [1] des Joint Research Center der Europäsischen Kommission untersuchte, gaben 44 % der Kinder, die bereits vor der Schließung aller Schulen und sozialen Einrichtungen online gemobbt wurden, an, dass dies während des Lockdowns noch häufiger geschah. Jedes Kind reagiert unterschiedlich auf solche Attacken. In Europa werden jährlich 60 Suizide auf Cybermobbing zurückgeführt. Warum ist das so? Vor allem, weil die Opfer unter den moralischen und/oder physischen Auswirkungen von Beleidigungen, Spott, Ausgrenzung aufgrund sexueller Identität und Drohungen leiden. Dieses Leid ist oft nur für das Opfer selbst spürbar, ganz gleich, ob darüber gesprochen wird oder nicht. Wir als Tech-Unternehmen, Eltern und Gesellschaft können diese negativen Auswirkungen verringern und zu einem positiven Engagement in sozialen Netzwerken beitragen, wenn der Diskurs aufrecht gehalten wird und wir über die Vorkommnisse sprechen. Doch wie, zumal wenn wir nicht in der Situation mit anwesend sind? Wie erfahren wir davon, ohne den Kindern die Bürde aufzuerlegen dies anzusprechen. Indem wir automatisch alarmiert werden, wenn beleidigende Inhalte identifiziert werden.
Die Lösung liegt im Code
Es braucht eine Anwendung, die es ermöglicht, schädliche Inhalte in sozialen Netzwerken präventiv zu moderieren, um dieses große Problem anzugehen. Das Tool muss präventiv agieren, als virtueller Bodyguard in den einflussreichsten sozialen Netzwerke wie zum Beispiel TikTok, Twitter, Youtube, Twitch und Instagram. Letzteres Netzwerk ist Spitzenreiter mit einem Anteil von 42 % aller Cyberbullying Attacken, die hier erhoben worden sind.
Es braucht eine Antwort auf die Notwendigkeit, Kinder zu schützen und Eltern zu unterstützen. Eine einfach zu handhabende Technologie, wie zum Beispiel, einen QR-Code, den Eltern mit ihrem Kind teilen, um die App zu installieren. Kinder und Jugendliche verknüpfen ihre Konten in den sozialen Netzwerken mit wenigen Klicks und legen eigenen Regeln gemeinsam mit den Eltern fest. Der virtuelle Bodyguard erkennt und löscht hasserfüllte und andere gewaltvolle Inhalte, bevor sie veröffentlicht werden. Darüber hinaus steht Eltern eine Schnittstelle mit einer FAQ und einer Rechtsbeistandsnummer für Fragen oder Notfälle zur Verfügung.
Nur 10 % der Kinder, die Opfer von Cybermobbing werden, erzählen ihren Eltern davon, weshalb wir den Dialog durch Prävention und Aufklärung fördern müssen. Jedes Kind reagiert unterschiedlich empfindlich auf toxische Inhalte. Ein einfühlsamer Algorithmus benötigt daher eine stärkere Personalisierung: Jugendliche können die Reaktion der Anwendung je nach Art des Bullying, also, ob es sich um eine Beleidigungen, Drohungen oder Rassismus handelt, anpassen. Leider entsprechen die auf dem Markt befindlichen Produkte nicht den Bedürfnissen von Kindern und Eltern. Tests zeigen, dass die heute auf dem Markt befindlichen Lösungen durchschnittlich nur 25 % aller Fälle von Cybermobbing erfassen.
Mehr als ein Screening des Screens
Automatisierte Sprach-Analysen werden der Komplexität sprachlicher Äußerungen in einem sozialen Umfeld nicht gerecht. Es bedarf eines Screenings, das auf verschiedenen Ebenen ansetzt, da NLP nur dann effektiv arbeiten kann.
Das erste Problem der meisten Erkennungssoftware besteht darin, dass die untersuchten Äußerungen mit Rechtschreibfehlern, Emojis, Tabulatoren usw. gespickt sind. Ein intelligenter Code muss die Bedeutung extrahieren, indem er die Fehler versteht und gleichzeitig die Botschaft extrahiert. Daher ist die Bereinigung aller sprachlichen Unreinheiten erste Voraussetzung.
Erst dann macht die Erkennung von Toxizität Sinn. Aber selbst dann kann das Sammeln aller Wörter oder Sätze, die potenziell schädlich sein könnten, nicht völlig erfolgreich sein, da man aus der Alltagssprache weiß, dass der Kontext, in dem eine Äußerung gemacht wird, entscheidend für ihre Bedeutung ist. Wir müssen also noch weiter gehen, wenn potenziell schädliche Inhalte erkannt werden. Die Technologie muss den Kontext und den Rahmen verstehen, um festzustellen, an wen sich der Inhalt in erster Linie richtet. Daher müssen Moderationsregeln vorhanden sein, die sich aber auch von Fall zu Fall ändern müssen, da es mehr als ein Umfeld zu berücksichtigen gibt. Zum einen gibt es die Richtlinien des sozialen Netzwerks selbst. Zweitens der Reifegrad des Kindes und nicht zuletzt das allgemeine Verständnis von toxischer Sprache.
Ein solches Verfahren wäre den bisherigen weit voraus, da es sich nicht nur auf eine Textzeile konzentriert, sondern diese erstens bereinigt und damit optimal auswertbar macht und zweitens den Rahmen einbezieht. Auf diese Weise wird viel mehr Cybermobbing aufgedeckt und kann im Keim erstickt oder sogar direkt besprochen werden. So kann eine Erfolgsquote von 90 % im Vergleich zu den marktüblichen 25 % erzielt werden.
Und das ist der Moment, in dem wir unser Konzept von Versicherungen überdenken müssen, denn Insurtechs halten Einzug in unsere Welt und verändern auch das Konzept der Cybersicherheit. Der technische Prozess und das Sprachscreening, d. h. die Erkennung von Hassreden, die potenziell zu Cybermobbing führen, können automatisch zu verschiedenen Maßnahmen führen, wie z. B. der Information und Warnung der Eltern, dem Vorschlag von Bildungsinhalten oder dem Vorschlag, eine Versicherung zu aktivieren, die die Kosten für psychologische Unterstützung abdeckt.
Insurtech definiert die Idee der Schadensverhütung von etwas, das nach einem Vorfall in Aktion tritt, zu etwas, das automatisch in Aktion ist, neu. Es scannt und versucht zu verhindern, dass eine Aktion stattfindet. Und selbst wenn sie stattfindet, um über Anleitung, Unterstützung und Hilfe automatisch.
Die psychische Gesundheit der Gesellschaft von morgen wird bereits heute bestimmt. Vor allem in einer derart fragmentierten, komplexen und digitalen Welt braucht es technischer Unterstützung, um seiner Rolle als Eltern gerecht zu werden. Eine Versicherung für morgen, denkt das heute schon mit.
Quellen und Referenzen:
[1] https://publications.jrc.ec.europa.eu/repository/handle/JRC124034
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.