X-Konkurrent Mastodon ist voll mit Kindesmissbrauchs-Inhalten
Auf dem Kurznachrichtendienst Mastodon wimmelt es nur so von Kindesmissbrauchs-Beiträgen. Dem dezentralen sozialen Netzwerk fehlen Moderatoren und Technologien, die anstössige Inhalte erkennen und melden, wie eine Studie der Stanford University zeigt.
Mastodon, ein Rivale von X (ehemals Twitter), hat ein grosses Problem mit anstössigen Inhalten. Der Kurznachrichtendienst ist voll von Beiträgen, die sexuellen Kindsmissbrauch darstellen. Eine Studie der Stanford University sieht das Problem in den mangelnden Moderatoren und Technologien, die solches Material erkennen und melden. Grund für die schlechte Kontrollinstanz sei auch das dezentrale Modell von Mastodon, berichtet die "Washington Post".
Die Forschenden hinterfragten insbesondere, wie effektiv die Sicherheitsmassnahmen auf dezentralen Plattformen umgesetzt werden. Nutzerinnen und Nutzer könnten so nämlich unabhängig betriebenen Communities beitreten, die ihre eigenen Moderationsregeln festlegen. Zentralisierte Plattformen wie Instagram oder X nutzen hingegen Technologien, um genau solche Inhalte aufzuspüren und zu melden.
Haufenweise Treffer und KI-generierte Inhalte
Innert nur zwei Tagen fanden die Forschenden über 600 Inhalte, die eindeutigen Kindsmissbrauch darstellen oder wo ein solcher vermutet wird, wie die "Washington Post" weiter schreibt. Den ersten Treffer hätten die Forschenden bereits nach fünf Minuten gelandet. Im weiteren Verlauf hätten sie rund 2000 Beiträge mit entsprechenden Hashtags aufgespürt.
Es handle sich um die grösse Anzahl Foto-DNA-Treffer, die je im Zuge einer Social-Media-Analyse der Organisation gefunden worden sei, lässt sich der Forscher David Thiel zitieren. Die Forschenden berichten auch über einen Anstieg von KI-generiertem Material, das Kindesmissbrauch darstellt. Wie Regulierungsbehörden oder Tech-Plattformen mit diesen Inhalten umgehen wollen, sei noch nicht einheitlich geregelt.
"Ziemlich primitive" Werkzeuge im Einsatz
Die Technologien und Tools, welche die Moderatoren bei Mastodon anwendeten, seien "ziemlich primitiv". Zudem verlasse sich der Mikroblogging-Dienst auf ehrenamtliche Moderationsteams. Dass so viele Kindsmissbrauchsinhalte auf Mastodon landeten, sei deshalb auch auf den Mangel an Moderatoren und ausgereiften Werkzeugen zurückzuführen.
Die Forschenden raten deshalb, dass Mastodon stattdessen Strategien und Tools implementiert, die von zentralisierten Plattformen erfolgreich genutzt werden, wie es weiter heisst.
Auch Meta muss weiter an seinen Richtlinien arbeiten. Der Tech-Konzern muss seine Nutzerinnen und Nutzer für personalisierte Werbung künftig um Zustimmung bitten, wie Sie hier lesen können.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.