Schon seit längerem gibt es auf der Blogging-Plattform Tumblr Filter, um sensible Inhalte auszublenden. Diese Filter basieren dabei auf den Meldungen von Nutzern und den jeweiligen Blog-Einstellungen. In diesen lassen sich Blogs als NSFW, Not Safe For Work, kennzeichnen. Hauptsächlich gedacht für pornographische Inhalte, um diese zu verbergen.
Viele haben dann aber auch nicht expliziten Content gepostet, welcher nicht automatisch unmarkiert wurde. Dadurch verschwand im Pride-Month (Juni) einiges an Inhalten. Nutzer waren da natürlich selber schuld. Beschwerden hagelte es dann aber, wenn NSFW-Blogs unmarkierte Inhalte geteilt (rebloggt) haben, diese dann automatisch markiert wurden und dann aus der Suche verschwanden.
Tumblr entschuldigt sich nun und gab Änderungen an der Filterung bekannt. So werden nun nicht mehr alle Beiträge eines NSFW-Blogs gefiltert, sondern der Algorithmus klassifiziert jeden Beitrag einzeln. Weiterhin werden geteilte Beiträge nun nicht mehr markiert, wenn der Ersteller sicher ist. Schlussendlich werden bald auch Collagen (Photosets) analysiert und individuell bewertet. Aktuell ist dies noch nicht möglich.
Quelle: staff.tumblr
Tjaaa…der „explizite Content“ – gar nicht so einfach. Was in Gods Own Country schon überexplizit ist, kann man in D schon fast im Kinderprogramm sehen, grins.
Bei Meldungen von Nutzern kommt das eben genau so zum tragen: wo ich evtl. nur „so what“ brummele, da rennen andere schreiend mit rotem Kopfe aus dem Zimmer…
…wenn sie sich beobachtet fühlen. Später kommen sie dann heimlich wieder, um den expliziten Content im Stillen zu betrachten.
Tumblr ahoi!
Mit Moral hat das nichts zu tun. Da hat eher ein Microservice Bockmist gebaut
Nudity-Detection sollte man eben besser noch nicht maschinell versuchen.
https://blog.algorithmia.com/video-nudity-detection-microservice/