So funktionieren die Zensurzentren auf Facebook

So funktionieren die Zensurzentren auf Facebook

"A Clockwork Orange" war ein Stanley Kubrick-Film, der in vielen Ländern wegen seiner gewalttätigen Bilder und einer zweideutigen Botschaft, die viele falsch interpretieren konnten, für sein Verbot bekannt war. Darin wird ein ultravioletter junger Mann von den Behörden gefangen genommen und einem Test ausgesetzt, um in seiner Persönlichkeit den freien Willen zu hemmen, dh eine Methode anzuwenden, um ihn zu einem guten Menschen zu machen. Wie haben sie das gemacht? Durch eine Schockbehandlung: Das Motiv wird mit permanent geöffneten Augen vor einem riesigen Bildschirm gefesselt und muss stundenlang unangenehme Szenen betrachten. Wenn er freigelassen wird und den Drang verspürt, gewalttätige Handlungen zu begehen, tritt Übelkeit auf, bedingt durch die Situation, in der er sich Tage zuvor befunden hatte.

So funktionieren die Zensurzentren auf Facebook

Stellen Sie sich vor, Sie schauen sich für ein großes Unternehmen acht Stunden am Tag gewalttätige, unangenehme Bilder, hasserfüllte Inhalte, Beleidigungen, Videos von Enthauptungen an. Ihre Arbeit in diesem Zentrum hilft zu bestimmen, was andere sehen können und was nicht. Sie arbeiten für eines der 20 Zentren, die Facebook weltweit eingerichtet hat, um die Zensur in Bezug auf Inhalte zu verwalten, die von Mark Zuckerbergs sozialem Netzwerk verboten sind. Eldiario.es hatte Zugang zu Quellen aus diesen Zentren in Städten wie Warschau oder Lissabon sowie zu Dokumenten, aus denen hervorgeht, unter welchen Bedingungen diese Agenten Zensur anwenden müssen.

Nach diesen Unterlagen müssen die Agenten für Moral und gutes Benehmen bei Facebook unter bedauerlichen Bedingungen arbeiten . Fensterlose Büros, in denen Hunderte von Menschen ihren Blick ständig auf einen Bildschirm richten müssen, auf dem groteske Inhalte vorkommen, um sie zu beseitigen und nicht zu erweitern. Sie sind, wie Álex in "A Clockwork Orange", Personen, die acht Stunden am Tag schrecklichen Bildern ausgesetzt sind, ohne genau zu wissen, welche Konsequenzen eine solche Handlung haben kann. Die Algorithmen, über die wir so viel sprechen, sind nichts als Menschen wie Sie und ich.

Facebook 02

Ihre körperlichen und geistigen Arbeitsbedingungen sind extrem

In solchen Zentren arbeiten insgesamt 15.000 Menschen. Viele von ihnen behaupten, dass es unmöglich ist, 100% fair zu sein, dass unter den Bedingungen, unter denen sie arbeiten, und aufgrund der Art der Aufgabe kontinuierlich Fehler auftreten können. Zensurarbeiter auf Facebook berechnen jeweils 700 Euro pro Monat und werden von internationalen Beratern an Dritte vergeben. Es ist verboten, jemandem mitzuteilen, dass sie für Facebook arbeiten , und dies immer als "Kunde" zu bezeichnen. Eldiario.es hat die Aussagen von drei Mitarbeitern dieser Art von Zentrum erhalten, die ihre Anonymität wahren müssen.

Die Arbeitsbedingungen sind extrem. Sie haben eine halbe Stunde Zeit, um sich in ihrer achtstündigen Schicht auszuruhen , und sie müssen sie jede Stunde verabreichen, um visuelle Pausen einzulegen, ihre Beine zu strecken, auf die Toilette zu gehen und sogar zu essen. Im Raum gibt es immer einen Prüfer, der unangemessenes Verhalten feststellt und bestraft: Ein Mitarbeiter, der anhält, während er Bilder auswählt, Wasser trinkt oder sein Handy herausnimmt, um etwas zu konsultieren, ist ein Grund für eine Sanktion. Darüber hinaus werden die Mitarbeiter selbst durch ein Punkteprogramm ermutigt, sich gegenseitig zu beschuldigen, wenn sie sehen, dass einer ihrer Kollegen strafbar ist.

So funktionieren Zensurzentren auf Facebook 1

Was arbeitest du?

Die Arbeit funktioniert wie folgt. Der Mitarbeiter hat einen Bildschirm vor sich, auf dem alle Inhalte auftreten, die die meisten Beschwerden des Benutzers ansammeln. Der Arbeiter hat dann zwei Optionen 'Löschen', mit denen er den Inhalt löscht, 0 'Ignorieren', wenn er der Meinung ist, dass er nicht gegen die Regeln von Facebook verstößt. Jede Person kann bis zu 600 Fälle pro Tag analysieren und hat, um eine der beiden Entscheidungstasten zu drücken, insgesamt 30 Sekunden für jeden einzelnen von ihnen. Normal ist natürlich, dass Ungerechtigkeiten begangen werden, unter Berücksichtigung all dessen, was jetzt über diese Zentren bekannt ist.

Die Zeitung gibt Beispiele für reale Fälle, in denen die befragten Mitarbeiter eingreifen mussten. Zum Beispiel erschien ihnen dieses Bild, eine Illustration, die vor Brustkrebs warnt.

Brustwarzen

Einer der Algorithmen, dieser automatische, der bereits funktioniert hat, ist der der Bilder, in denen weibliche Brustwarzen zu sehen sind. Es gibt jedoch Ausnahmen, wie für den Fall, dass die Bilder informativ sind . Es scheint klar zu sein, dass der Mitarbeiter in der obigen Abbildung das Bild „entsperren“ muss, da es sich um Informationen von allgemeinem Interesse über Krebs handelt und kein erotisches Bild ist.

Kind Mobbing Meme

In diesem anderen sehen wir, wie kompliziert die Arbeit dieser Moderatoren sein kann. Ist es ein Mem, das einen Akt des Mobbings von Kindern darstellt? Der Mitarbeiter muss innerhalb von 30 Sekunden entscheiden, ob er es entfernen möchte oder nicht. Dies ist eine Momentaufnahme eines echten Interviews und Fettleibigkeit wird nicht als Behinderung angesehen. Auf Facebook wird nichts gelöscht, was jemanden beleidigen könnte, außer dass jemand zu einer Gruppe behinderter Menschen gehört. In diesem Fall würde der Moderator die Schaltfläche "Ignorieren" wählen.

Die Widersprüche der Zensur auf Facebook

Zwei Beispiele, die mehr oder weniger klar sein mögen, aber in vielen anderen enthalten sind, in denen die Mehrdeutigkeit der Facebook-Regeln zum Vorschein kommt. Beispielsweise werden Inhalte, die sich auf Hitler beziehen, automatisch gelöscht. Inhalte, in denen sich Franco entschuldigt, sind jedoch zulässig. Einer der Gutachter konsultierte Behauptungen, dass Faschismus auf Facebook erlaubt sei. Sie können Ihre Wand mit Fotos von Mussolini füllen, damit nichts passiert. Aber pass auf Hitler auf . Oder weibliche Brustwarzen.

So funktionieren die Zensurzentren auf Facebook 2

Zu den verrücktesten Entscheidungen, die Facebook-Zensoren treffen müssen, gehört die Berücksichtigung der Größe der Bärte arabischer Männer, um festzustellen, ob sie Terroristen sind oder nicht. Darüber hinaus verurteilen die Befragten eine klare Doppelmoral, wenn es darum geht, bestimmten Gruppen zugute zu kommen. " Bestimmte Überzeugungen zu beleidigen ist erlaubt und andere völlig verboten ." Zum Beispiel der Zionismus. Alle Forderungen nach einem Boykott israelischer Produkte aufgrund der Massaker, die das Land in Palästina verübt, werden zensiert. Darüber hinaus hat die Wahrscheinlichkeit, dass Inhalte auf Facebook entfernt werden, viel mit der Macht und der organisatorischen Kapazität der Gruppe zu tun, die daran interessiert ist, dass sie verschwinden.

In Zukunft bleiben abzuwarten, welche psychologischen Konsequenzen diese Facebook-Mitarbeiter haben werden und welchen besonderen ideologischen Nutzen sie für die Moderation von Inhalten haben.