Moderación de contenido

Moderación de contenido (Content-Moderation) significa la influencia de los proveedores de diversos servicios sobre el contenido de los medios en las redes sociales, foros de Internet, servicios en la nube, sistemas de gestión de contenido y otros sistemas de tecnología de la información. Las tareas de un moderador de contenido incluyen eliminar y bloquear contenido, así como filtrar, organizar y evaluar información y datos. La moderación de contenido es parte de la gestión de contenido y, a menudo, también de la gestión de la comunidad en línea. Su propósito es prevenir ciertos aspectos del delito cibernético y eliminar contenido que viole la prohibición de distribución.[1] Esto debe distinguirse del trabajo de investigación criminal, por ejemplo en Darknet, con fines de enjuiciamiento penal.

La moderación de contenido comercial (Commercial Content Moderation: CCM) es un término acuñado por Sarah T. Roberts para describir la práctica de "supervisar y examinar el contenido generado por el usuario (UGC) para plataformas de redes sociales de todo tipo, a fin de garantizar que el contenido cumpla con los requisitos legales y reglamentarios, pautas del sitio/comunidad, acuerdos de usuario y que se encuentra dentro de las normas de gusto y aceptabilidad para ese sitio y su contexto cultural".[2]

Contenido moderado

Los grandes proveedores de servicios de Internet como Facebook, Google, Twitter y YouTube contratan a los llamados "moderadores de contenido comercial" para eliminar o bloquear contenido cuestionable. El contenido que se eliminará incluye, entre otros, crimen, tortura, violencia, asesinato y suicidio, incitación al odio y ciberacoso, terrorismo, crueldad animal, violación y abuso infantil.[3] Se estima que hay varios cientos de miles de moderadores de contenido en todo el mundo que son responsables de la eliminación de contenido. En Alemania, más de 1.000 moderadores de contenido trabajan juntos en Berlín y Essen, quienes verifican y, si es necesario, eliminan las entradas que violan los estándares de Facebook o la Ley de cumplimiento de la red.[4][5][6] Las corporaciones, sin embargo, subcontratan el trabajo principalmente en los países en desarrollo y emergentes, donde la gente trabaja por salarios bajos.[7][8]

La actividad del moderador de contenido está siendo reemplazada cada vez más por inteligencia artificial o preordenada y reducida por sistemas automatizados como los filtros de carga.

Condiciones de trabajo de los moderadores

El documental The Cleaners [9][10] retrata, por ejemplo, las condiciones de trabajo inseguras y los contratos de trabajo a corto plazo (trabajo temporal) de los moderadores en Filipinas, donde trabaja la mayoría de los moderadores de contenido. El aburrimiento se produce en el trabajo porque se deben realizar muchas actividades monótonas (síndrome de aburrimiento) y el contenido ofensivo también puede provocar disgusto y estrés mental. Los moderadores de contenido también deben poder reaccionar rápidamente.

Los empleados deben firmar un acuerdo de confidencialidad y no se les permite hablar sobre su trabajo. Los moderadores de contenido encuentran trabajo en agencias de relaciones públicas, centros de llamadas, en las propias empresas, centros especiales de borrado o webs de coordinación como Amazon Mechanical Turk. Sin embargo, los trabajos permanentes son preferidos por los empleados por razones legales. Las empresas especializadas en el campo son, por ejemplo, TaskUS, MicroSourcing y Arvato.

Seguridad laboral

En 2006, grandes empresas de TI como Facebook, Microsoft y Twitter formaron la Technology Coalition (Coalición de Tecnología) en los Estados Unidos para tomar medidas contra la pornografía infantil delictiva y el abuso sexual infantil en Internet.[11] La asociación fundó, entre otras cosas, la Crimes Against Children Conference (CACC) (Conferencia sobre delitos contra los niños) y desarrolló pautas de seguridad ocupacional (Guía de resiliencia para empleados) [12] para los empleados que se enfrentan a contenido delictivo en su trabajo.

Críticas y demandas a Facebook

Facebook contrata a algunos empleados a través de empresas, incluidas Accenture, Arvato, Cognizant, CPL Resources y Genpact, para actuar como moderadores de contenido, revisando el contenido potencialmente problemático publicado tanto en Facebook como en Instagram.[17] Muchos de estos contratistas enfrentan expectativas poco realistas, duras condiciones de trabajo y exposición constante a contenido perturbador, incluida la violencia gráfica, el maltrato animal y la pornografía infantil . El empleo del contratista depende de lograr y mantener una puntuación de 98 en una escala de 100 puntos en una métrica conocida como "precisión". Caer por debajo de un puntaje de 98 puede resultar en el despido . Algunos han informado sobre el trastorno de estrés postraumático (TEPT) derivado de la falta de acceso a la consejería, junto con las expectativas implacables y el contenido violento que se les asigna para revisar.

El moderador de contenido Keith Utley, que trabajaba para Cognizant, sufrió un ataque al corazón durante el trabajo en marzo de 2018; la oficina carecía de un desfibrilador y Utley fue transportado a un hospital donde murió.[18] Selena Scola, una empleada del contratista Pro Unlimited, Inc., demandó a su empleador después de que desarrolló PTSD como resultado de la "exposición constante y absoluta a imágenes altamente tóxicas y extremadamente perturbadoras en el lugar de trabajo".[19] En diciembre de 2019, el exempleado de CPL, Chris Gray, inició acciones legales en el Tribunal Superior de Irlanda, reclamando daños y perjuicios por el trastorno de estrés postraumático experimentado como moderador,[20] el primero de más de 20 casos pendientes estimados. En febrero de 2020, los empleados de Tampa, Florida, presentaron una demanda contra Facebook y Cognizant alegando que desarrollaron TEPT y problemas de salud mental relacionados como resultado de la exposición constante y absoluta a contenido perturbador.[21]

En febrero de 2020, los comisionados de la Unión Europea criticaron los planes que tiene Facebook para lidiar con las condiciones laborales de quienes están contratados para moderar contenido en la plataforma de redes sociales.[22]

Facebook acordó resolver una demanda colectiva por $ 52 millones el 12 de mayo de 2020, que incluyó un pago de $1,000 a cada uno de los 11.250 moderadores de la clase, con compensación adicional disponible para el tratamiento del PTSD y otras condiciones resultantes de los trabajos.[23][24][25][26][27][28][29] Se planteó también una demanda contra TikTok.[30]

Regulación de internet

Las representaciones de conflictos armados y actos de violencia a menudo se eliminan o censuran.[4] Algunos ven la privatización del control por parte de las principales plataformas de Internet como una amenaza a la libertad de expresión y la democracia.[31][32]

Se acusa a las corporaciones de evadir sus responsabilidades digitales al subcontratar trabajo por bajos salarios en países en desarrollo y emergentes y de intentar crear un mundo ilusorio. La moderación de contenido también se puede utilizar para publicar noticias falsas, censurar Internet o para otros fines de manipulación.[33]

Referencias

  1. Grygiel, Jennifer; Brown, Nina (June 2019). «Are social media companies motivated to be good corporate citizens? Examination of the connection between corporate social responsibility and social media safety». Telecommunications Policy 43 (5): 2, 3. S2CID 158295433. doi:10.1016/j.telpol.2018.12.003. Consultado el 25 de mayo de 2022.
  2. «Behind the Screen: Commercial Content Moderation (CCM)». Sarah T. Roberts | The Illusion of Volition (en inglés estadounidense). 20 de junio de 2012. Consultado el 3 de febrero de 2017.
  3. Thomas Ammann: Was für ein Horrorjob - Content-Moderator für 248.000 Facebook-Nutzer stern.de, 24. Mai 2017
  4. «"The Cleaners": Die Opfer des Bildergemetzels» ["The Cleaners": Las víctimas de la carnicería de las imágenes]. Die Zeit (en alemán). Consultado el 17 de julio de 2023.
  5. Burcu Gültekin Punsmann (5 de enero de 2018). «Ich musste für Facebook Gewalt und Hetze löschen» [Tuve que borrar la violencia y el discurso de odio de Facebook]. Süddeutsche Zeitung (en alemán). Consultado el 17 de julio de 2023.
  6. «Fehler 404». meedia.de. Consultado el 17 de julio de 2023.
  7. Vittoria Elliott and Tekendra Parmar (22 de julio de 2020). «“The despair and darkness of people will get to you”». Consultado el 17 de julio de 2023.
  8. «Invisible Data Janitors Mop Up Top Websites - Al Jazeera America». aljazeera.com.
  9. «The Cleaners» (en alemán). Consultado el 17 de julio de 2023.
  10. «Im Schatten der Netzwelt» [A la sombra del mundo de internet]. Internet Movie Database. Consultado el 17 de julio de 2023.
  11. The Technology Coalition Startseite (englisch)
  12. Employee Resilience Guidebook for Handling Child Sexual Exploitation Images The Technology Coalition, 2015
  13. Newton, Casey (25 de febrero de 2019). «THE TRAUMA FLOOR: The secret lives of Facebook moderators in America». The Verge. Consultado el 25 de febrero de 2019.
  14. O'Connell, Jennifer (30 de marzo de 2019). «Facebook's dirty work in Ireland: 'I had to watch footage of a person being beaten to death'». The Irish Times. Consultado el 21 de junio de 2019.
  15. Newton, Casey (19 de junio de 2019). «Three Facebook moderators break their NDAs to expose a company in crisis». The Verge. Consultado el 21 de junio de 2019.
  16. Wong, Queenie (19 de junio de 2019). «Murders and suicides: Here's who keeps them off your Facebook feed». CNET. Consultado el 21 de junio de 2019.
  17. [13][14][15][16]
  18. Eadicicco, Lisa (19 de junio de 2019). «A Facebook content moderator died after suffering heart attack on the job». San Antonio Express-News. Consultado el 20 de junio de 2019.
  19. Maiberg, Emanuel (24 de septiembre de 2018). «A Former Content Moderator Is Suing Facebook Because the Job Reportedly Gave Her PTSD». Vice. Consultado el 21 de junio de 2019.
  20. Gray, Chris (4 de diciembre de 2019). «Ex-Facebook worker claims disturbing content led to PTSD». The Guardian. Consultado el 25 de febrero de 2020.
  21. «Facebook sued by Tampa workers who say they suffered trauma from watching videos». Tampa Bay Times (en inglés). Consultado el 8 de mayo de 2020.
  22. Leprince-Ringuet, Daphne. «Facebook's approach to content moderation slammed by EU commissioners» (en inglés). ZDNet. Consultado el 19 de febrero de 2020.
  23. Newton, Casey (12 de mayo de 2020). «Facebook will pay $52 million in settlement with moderators who developed PTSD on the job». The Verge. Consultado el 1 de junio de 2020.
  24. Allyn, Bobby (12 de mayo de 2020). «In Settlement, Facebook To Pay $52 Million To Content Moderators With PTSD». NPR. Consultado el 1 de junio de 2020.
  25. Paul, Kari (13 de mayo de 2020). «Facebook to pay $52m for failing to protect moderators from 'horrors' of graphic content». The Guardian. Consultado el 1 de junio de 2020.
  26. «Ex-Mitarbeiterin verklagt Facebook wegen Schock-Inhalten» [Exempleada demanda a Facebook por contenido impactante]. DIE HARKE. Consultado el 17 de julio de 2023.
  27. Laurence Dodds (25 de septiembre de 2018). «Facebook moderator sues after developing PTSD from viewing disturbing content». The Telegraph. Consultado el 17 de julio de 2023.
  28. «A Former Content Moderator Is Suing Facebook Because the Job Reportedly Gave Her PTSD» [Una exmoderadora de contenido está demandando a Facebook porque, según se informa, el trabajo le provocó trastorno de estrés postraumático]. Motherboard (en inglés). 24 de septiembre de 2018. Consultado el 17 de julio de 2023.
  29. Kari Paul (13 de mayo de 2020). «Facebook to pay $52m for failing to protect moderators from 'horrors' of graphic content». The Guardian. Consultado el 17 de julio de 2023.
  30. Sebastian Meineck (28 de diciembre de 2021). «Verstörende Gewalt: Löscharbeiterin klagt gegen TikTok» [Violencia perturbadora: trabajadora de borrado de contenido demanda a TikTok]. netzpolitik (en alemán). Consultado el 17 de julio de 2023.
  31. Fanta, Alexander (3 de mayo de 2018). «EU-Parlament warnt vor Overblocking durch Internetfirmen». netzpolitik.org (en de-DE). Consultado el 17 de julio de 2023.
  32. «Die digitale Müllabfuhr: Kommerzielle Inhaltsmoderation auf den Philippinen» [Eliminación de basura digital: moderación de contenido comercial en Filipinas]. Netzpolitik (en alemán). Consultado el 17 de julio de 2023.
  33. Reto Stauffacher (27 de agosto de 2018). ««The Cleaners» im TV: Was im Internet schiefläuft | NZZ». Neue Zürcher Zeitung (en alemán). Consultado el 17 de julio de 2023.

Bibliografía

Enlaces externos

Este artículo ha sido escrito por Wikipedia. El texto está disponible bajo la licencia Creative Commons - Atribución - CompartirIgual. Pueden aplicarse cláusulas adicionales a los archivos multimedia.