Esta es la razón por la cual no quisieras ser moderador de Facebook

  • 0 Respuestas
  • 1287 Vistas

0 Usuarios y 1 Visitante están viendo este tema.

Desconectado Andrey

  • *
  • Underc0der
  • Mensajes: 251
  • Actividad:
    0%
  • Reputación 8
  • Toma lo que quieras, y nada devuelvas...
    • Ver Perfil
    • Evil Labs

Tras la reciente demanda que una moderador de Facebook emprendió contra de la plataforma, se ha dado a conocer toda la oscuridad que hay detrás del trabajo.

El trabajar en las redes sociales, no siempre resulta ser tan divertido como se cree, y para probarlo se encuentra la reciente demanda que una ex trabajadora de Facebook realizó en contra de la plataforma, porque aseguraba que no se le estaba dando la atención psicológica necesaria.

Se preguntarán por qué habría de recibir este tipo de ayuda, y la respuesta es tan sencilla como la que dio la denunciante: los moderadores de contenidos de Facebook, son bombardeados con miles de vídeos e imágenes de ofensivas y perturbadoras, que acaban con la paz mental en muy poco tiempo.

De acuerdo a ello y por el trauma o traumas que podrían desarrollar los moderadores, se considera que deberían existir cuidados adecuados por parte de la empresa, la cual según el litigante, no existen y no se toman en cuenta.

La abogada de la antigua empleada, ha dado a conocer que Facebook esta ignorando uno de los principales objetivos de las compañías: ofrecer un lugar de trabajo seguro en todo sentido, para que su fuerza de trabajo se encuentre en óptimas condiciones para realizar sus labores diarias.


Sin embargo, la compañía de Mark Zuckerberg, explicó a través de Roberta Thomson, director de comunicación corporativa de la red social, que nada de esto es cierto, ya que ellos se preocupan por todos y cada uno de los aspectos:

“Nos tomamos muy en serio el apoyo que ofrecemos a nuestros moderadores de contenido. Nos aseguramos que a cualquier persona que revisa el contenido de Facebook se le ofrezca apoyo psicológico”.

Por el momento, las declaraciones de Thomson se unen a la noticia sobre la Inteligencia Artificial en la que está trabajando Facebook, para ayudar precisamente a los revisores a identificar el contenido inapropiado, y aunque es una buena idea, las personas creen que una tare de este tipo no puede dejarse en manos de un robot.

Algunas de las situaciones a las que se exponen los moderadores de contenido, todos los días son las siguientes:

Pornografía infantil
Abuso sexual infantil
Violaciones
Tortura
Zoofilia
Decapitaciones
Suicidios
Asesinatos



Fuente: https://www.unocero.com/redes-sociales/esta-es-la-razon-por-la-cual-no-quisieras-ser-moderador-de-facebook/


"Es un mundo brutal y peligroso el que hay allá afuera... Pero encontré mi camino. El caos es mi hogar, y me aseguraré de que no escapes de el"...

"Solo se necesita una excusa para cambiar el mundo"

 

Facebook podría tener un botón de "no me gusta"

Iniciado por Alejandro_99

Respuestas: 0
Vistas: 1990
Último mensaje Diciembre 12, 2014, 03:50:13 pm
por Alejandro_99
Facebook corrige fallas de "divulgación de memoria"

Iniciado por Dragora

Respuestas: 0
Vistas: 701
Último mensaje Septiembre 09, 2019, 12:13:34 pm
por Dragora
Facebook: ¿Por qué la red social rechazó la opción de "No me gusta"?

Iniciado por Alejandro_99

Respuestas: 0
Vistas: 2086
Último mensaje Noviembre 02, 2014, 08:22:55 pm
por Alejandro_99
Facebook "intentó" usar un spyware para espiar a ciertos usuarios

Iniciado por Dragora

Respuestas: 0
Vistas: 269
Último mensaje Abril 07, 2020, 12:31:17 pm
por Dragora
La app de Facebook para Windows 10 eliminada para siempre de la Microsoft Store

Iniciado por Dragora

Respuestas: 0
Vistas: 594
Último mensaje Marzo 04, 2020, 02:20:00 pm
por Dragora