Hace 1 año | Por blodhemn a businessinsider.es
Publicado hace 1 año por blodhemn a businessinsider.es

Los moderadores de TikTok que describen una cultura de excesiva carga de trabajo y vigilancia constante, confiesan que sus trabajos les han dejado traumatizados y que no se les informó adecuadamente sobre el material que iban a revisar. TikTok recurre a empresas externas para ayudar a la moderación de sus contenidos, una parte vital de su modelo de negocio. Seis moderadores, tanto en activo como antiguos, afirman que han tenido que visualizar de forma constante vídeos gráficos que incluyen abusos a menores, suicidios y asesinatos

Comentarios

XavierGEltroll

#3 una vez hablé con un moderador de Facebook. Lo que más veían eran fiestas de cumpleaños, digo que era rarísimo ver algo así

pawer13

#25 es probable que hoy día haya IAs haciendo un filtro previo, con lo que los vídeos que revisen humanos sean lo ya marcados como potenciales infractores.

E

#39 parecido, los que revisan los humanos son la zona gris.

El que la IA marca como porno/gore/etc con más del X % de confianza, se marcará como infracción y solamente se debería revisar bajo petición del usuario.

El problema es cuando la IA te marca un ¿5%? de posibilidades de algo chungo y justo lo pasa al revisor humano y sí lo es

j

#1 hay el que hay

#1 igual eso no los traumatiza tanto

janatxan

#13 no todo el mundo va salido ni de humor 24/7 para ver obligados porno y similares.

D

#34 ¿Y por qué siguen en ese tipo de trabajo? Si solo se quedan los que de verdad pueden con ello, serán menos, y pagaran mas y ello atraerá a otros que también lo soportan pero que ahora mismo por lo que pagan y ofrecen no les renta. Lo que es un sin sentido es estar en un trabajo que te traumatiza y querer que eso cambie en vez de irte, porque una cosa es seguro, un moderador de una red social de este tipo va a seguir viendo todas esas cosas haga lo que haga la empresa porque el mundo es así y ellos están ahí precisamente para eso, para detectar, denunciar y filtrar.

#47 ¿Hacen mal en querer que cambien las cosas y se valore su esfuerzo emocional? ¿La lucha no es el camino para defender sus derechos?

D

#49 Qué pidan más está bien. Aunque ya te digo que es más efectivo irse. Que pidan que cambie lo veo un poco absurdo. Ver esas mierdas es parte de su trabajo les guste o no.

#74 Es cierto que aceptaron el trabajo y probablemente tenían claro de qué iba. Pero aunque el mecanismo que dices pueda funcionar, también me parece justo que tengan derecho a exigir desde donde están.

Aimfain

#47 S09E206 Cómo culpar al trabajador en vez de a la empresa culpable . mkv

BM75

#34 Los algoritmos ya filtran muchísima mierda antes que los moderadores. Me cuesta creer que vean TANTO.

UnDousTres

#59 Cuantas violaciones de niños al dia te parece adecuado ver?

BM75

#62 Ninguna, desde luego. Lo tengo clarísimo, no estoy tratando de justificar ni exculpar nada.

Mi comentario era una valoración cuantitativa, no cualitativa, sobre el tema.

m

#62 parece que roza el humor negro o absurdo pero es que estas cosas parecen la típica pregunta para entrar en los eeuu. planea usted hacer terrorismo contra los americanos? planea usted violar niños y comerlos a la plancha?

Abfjmp

#1 a ver infórmanos a que te refieres con eso de puterio, y dinos cómo se apuntan esos degenerados.

obmultimedia

#1 mucho menor enseñando abdominales ( - braguitas y sujetador en el caso de las chicas) mientras baila con poses sexuales, que daño esta haciendo esta app.

Aergon

#1 Hasta ahora no me lo había planteado mucho pero debe ser un problema bastante general de las redes que permiten subir vídeos. La diferencia debe estar en la preparación de los empleados

m

#1 pozi. traducción del español al español:

moderador de tiktok = agitador

gale

#12 La empresa también lo sabe.

ailian

#27 Perdón, listillo, pero es como ir a trabajar a una carnicería y luego quejarse de que ve mucha sangre.

D

#27 “Pueden saberlo y aún así necesitar el dinero de un trabajo digno.“
Cogió el trabajo voluntariamente, no creo que fuera el único disponible.

"Pueden saberlo y aún así pensar que es algo que no les superará y equivocarse."
Si les supera que lo dejen.

"Incluso pueden saberlo, saber no están preparados y necesitar el dinero para alimentar a su familia."
Seguro al 100% de que hay más trabajos,eso no es excusa.

X

#12 Es como la gente que se mete a psicología, sólo que los psicólogos tienen todo un sistema de "limpieza" que se hacen de vez en cuando; dudo que mucha gente que se mete a esa carrera sepa el lado oscura de ella. Los moderadores de RRSS es una profesión nueva, y obviamente no podían predecir estos problemas.

T

#12 Nadie sabe lo que se ve en las plataformas de moderación excepto aquellos que ya han sido moderadores, nadie; por definición solo los moderadores que descartan el contenido saben el contenido que hay, pues de puertas hacia fuera no existe.

Tú te lo puedes imaginar, sí, con mayor o menor acierto, pero no saberlo. Pensar que la gente se mete a sabiendas de que van a ver decapitaciones y muestras de necrofilia es de ignorancia voluntaria.

Por otra parte no se quejan de lo que ven, sino de la actitud de las empresas:
* el aviso sobre el contenido era una frase enterrada en un contrato de vete tú a saber cuántas páginas.
* les obligaban a ver los videos en su totalidad, fuese lo que fuese, aunque ya supieran que hay que descartarlo.
* les empezaron a negar descansos pactados durante la contratación.

Te recomiendo que te leas el artículo, es interesante.

D

En Barcelona hay unas giga-oficinas que trabajan para Facebook filtrando esos contenidos, y por lo visto la gente acaba bastante tocada de la cabeza, después de unos meses trabajando ahí.

TDI

Pues deben estar sensibles cuando luego tiran un vídeo porque sale una imagen centenaria o milenaria con un pezón.

p

Para estos casos lo mejor es contratar a "raritos"

pawer13

#2 posiblemente los psicópatas sufran poco con estas cosas

Doisneau

#2 Un dia mas en la vida de un 4channer oldfag, el equivalente de internet de criarse en las favelas

E

#45 you have just lost The Game

m

#2: O usar IA, con eso las imágenes normalmente las tendrías que marcar una vez y luego las derivadas (recortes, logotipos...) se detectarían con bastante facilidad a partir de esa.

cosmonauta

#61 Esos moderadores son los que entrenan a la IA.

frg

#2 Conozco uno que dejó esta mierda para trabajar de teloperador. Imagina lo que tenía que tragar para parecerle bueno en trabajo de teleoperador.

T

Que mal hay que estar de los fusibles para ir compartiendo ese contenido

Connect

De Tik tok, de Facebook y de cualquier red social. Al final hay una persona que es la que ve el video y decide si se debe retirar o no. Y hay verdaderas salvajadas.

p

#5 Si, creo que muchos hemos visto cosas que somos incapaces de contar a nadie.

A

#7 yo toco madera, siempre he tenido reflejos pra no ver esas cosas… pero la gente está enferma.

pawer13

#5 Lo más realista de Avengers 2 fue que Ultron se conectara una tarde a Internet y decidiera acabar con la humanidad

awezoom

#5 yo lo que no entiendo es cómo hay gente que envía esas cosas a una red social como tik tok si a la mínima te lo tirarán abajo y te cerrarán la cuenta. No me lo explico.

D

Si quieren curtirse un poco que se pasen por 4chan y el estercolero reddit

Deathmosfear

#31 O por theync, un par de días viendo vídeos a fuego y listo.

frg

#42 Esta me la apunto

D

#32 hace muchisimos años que no he visitado esa pagina , pero vamos , que por lo que recuerdo , no es precisamente una "red social", solo el sitio para mandar a incautos a que se encuentren las fotos mas asquerosas posibles

D

Debo estar protegido por algun halo de santidad o algo, porque mira que he estado en redes sociales y nunca he visto nada de esas salvajadas que cuentan.
Tambien es verdad que tampoco iba buscandolas.
Edit : Esto es lo mas violento que he visto en tiktok... y realmente todas mis arterias han empezado a temblar

D

#14 otros meneantes estan diciendo que han visto barbaridades. Yo llevo conectando a la red desde la epoca de las BBS y nunca me he encontrado esas cosas "por sorpresa" , a no ser que consideremos alguna peli bajada del emule que no parecia tener mucho que ver con el titulo lol

#15 En youtube es relativamente fácil ver asesinatos y otras movidas muy desagradables. Creo que es en Facebook, Tiktok, Twitter etc donde se controla más lo que se permite subir a los usuarios.

#16@Bloodsucker, cuál es tu problema? ¿Sabes para qué se usan los negativos?

J

#51@Bloodsucker, un pobre incapaz. Parece mentira que los@admin no tomen medidas contra gente que sistemáticamente vota negativo a comentarios: ¿No hay unas normas de uso?

Mark_

#15 en Twitter más allá de ver algún rabo salvaje si que te puedes encontrar cosas bastante duras, desde lapidaciones hasta hombres-bomba o los chavales aquellos que murieron en el instituto de Perú creo que era, cayéndose de un quinto piso. Y se ve todo, si.

yonky_n13

#15 Pero sabes quién es Goatshe...Si no lo sabes, es que realmente has dicho la verdad.

D

#29 Goatse , entiendo que es la definicion de "ir buscandolo" lol

yonky_n13

#30 No precisamente,no.

s

#15 A mí me pasó, lo que pasa es que la historia la protagonizaba una niña del sudeste asiático de no más de 12 años. Me asusté y lo borré corriendo, hoy habría llamado a la policía por si pudieran trazar algo.

D

#90 Con cierta gente, emplear un lanzallamas es algo demasiado higienico

d

#9 me ha entrado hambre y antojo de comerme un cachopo viendo ese tiktok enlazado

snowdenknows

debería ser una IA la que haga el 1er filtro y ellos lo q se le pase a la IA

frg

#28 Seguro que lo hay, y al filtro humano normalmente solo le pasan las cosas "chungas".

Kichito

Todo el puto día viendo selfiepenes como si trabajaran en una salchichera. Terrible.

Jesulisto

Seguimos con la propaganda prebélica.

K

Bienvenidos al mundo real, no hay animal mas salvaje que el hombre. Puede decidir por el mismo sin dejarse influenciar totalmente por los instintos que suelen ser el freno para no hacer salvajismos. Un ser libre al fin y al cabo, justo en la medida de su hijoputez.
Al final vamos a pedir responsabilidades hasta porque nos quememos con el café de un bar... ah calla, que esto es lo de la vieja y el macdonald.
P.D: Yo veo responsabilidad en la empresa cuando lo fomenta y consiente, si es algo relativo a la operativa no lo veo delito. Te marchas y punto.

yonky_n13

#36Era un jicho, eran dos fotos que se convirtieron en el centro de multitud de bromas pesadas.
El gobierno americano quiso acabar el tema y cerró la página (o sea que si era una web) y al momento, salieron defensores por todo el mundo, con camisetas y merchandising o como ostia se escriba.

MoñecoTeDrapo

¿Para qué hacen secuelas si no les gustó la primera parte?

D

#_50 y los juegos de rol, y las nintendos... te ha faltado decir

Presi007

ha facilitado un documento que los moderadores firmaban reconociendo que iban a revisar "contenido gráfico, violento, sexual, explícito, político, profano y altamente perturbador". Pero los empleados con los que ha hablado Business Insider aseguran que el formulario es uno de los muchos papeles que firman durante su incorporación y que no le prestan especial atención.

D

Es la humanidad como es, que se busquen otro curro

D

Trabajo de riesgo. Ahora no van a llorar cuando vean Bambi

D

Ya empiezan a meternos en la cabeza que las redes son malas para que tráguenos cuando nos las corten “por nuestro bien”.

kreepie

#54 quiénes? Los reptilianos? Qué tiene que ver con lo que tragan los moderadores? Tranquilo que mientras esté dando dinero no sólo no te van a quitar las RRSS sino que seguirán intentando que te enganches más y más... y luego con VR para mayor inmersión y fríe cerebros.

Larusin

#54 malas no sé, un estorcolero, sin duda.

Pero espero que no las cierren, así es más fácil detectar subnormales. Y subnormalas, perdón

D

Esto lo deberian revisar presos, precisamente ese tipo de desalmados que están en la cárcel.

Los tienes contentos con material y hacen un favor a la sociedad.

dhf257

Tiktok es disneyland para los pedófilos

creo que ya se vio alguna vez por aqui una noticia parecida pero con moderadores de google/youtube, estas personas que moderan contenido no suelen durar mucho.

Larusin

Pero si esto ya pasaba con facebook hace más de 10 años, de verdad no sabían que coño iban a ver teniendo en cuenta que es algo global y que hay mucha gente tarada de la cabeza???

O te insesibilizas y te jodes la vida, o te traumatizas y te jodes la vida.

D

That's the reason why they start to ban it in many countries. Kids are out of control these days so not strange to see anything..

T

#6 este a crearte otro perfil junio del 2022, que este lo pierdes ya, y haznos un favor y en el siguiente perfil que te crees escribe en arameo para no entender tus gilipolleces

A

#6 se te ha olvidado traducir, señor bot.

MisturaFina

Internet es el espejo de la humanidad. No sabiamos quien eramos hasta ahora.

Yomisma123

#33 Ni de coña.
Son las empresas, los intereses económicos los que ahora más que nunca nos manipulan la mente.
Coges a chicos de 13 años, que quieren ver tetas,las IAs ven que lo que más se viraliza son vídeos violentos y porno sádico, pues dale más
Los chavales insensibilizados,en el momento más delicado cuando se desarrolla la sexualidad, viendo violaciones como algo normal.
Y alguien al otro lado ganando dinero y dinero.
No somos así, nos están haciendo así

MisturaFina

#46 estoy de acuerdo. Y ahora nos damos cuenta gracias al reflejo de internet. Nos vienen engañando toda la historia. Antes habia solo 4 canales y tragamamos todo. No habia reflexion porque no habia mas opciones. Ahora nos damos cuenta quienes somos y porque. No nacimos idiotas nos han educado asi. Y no viene de ahora!!!
Es muy duro despertar.

E

Que efecto tendrá en las cabezas de los chavales en un futuro???

Cuchipanda

#48 pues el mismo que tuvo LiveLeak en los insomnes hace unos años. Escenas dantescas en la cabeza que solo pensarlas te pone los pelos de punta.