Hace 3 años | Por LeoKirk a xatakaciencia.com
Publicado hace 3 años por LeoKirk a xatakaciencia.com

Tal y como ya ocurre con Twitter y su tendencia a crear burbujas sociológicas o cámaras de eco informativa, los algoritmos de YouTube, según un nuevo estudio, también parece estar alimentando las ideas más radicales, los posicionamientos más broncos, incluso las teorías de la conspiración.

Comentarios

POLE288

No sé el vuestro, pero mi algoritmo de YouTube es de las cosas que peor me funcionan

Me sugiere un y otra vez los mismos videos,aunque acabe de verlos, me ofrece videos de temáticas donde alguna vez aislada pude dar un like suelto como si fuera mi máxima prioridad, discrimina mis gustos de canales que veo regularmente, música o documentales para ofrecerme "sus refritos de tercera"

Trigonometrico

#9 Creo que tiene sus ventajas no suscribirse, no darle al like, y ya de paso, no loguearse. Si entras con el navegador en modo incógnito y buscas videos con la temática que te gusta, cada vez que entres y busques vídeos (de ciencia por ejemplo) te ofrecerá vídeos diferentes.

sorrillo

La idea es muy simple: recomendar aquello que el usuario querrá ver.

Que luego salga este resultado tiene más que ver con las personas que con el algoritmo.

kmon

#2 está claro que la culpa de radicalizarse será de la persona, pero la gente debería conocer más acerca de los algoritmos y por qué le recomiendan cosas. El problema es que ese tipo de recomendaciones se basan sólo en tus gustos, y no en lo que te conviene ver. Si fuera una recomendación de un amigo, que te la da porque piensa que estás equivocado, tendrías la oportunidad de ver otro punto de vista, lo cual siempre enriquece. Pero con el algoritmo es como si tú mismo te recomendases sólo las cosas que reafirman lo que piensas, es una trampa y te empobrece, será difícil que reconozcas estar equivocado en algo y cambiar de opinión. Y por eso mismo funciona tan bien, porque lo que mucha gente quiere es seguir pensando lo mismo sin reconocer ningún error

sorrillo

#7 No sé que será lo normal, yo entro en youtube a ver que me ofrece y me suele ofrecer algún video que me interesa de las temáticas que suelo seguir.

Mis hábitos en Youtube no son de temas especialmente polarizados, si no más bien vídeos sobre el cosmos, divulgadores científicos varios, análisis de tecnología, temática de energía, etc.

Tengo muchos canales en los que estoy suscrito y si no me ofrece algo útil ese día pues tiro de suscripciones, pero por lo general con lo que me recomienda me basta.

f

A mí en concreto me sugiere mogollón de vídeos de política muy ultra, tanto de derecha como de izquierda y creo que es porque son muy virales. Bueno... y porque soy bipolar jajajaja

Kasterot

Pues con lo estricto que es el algoritmono para "sus cosas".... Quién lo diría!!

RoterHahn

suelen simpatizar con ideas antisemitas, islamófobas, antifeministas, anticomunistas, anticapitalistas, homófobas, racistas, etnonacionalistas, tradicionalistas y neorreaccionarias.

¿Se han dejado algo en el tintero servidor?

Trigonometrico

Es de sentido común entrar a menudo en Youtube con el navegador en modo incógnito, para que no te recomiende siempre lo mismo.

sorrillo

#5 Las veces que he entrado sin loguearme me ha ofrecido fútbol, vídeos musicales y chistes.

No, gracias, prefiero mi burbuja.

Trigonometrico

#6 Lo sé pero, lo normal es entrar para ver o buscar un vídeo concreto, y a partir de ese momento ya tienes unas sugerencias nuevas cuando vas a la página de inicio.