@yoma Eso ha sido el avogadro. Hoy estoy de viaje en Madrid. En cuanto no reviso en 24h. la cuela. La he borrado yo. Está todo el dia creando cuentas y votando y esperando a esa ventana de oportunidad
@Ripio@Zoidborg No encuentro un bug. La configuración que hay es que pasada una hora no se puede reportar problemas. Yo no he tocado eso ¿recuerdas a cuento estaba antes?
@Zoidborg@Ripio@Ripio Efectivamente, en Mobile puedes votar las tres primeras y en pc ninguna. Tiene que ser algo de publicidad porque hemos cargado un nuevo anuncio. Lo miro
Edit: @Ripio
Algo así, cierto.
Pasadas las tres primeras parece que el desplegable de negativo solo sale en las que tienen bastantes negativos ya de serie.
Os habéis preguntado alguna vez por qué los cocteleros mezclan las bebidas con los brazos arriba? Aquí la respuesta: x.com/i/status/2048899995063947578
¿Por qué en el nótame, en la columna de la derecha, salen los mejores comentarios en vez de las mejores notas?
Cabrones.
Buenos días.
edit: Ya funciona.
El problema es usar la IA para etiquetar personas en términos subjetivos (“molesto”) y aplicar consecuencias automáticas. Eso, en Europa, entra en perfilado sensible (ley IA europea), puede activar el Art. 22 del GDPR, roza prácticas de “social scoring”.
Traducido: alto riesgo legal y cambio peligroso en la cultura de esta comunidad a través del karma.
Cuando una plataforma deja de moderar comportamientos y empieza a juzgar personas, deja de ser sistema y pasa a ser tribunal.
EDITO ampliando lo de "automáticas": Y no, meter “humanos (moderadores) en el loop” no arregla el fondo.
Si el sistema sigue clasificando a usuarios como “molestos” y aplicando consecuencias, lo único que cambia es quién firma la etiqueta.
En Europa puedes moderar lo que alguien hace. Pero cuando empiezas a puntuar lo que alguien es, entras en terreno legalmente frágil y culturalmente tóxico.
@yonseca Como ya he comentado la IA no hace nada, solo da información a requerimiento de los moderadores. La información es cuantitativa (envíos, comentarios, etc) y cualitativa. Con esa información los moderadores toman decisiones. No se trata de un sistema autónomo.
El contexto es mi artículo para VIA Empresa que publicarán el dos de mayo en texto (catalán (original) y español (traducción)).
La canción es en inglés. No es para ofender, es para identificar obtusos.
Callaos ya y dejadme terminar de revisionar Euphoria, que tengo que ver los nuevos antes de comerme spoilers
Pues estoy pensando y quizá sí que estaba así de antes. A ver si alguno más nos refresca la memoria.
Aquí:
www.meneame.net/story/10-citas-sobre-guerra
Edit: ya han pasado la fregona
Edit: @Ripio
Algo así, cierto.
Pasadas las tres primeras parece que el desplegable de negativo solo sale en las que tienen bastantes negativos ya de serie.
www.meneame.net/story/regulador-estadounidense-revisa-licencias-abc-tr
Cuánto talento se desperdicia en memes efímeros
Cabrones.
Buenos días.
edit: Ya funciona.
Va, ahora a provocar el abuso reactivo que tanto gusta a mis maltractadores.
El problema es usar la IA para etiquetar personas en términos subjetivos (“molesto”) y aplicar consecuencias automáticas. Eso, en Europa, entra en perfilado sensible (ley IA europea), puede activar el Art. 22 del GDPR, roza prácticas de “social scoring”.
Traducido: alto riesgo legal y cambio peligroso en la cultura de esta comunidad a través del karma.
Cuando una plataforma deja de moderar comportamientos y empieza a juzgar personas, deja de ser sistema y pasa a ser tribunal.
EDITO ampliando lo de "automáticas": Y no, meter “humanos (moderadores) en el loop” no arregla el fondo.
Si el sistema sigue clasificando a usuarios como “molestos” y aplicando consecuencias, lo único que cambia es quién firma la etiqueta.
En Europa puedes moderar lo que alguien hace. Pero cuando empiezas a puntuar lo que alguien es, entras en terreno legalmente frágil y culturalmente tóxico.