En 2015, Google recibió una lluvia de críticas después de que uno de sus algoritmos de reconocimiento de imagen confundiera fotos de gorilas y chimpancés con seres humanos. La compañía prometió solucionar el error. Dos años después, ya sabemos cómo lo ha hecho. Ha prohibido las fotos de gorilas.
+Perdone, ¿me da un ramito de uvas blancas?
-Oiga, eso se llama "racimo".
+Vale, pues deme también otro de uvas negras...
#3:
La IA de Google descubre nuestro parentesco evolutivo y los politicamente correctos se ofenden?
Thomas Huxley seguiria teniendo mucho trabajo hoy en dia.
#28:
#3 En mi opinión, el colectivo de "los ofendidos" es gente que no acepta sus propios prejuicios. Gente profundamente retorcida. Algo parecido sucede con todos los gays que acaban saliendo del armario tras una vida dedicada enteramente a criticar al colectivo homosexual.
#78:
#12#13#23 La IA de Google no basa su reconocimiento ni en el contexto ni en la totalidad de la imagen, sino que lo hace por rasgos físicos. Ciertos africanos sub-saharianos, especialmente en el sur y el oeste, tienen rasgos que desde una perspectiva frontal recuerda a nuestros parientes homínidos. Si la imagen no ofrece contraste de colores (#12) no es extraño que una IA en pañales tienda a la confusión.
#18 Creo que confundes el fenotipo con el genotipo. Está científicamente demostrado que la expresión fenotípica de una persona no tiene ninguna relación con su personalidad o su inteligencia. Tu comentario, sin acritud sea dicho, parece típico de un frenólogo del siglo XIX. Date una vuelta por webs con contenido científico sobre el tema; seguramente cambie tu enfoque.
#36:
#22 Claro, eres un experto en IA y los de google han sido unos estupidos todo este tiempo.
A poco que usen unanred neuronal, ni ellos mismos saben como "piensa" su invento, la razon es que el sistema establece sus pripias reglas para reconocer patrones. El ingeniero no le dice "si tiene mas pelo es un gorila" (y notese que esto con alguien con barba tambien seria erroneo) sino que le muestra al programa distintas imagenes representativas de las cosas que debe reconocer. El problema viene cuando el programa no es capaz de diferenciar dos categorias, por que segun sus reglas internas (las cuales nadie controla ni tiene por que entender) esto puede ser por que realmente sean parecidas las fotos o por que el conjunto que le presentaron no estuvo todo lo bien elegido que debería.
Pero vamos que la maquina ni es racista ni significa que debamos llevarnos las manos a la cabeza. Probablemente mejore con el tiempo o tal vez realmente no es capaz de mejorar, pero vamos.
Por cierto, si quitan gorilas por esto, tal vez deberian tambien quitar orangutanes y demas, se parecen a algun famoso (que conste que es blanco, y yo tambien no sea que ahora me.acusen de racismo) que yo me se y podria darse por ofendido... jejeje.
#12:
#2 Era un primer plano muy cercano y sin otros elementos para contextualizar.
#6:
Es que es dificil para una IA, un humano esta acostumbrado a ver hombres Afro, pero aunque lo consideren racista si que es cierto que algunos si los ves desde cierta distancia joder parecen gorilas hasta en la forma de la cabeza
La IA analiza, ve semejanza y dice que son gorilas aunque sean humanos.
#21:
PUes mira, me dan pena los gorilas, cuando se active sky net acabará también con ellos, sin tener culpa de nada los pobres....
#20:
Uhm, a ver, que no es que Google prohíba los gorilas (¿traducción mala de otro sitio?). Lo que yo entiendo es que nunca responde con la palabra gorila. Seguramente haya mejorado y sea capaz de diferenciar mejor a un gorila de una persona, pero así se evitan que cometa errores llamando a una persona gorila y así nadie se ofenda.
#3 En mi opinión, el colectivo de "los ofendidos" es gente que no acepta sus propios prejuicios. Gente profundamente retorcida. Algo parecido sucede con todos los gays que acaban saliendo del armario tras una vida dedicada enteramente a criticar al colectivo homosexual.
#12#13#23 La IA de Google no basa su reconocimiento ni en el contexto ni en la totalidad de la imagen, sino que lo hace por rasgos físicos. Ciertos africanos sub-saharianos, especialmente en el sur y el oeste, tienen rasgos que desde una perspectiva frontal recuerda a nuestros parientes homínidos. Si la imagen no ofrece contraste de colores (#12) no es extraño que una IA en pañales tienda a la confusión.
#18 Creo que confundes el fenotipo con el genotipo. Está científicamente demostrado que la expresión fenotípica de una persona no tiene ninguna relación con su personalidad o su inteligencia. Tu comentario, sin acritud sea dicho, parece típico de un frenólogo del siglo XIX. Date una vuelta por webs con contenido científico sobre el tema; seguramente cambie tu enfoque.
#78 La "IA de Google" es una máquina estadística que no maneja ningún concepto abstracto y que nunca entenderá si se equivoca ni qué es equivocarse. La cuestión es que esos errores reflejan que no hay mucha gente de color en el equipo.
#80 Lo que dices es muy discutible. Los sistemas de reconocimiento facial asistidos por inteligencia artificial tienen un sistema de feedback negativo que reformula los conceptos para el posterior análisis de datos. El color de la piel o procedencia de los programadores de la IA es irrelevante pues son algoritmos de auto-aprendizaje sin una base cultural matemática, lo que hace que estas IAs caigan en los mismos errores de origen etnocéntrico que la cultura humana. Cuando la IA confunde la cara de un asiático con la de una persona que está parpadeando, ¿es esa IA caucásica o africana?. Teniendo en cuenta que muchos de los desarrolladores son de origen asiático, no tiene sentido tu acusación de "racismo" por la supuesta ausencia de diversidad en el equipo de desarrollo.
#81 Pues me alegro. Tampoco te había tomado por un racista, sino como una persona con una opinión en buena parte plausible mediante observación superficial, pero sin trasfondo científico, que es lo que suele lastrar nuestras opiniones.
#89 Yo no acuso de racismo, pero seguro que su algoritmo lo probaron con ellos mismos en los inicios, y si les hubiera calificado como monos, hubieran visto que no andaba muy fino.
#78 Por supuesto. El comentario era una soberana soplapollez, lo sabía, y es evidente que no me lo creo ni yo, pero si antes de comentar cualquier tontería me pusiera a investigar terminaría editando en la wikipedia, en lugar de comentar aquí, donde vengo más que nada a pasar el rato. Incluso de estas chorradas se aprende bastante, porque siempre viene alguien como tú ilustrando. Gracias.
#22 Claro, eres un experto en IA y los de google han sido unos estupidos todo este tiempo.
A poco que usen unanred neuronal, ni ellos mismos saben como "piensa" su invento, la razon es que el sistema establece sus pripias reglas para reconocer patrones. El ingeniero no le dice "si tiene mas pelo es un gorila" (y notese que esto con alguien con barba tambien seria erroneo) sino que le muestra al programa distintas imagenes representativas de las cosas que debe reconocer. El problema viene cuando el programa no es capaz de diferenciar dos categorias, por que segun sus reglas internas (las cuales nadie controla ni tiene por que entender) esto puede ser por que realmente sean parecidas las fotos o por que el conjunto que le presentaron no estuvo todo lo bien elegido que debería.
Pero vamos que la maquina ni es racista ni significa que debamos llevarnos las manos a la cabeza. Probablemente mejore con el tiempo o tal vez realmente no es capaz de mejorar, pero vamos.
Por cierto, si quitan gorilas por esto, tal vez deberian tambien quitar orangutanes y demas, se parecen a algun famoso (que conste que es blanco, y yo tambien no sea que ahora me.acusen de racismo) que yo me se y podria darse por ofendido... jejeje.
#36 Has descrito un programa informático mal hecho (o una I.A. mal construida). Era lo que yo intentaba decir.
Quizá debamos empezar por diferenciar una barba de lo que son pelos por toda la cara.
#66 Has escrito: Limitar los posibles errores eliminando determinados resultados si que es hacerlo mal.
Permite mi versión:
Limitar los errores eliminando determinados fallos, si que es hacerlo bien.
#36 Pues entonces el nivel de la I.A. es el de un discapacitado psíquico. Comprendo que se hagan experimentos de laboratorio y que permanezcan ahí, pero que los muestren y los lleven al público da vergüenza ajena.
#96 Exacto. El nivel de la IA parece se muy alto (y lo es con respecto ha hace un año o dos) pero hoy por hoy dista del de un humano para muchas cosas y ademas hoy por hoy un humano es el unico con un hardware y un software que hace de todo.
Yo no opino que se deba quedar en los laboratorios, creo que la implantacion que se esta haciendo ahora mismo es muy buena aunque de vez en cuando tenga algun error como en todo software.
Es que es dificil para una IA, un humano esta acostumbrado a ver hombres Afro, pero aunque lo consideren racista si que es cierto que algunos si los ves desde cierta distancia joder parecen gorilas hasta en la forma de la cabeza
La IA analiza, ve semejanza y dice que son gorilas aunque sean humanos.
#22 Esa es la gracia de una inteligencia artificial, los humanos solo la enseñan a aprender. Quién aprende a diferenciar humanos de gorilas es ella solita.
#6 Lo curioso es que recuerdo algo sobre una expedicion fenicia que navegó pornla costa de africa y encontró unos humanos muy feos y peludos. Creo recordar que capturaron a una hembras pero los tubieron que matar por que mordian y arañaban.
Estaban en la misma confusión estos fenicios y la pobre ia de google.
#6 la IA ya es capaz de diferenciar a una persona de otra, no me creo que le hayan puesto empeño en entrenar su IA para diferenciar un humano de otro primate. Tras la polémica para solucionarlo rápido yo creo que prohibieron los gorilas en vez de entrenar la red con los casos que pueden crear confusión.
#25 Tu sabes, todos los chinos parecen iguales hasta que empiezas a tratar con ellos, necesitas una cantidad considerable para que tu cerebro abra una carpeta nueva o lo que sea que haga. Gorilas no quedan muchos, te sale mas factible ver mas negros.
Uhm, a ver, que no es que Google prohíba los gorilas (¿traducción mala de otro sitio?). Lo que yo entiendo es que nunca responde con la palabra gorila. Seguramente haya mejorado y sea capaz de diferenciar mejor a un gorila de una persona, pero así se evitan que cometa errores llamando a una persona gorila y así nadie se ofenda.
A mi me parece que la inteligencia artificial ha funcionado bien y ha dado una lección e humildad. "Oye, que os creéis los amos pero que solo sois monos". El que le ofenda que le confundan con un primate que se lo haga mirar.
Distinto es la actitud de quien quiera insultar, llamando "mono" a alguien, pero eso es un insulto, como siempre las ofensas están en la actitud de quien ofende. Supongo que google lo ha eliminado por evitar que una persona confundida con un primate sea objeto de mofa.
Es una excelente noticia que las investigaciones sobre inteligencia artificial sean bastante abiertas al público, vemos sus avances, discutimos los resultados. Pero por culpa de la gilipollez del victimismo, el fanatismo de lo politicocorrectismo van a hacer que esas investigaciones se vuelvan secretas.
A futuro, una IA de armas autónomas nos va a dar por culo, nos extinguiremos y será porque no lo vimos venir por tener oculto el avance por culpa de victimistas, politicocorrectismo y gilipollas varios.
#15 lo que no quieren es el siguiente paso, que aparezca una foto de gorilas y la IA ponga debajo Black People... y lo entiendo. Muerto el gorila, se acabó la broma.
#92 No, pero eso no quiere decir mucho. Una pequeña variación en el ADN hace una gran diferencia.
Hablo de memoria, pero la revista science público sobre el 2002-2005 que los humanos compartimos en 98% del ADN con la mosca de la fruta. La diferencia entre humanos, según el artículo es del 99'99%.
Si alguien de por aquí es biólogo quizás nos pueda alumbrar en este asunto.
En realidad yo entiendo a la pobre IA de google, con tanto mono suelto por las calles es normal que cometa esos errores (dicho esto con todos mis respetos hacia chimpancés y gorilas)
Me sorprende la noticia aunque visto que yo estoy confundiendo a más de uno de los que comentan esta noticia con gusanos despreciables cualquier cosa puede pasar
#13 Ya sé que dicen que el humano parece provenir de África, y que por eso la gente de color tienen una genética más avanzada, pero a mí me parece justo lo contrario. A la vista está, que parecen gorilas.
En algún momento tendrán que abrirle ese concepto a la IA para que eso deje de pasar y pueda etiquetar bien tanto a personas como a animales. Al menos, un parón de esa funcionalidad durante un tiempo, hasta que consigan dar con la forma parece la mejor solución para no tener ningún problema legal.
No lo entiendo: ¿han prohibido las fotos de gorilas? ¿Y como lo verifican? ¿Con humanos? Porque ha quedado claro que su IA no es capaz de distinguirlos...
#84 Creo que en la noticia lo explican mal. En realidad, cuando la IA piensa que es un gorila, en vez de poner como respuesta "Gorila", lo deja en blanco para que nadie se ofenda.
Eso entiendo yo al menos.
Comentarios
La IA de Google descubre nuestro parentesco evolutivo y los politicamente correctos se ofenden?
Thomas Huxley seguiria teniendo mucho trabajo hoy en dia.
#3 En mi opinión, el colectivo de "los ofendidos" es gente que no acepta sus propios prejuicios. Gente profundamente retorcida. Algo parecido sucede con todos los gays que acaban saliendo del armario tras una vida dedicada enteramente a criticar al colectivo homosexual.
Hoy en día cualquier cosa es racismo...
#1 cierto. Ridículo. Es un caso claro de especismo.
#1 Ya te digo...
+Perdone, ¿me da un ramito de uvas blancas?
-Oiga, eso se llama "racimo".
+Vale, pues deme también otro de uvas negras...
#1 y todo, todo, es machismo
#10 Es que nadie va a hablar del mileniarismo???
#1 Hasta las uvas vienen en racismo...
Es que el Gorila llevaba una camiseta de H&M, y claro...
#4 Todo lo contrario, iban desnudos y esos es obsceno.
Pues vaya algoritmo. ¿Han probado con fotos de culo o codo o escote?
#2 Era un primer plano muy cercano y sin otros elementos para contextualizar.
#12 Despedíte de tu karma...
#49 Por?
#53 te pido disculpas, se me cruzaron las respuestas.
Saludos.
#12 #13 #23 La IA de Google no basa su reconocimiento ni en el contexto ni en la totalidad de la imagen, sino que lo hace por rasgos físicos. Ciertos africanos sub-saharianos, especialmente en el sur y el oeste, tienen rasgos que desde una perspectiva frontal recuerda a nuestros parientes homínidos. Si la imagen no ofrece contraste de colores (#12) no es extraño que una IA en pañales tienda a la confusión.
#18 Creo que confundes el fenotipo con el genotipo. Está científicamente demostrado que la expresión fenotípica de una persona no tiene ninguna relación con su personalidad o su inteligencia. Tu comentario, sin acritud sea dicho, parece típico de un frenólogo del siglo XIX. Date una vuelta por webs con contenido científico sobre el tema; seguramente cambie tu enfoque.
#78 Ponles una gorra o situalos en un entorno urbano y veras como no los confunde con gorilas.
#78 La "IA de Google" es una máquina estadística que no maneja ningún concepto abstracto y que nunca entenderá si se equivoca ni qué es equivocarse. La cuestión es que esos errores reflejan que no hay mucha gente de color en el equipo.
#80 Lo que dices es muy discutible. Los sistemas de reconocimiento facial asistidos por inteligencia artificial tienen un sistema de feedback negativo que reformula los conceptos para el posterior análisis de datos. El color de la piel o procedencia de los programadores de la IA es irrelevante pues son algoritmos de auto-aprendizaje sin una base cultural matemática, lo que hace que estas IAs caigan en los mismos errores de origen etnocéntrico que la cultura humana. Cuando la IA confunde la cara de un asiático con la de una persona que está parpadeando, ¿es esa IA caucásica o africana?. Teniendo en cuenta que muchos de los desarrolladores son de origen asiático, no tiene sentido tu acusación de "racismo" por la supuesta ausencia de diversidad en el equipo de desarrollo.
#81 Pues me alegro. Tampoco te había tomado por un racista, sino como una persona con una opinión en buena parte plausible mediante observación superficial, pero sin trasfondo científico, que es lo que suele lastrar nuestras opiniones.
#89 Yo no acuso de racismo, pero seguro que su algoritmo lo probaron con ellos mismos en los inicios, y si les hubiera calificado como monos, hubieran visto que no andaba muy fino.
#78 Por supuesto. El comentario era una soberana soplapollez, lo sabía, y es evidente que no me lo creo ni yo, pero si antes de comentar cualquier tontería me pusiera a investigar terminaría editando en la wikipedia, en lugar de comentar aquí, donde vengo más que nada a pasar el rato. Incluso de estas chorradas se aprende bastante, porque siempre viene alguien como tú ilustrando. Gracias.
#12 Si son así todas las gorilas yo me hago Tarzán.
#12 Eh! que no es lo mismo confundir fotos de gorilas con personas que fotos de personas con gorilas!!
Por otra parte esperaba ver en los comentarios el último escandalo de H&M, ¿es racista el anuncio o el racismo está en el espectador?:
.
#22 Claro, eres un experto en IA y los de google han sido unos estupidos todo este tiempo.
A poco que usen unanred neuronal, ni ellos mismos saben como "piensa" su invento, la razon es que el sistema establece sus pripias reglas para reconocer patrones. El ingeniero no le dice "si tiene mas pelo es un gorila" (y notese que esto con alguien con barba tambien seria erroneo) sino que le muestra al programa distintas imagenes representativas de las cosas que debe reconocer. El problema viene cuando el programa no es capaz de diferenciar dos categorias, por que segun sus reglas internas (las cuales nadie controla ni tiene por que entender) esto puede ser por que realmente sean parecidas las fotos o por que el conjunto que le presentaron no estuvo todo lo bien elegido que debería.
Pero vamos que la maquina ni es racista ni significa que debamos llevarnos las manos a la cabeza. Probablemente mejore con el tiempo o tal vez realmente no es capaz de mejorar, pero vamos.
Por cierto, si quitan gorilas por esto, tal vez deberian tambien quitar orangutanes y demas, se parecen a algun famoso (que conste que es blanco, y yo tambien no sea que ahora me.acusen de racismo) que yo me se y podria darse por ofendido... jejeje.
#36 Has descrito un programa informático mal hecho (o una I.A. mal construida). Era lo que yo intentaba decir.
Quizá debamos empezar por diferenciar una barba de lo que son pelos por toda la cara.
#60 No está mal hecha. Las inteligencias artificiales actuales aprenden por ensayo y error.
Limitar los posibles errores eliminando determinados resultados si que es hacerlo mal.
#66 Has escrito:
Limitar los posibles errores eliminando determinados resultados si que es hacerlo mal.
Permite mi versión:
Limitar los errores eliminando determinados fallos, si que es hacerlo bien.
#68 Deberías mirarte lo que significa una IA para saber de lo que estás hablando.
#36 Pues entonces el nivel de la I.A. es el de un discapacitado psíquico. Comprendo que se hagan experimentos de laboratorio y que permanezcan ahí, pero que los muestren y los lleven al público da vergüenza ajena.
#96 Exacto. El nivel de la IA parece se muy alto (y lo es con respecto ha hace un año o dos) pero hoy por hoy dista del de un humano para muchas cosas y ademas hoy por hoy un humano es el unico con un hardware y un software que hace de todo.
Yo no opino que se deba quedar en los laboratorios, creo que la implantacion que se esta haciendo ahora mismo es muy buena aunque de vez en cuando tenga algun error como en todo software.
Es que es dificil para una IA, un humano esta acostumbrado a ver hombres Afro, pero aunque lo consideren racista si que es cierto que algunos si los ves desde cierta distancia joder parecen gorilas hasta en la forma de la cabeza
La IA analiza, ve semejanza y dice que son gorilas aunque sean humanos.
#6 Solo por un par de comas, un punto y una tilde que te falta te he tenido que leer tres veces para entenderte.
#16 Suerte que pudiste. ni mire al teclado del movil por que estaba a otra cosa.
#17 ¡Ah! El móvil y el despiste. Las excusas de los que no saben escribir correctamente.
#64 No has visto nada, el otro dia escribi en alien por que escribi igual sin mirar.
#6 La IA está hecha por humanos, que si deben entender de rasgos físicos: muchos pelos en todo el rostro, por ejemplo. No es tan difícil.
#22 La IA de Google es rasista!!!
#22 Esa es la gracia de una inteligencia artificial, los humanos solo la enseñan a aprender. Quién aprende a diferenciar humanos de gorilas es ella solita.
#6 Lo curioso es que recuerdo algo sobre una expedicion fenicia que navegó pornla costa de africa y encontró unos humanos muy feos y peludos. Creo recordar que capturaron a una hembras pero los tubieron que matar por que mordian y arañaban.
Estaban en la misma confusión estos fenicios y la pobre ia de google.
#6 Negativo por gorila
#58 Pues no eres muy listo si no captaste mi comentario y no era para nada racista
#61 Se trata de un humor tan avanzado que solo lo captan los racistas, la raza aria seguramente.
#74 Viniendo de google que despide por comentarios de genero... Lo raro es que no hayan borrado esa IA
#6 la IA ya es capaz de diferenciar a una persona de otra, no me creo que le hayan puesto empeño en entrenar su IA para diferenciar un humano de otro primate. Tras la polémica para solucionarlo rápido yo creo que prohibieron los gorilas en vez de entrenar la red con los casos que pueden crear confusión.
PUes mira, me dan pena los gorilas, cuando se active sky net acabará también con ellos, sin tener culpa de nada los pobres....
#23 O a más gorilas.
#25 Tu sabes, todos los chinos parecen iguales hasta que empiezas a tratar con ellos, necesitas una cantidad considerable para que tu cerebro abra una carpeta nueva o lo que sea que haga. Gorilas no quedan muchos, te sale mas factible ver mas negros.
#31 Entonces reconoces que inicialmente los negros se parecen a los gorilas
#33 reconozco que tienes un problema diferenciando los unos de los otros. Tambien entiendo que la IA tenga problemas en algunos casos
#34 Has sido tú el que ha equiparado esa similitud a la confusión que ocurre con los chinos.
#33 ...e implicitamente que necesitas ver muchos de cada para poderlos distinguir...
Uhm, a ver, que no es que Google prohíba los gorilas (¿traducción mala de otro sitio?). Lo que yo entiendo es que nunca responde con la palabra gorila. Seguramente haya mejorado y sea capaz de diferenciar mejor a un gorila de una persona, pero así se evitan que cometa errores llamando a una persona gorila y así nadie se ofenda.
Y si algún ingeniero criticara este tipo de decisiones lo mismo le despiden.
A mi me parece que la inteligencia artificial ha funcionado bien y ha dado una lección e humildad. "Oye, que os creéis los amos pero que solo sois monos". El que le ofenda que le confundan con un primate que se lo haga mirar.
Distinto es la actitud de quien quiera insultar, llamando "mono" a alguien, pero eso es un insulto, como siempre las ofensas están en la actitud de quien ofende. Supongo que google lo ha eliminado por evitar que una persona confundida con un primate sea objeto de mofa.
🌱
#47 No es por ser tiquismiquis, pero es mejor decir simio que mono.
Hace años mi iPhoto (tenía un iMac) reconocía a los gatos y los etiquetaba como personas, no así con perros y africanos. Saquen sus conclusiones...
(Modo troll ON defendiendo al programa de Apple de racista por funcionar de esa manera, cosas que esta gente se cree).
#27 La diferencia es que en este caso es una IA la que los clasifica como gorilas. Ahora ya no podemos decir que somos nosotros.
Es una excelente noticia que las investigaciones sobre inteligencia artificial sean bastante abiertas al público, vemos sus avances, discutimos los resultados. Pero por culpa de la gilipollez del victimismo, el fanatismo de lo politicocorrectismo van a hacer que esas investigaciones se vuelvan secretas.
A futuro, una IA de armas autónomas nos va a dar por culo, nos extinguiremos y será porque no lo vimos venir por tener oculto el avance por culpa de victimistas, politicocorrectismo y gilipollas varios.
#11 y entonces solo sobrevivirán aquellos a quienes la IA confunda con gorilas...
la compañía prohíbe los gorilas para que no la acusen de racismo
¿Me perdí algo? Lo lógico en este caso es prohibir a las personas. Esto eliminaría cualquier problema de racismo.
#15 ¡Especistas!
#15 supongo que si prohibes a las personas la pobre chica esa seguiria de gorila...
#15 lo que no quieren es el siguiente paso, que aparezca una foto de gorilas y la IA ponga debajo Black People... y lo entiendo. Muerto el gorila, se acabó la broma.
#45 Has quitado a los gorilas, no a las personas negras. Entiendo que quitando a los gorilas aun podria salir algun gorila al poner "personas negras"
#15 no adelantemos acontecimientos. matar a todos los Humanos es la solución final de skynet
Somos primos lejanos no veo el problema.
#26 lejanos??
#40 #43 Si compartimos ancestros los gorilas que son simios y nosotros.
#44 Tambien compartimos ancestro con ratas, cerdos y sapos...
#48 Cierto pero los gorilas estan mas cercanos .
#52 Depende, se de gente que parece mas cercana a una rata jajajaja
#40 pero bien lejanos, de unos 13 millones de años aproximadamente.
#90 Pero en genética no nos diferenciamos mucho, creo.
#92 No, pero eso no quiere decir mucho. Una pequeña variación en el ADN hace una gran diferencia.
Hablo de memoria, pero la revista science público sobre el 2002-2005 que los humanos compartimos en 98% del ADN con la mosca de la fruta. La diferencia entre humanos, según el artículo es del 99'99%.
Si alguien de por aquí es biólogo quizás nos pueda alumbrar en este asunto.
#93 Pues sí, yo estudié antropoligía, asignatura, peropara tanto no me da...
#26 Uf uf, como digas eso en mas de un sitio de eeuu se van a escandalizar un poco.
es inteligencia y es artificial, no entiende de NWO, buenismos, ni tonterias varias
#55 Exacto, interpreta (erroneamente) y punto.
Algún día existirá eso de la inteligencia artificial... De momento es una entelequia, todo llegará.
En realidad yo entiendo a la pobre IA de google, con tanto mono suelto por las calles es normal que cometa esos errores (dicho esto con todos mis respetos hacia chimpancés y gorilas)
¿Y qué tiene de malo parecerse a un gorila?, joder nos estamos volviendo gilipollas a marchas forzadas.
#23 Dentro de los negros hay muchos tipos, pero hay algunos que son parecidos si.
Me sorprende la noticia aunque visto que yo estoy confundiendo a más de uno de los que comentan esta noticia con gusanos despreciables cualquier cosa puede pasar
Porque programar las cosas mejor y hacer que la IA aprenda la diferencia entre unos y otros era demasiado trabajo por lo que veo...
Qué confusión más tonta
#13 Ya sé que dicen que el humano parece provenir de África, y que por eso la gente de color tienen una genética más avanzada, pero a mí me parece justo lo contrario. A la vista está, que parecen gorilas.
#18 A mi muchos espanoles me parecen tambien gorilas, sobre todo en la playa.
(Si te ofende, tienes algo sobre lo que reflexionar esta noche)
#27 Tranquilo, no me ofendo tan fácilmente.
#13 Sinceramente, si ves ahi parecido a un gorilla, necesitais salir de casa y ver a mas gente negra
jajajajajajajajaja jajajajajajajaj ajjajajajajajaa
ay ay que me da
jajajajjaaj jajajajajajaja jajajajaja
No, espera.
En realidad es super triste si lo piensas.
Por lo visto también han tenido que reprogramar el algoritmo para que cuando pones fregona no te salga la cabeza de Puigdemont.
En muchos casos la IA no va desencaminada, yo también confundo algunos individuos con copito de nieve de forma sospechosamente continua.
Luego me acuerdo que el pobre copito se nos fue hace tiempo y se me pasa.
En algún momento tendrán que abrirle ese concepto a la IA para que eso deje de pasar y pueda etiquetar bien tanto a personas como a animales. Al menos, un parón de esa funcionalidad durante un tiempo, hasta que consigan dar con la forma parece la mejor solución para no tener ningún problema legal.
No lo entiendo: ¿han prohibido las fotos de gorilas? ¿Y como lo verifican? ¿Con humanos? Porque ha quedado claro que su IA no es capaz de distinguirlos...
#84 Creo que en la noticia lo explican mal. En realidad, cuando la IA piensa que es un gorila, en vez de poner como respuesta "Gorila", lo deja en blanco para que nadie se ofenda.
Eso entiendo yo al menos.
Y a Junqueras con que le confunde...
#37 pues el otro dia iba con mi hijo(6)por la calle y me pregunto por que habia tantos carteles con la cara del villano flea-man (peli infantil)
http://screenanarchy.com/assets/gallery/2013/06/Flea.jpg
vs
http://www.lavanguardia.com/r/GODO/LV/p4/WebSite/2017/12/04/Recortada/img_smauri_20171130-133615_imagenes_lv_otras_fuentes_cartell_electoral_erc-kL0E--656x929@LaVanguardia-Web.jpg