Hace 3 meses | Por hazuko a scitechdaily.com
Publicado hace 3 meses por hazuko a scitechdaily.com

Investigadores de la Universidad de Copenague son los primeros en demostrar que, más allá de problemas simples, es imposible desarrollar algoritmos de IA que sean estables ante pequeñas cantidades de ruido en los datos de entrada. Por ejemplo, tomando como ejemplo el reconocimiento de señales, una pegatina no engaña a un humano, pero sí a una IA porque ahora, esa señal es diferente de las que ha encontrado en sus datos de entrenamiento. Esta diferencia ha sido probada ahora matemáticamente insalvable. https://doi.org/10.48550/arXiv.2304.03757

Comentarios

k

#2 yo sueño con un robot que me haga todos los trabajos domésticos. Luego pienso en ejemplos parecidos al que describes, y me pregunto si realmente es viable a corto/medio plazo.

El pobre chimpancé igual lava los platos o por las risas de imitar al humano o porque le dan un premio por hacerlo, pero igual no entiende para qué los está lavando. Una IA entenderá aun bastante menos que un chimpancé.

Es como cuando, programando, te dicen que automatices tests, y te encuentras montón de casos muy complicados de automatizar donde el coste supera el esfuerzo. ¿Cómo pruebas que un plato está limpio, con puros datos y software? Se dice pronto, pero conseguirlo es otra cosa.

D

#4 De la misma forma que lo sabes en la realidad. Ves el plato y ves manchas que no corresponden. Y si están pintadas aposta? Pues si es la primera vez que ves el plato, muchas veces irás a tocar ahí y dices coño, que es del plato. Pues el robot tendrá que hacer lo mismo. Fácil.

s

#14 Correcto, el secreto de todo, en realidad, está en el proceso de la "conceptualización" de cosas físicas, y, sobretodo, de abstractas.

Bicho o cosa que no conceptualice, jamás llegará a pensar como un humano. Y en ello está muy ligado el lenguaje y nuestros sentidos, los cinco.

S

#14 Y añado que el saber que es un plato sucio seguramente tiene mucho de cultural y contexto, o en general muchas tareas domésticas las hacemos por "tradición", y en los hogares en los que se enseña otra cosa no se hace. Hay sitios en los que tienen una poseta de agua con jabón, y todos los platos se lavan ahí, basicamente por no tener agua potable ilimitada en un grifo.

Luego hay cosas que nunca se lavan, como las cestas para el pan...

S

#26 Aquí me voy a salir bastante del tema, pero siguiendo mi comentario #81, sería curioso que en un futuro en el que solo queden IA, estas siguieran utilizando platos, y lavando platos, incluso si para ellas fuera irrelevante que el plato esté sucio o limpio. lol Simplemente por un aspecto "cultural".

prejudice

#4 A todos nos ha pasado de coger un plato sucio del lavavajillas pensando que está limpio.
Es bastante difícil de saber sobre todo si no está muy sucio (Un plato usado para sopa por ejemplo)

c

#4 Lo mismo le pasa a un esclavo. O a un limpia platos de un restaurante.

Lo hace porque le dan un premio, pero en el fondo le da igual que el plato esté limpio o sucio

k

#38 pues hay que ser analfabestia para eso lol

S

#4 Tampoco somos tan diferentes, muchas tareas domésticas también parten de que las hacemos porque nos enseñaron a hacerlas, y si bien tenemos en mente una razón para hacerlas, probablemente también es algo que no hemos cuestionado demasiado. También es verdad que si veo un plato "limpio" en el fregadero, yo lo lavo, porque no sé que coño han hecho con él, y se pierde esa cadena de "confianza" de que esté limpio.

Ahora va una historia de terror, la gente suele estar muy contentos con sus robots aspiradores, todo bien hasta que lees historias como que alguien tuviera un perro con diarrea... y ahora gracias al robot tienes diarrea por toda tu casa.

sevier

#2 para eso no necesito una IA me sirve cualquier lavavajillas.

M

#2 El ejemplo sería:

Enseñaron al chimpancé a lavar platos usando mil platos. Unos pocos tenían una pequeña rotura.

El chimpancé no identificaba bien qué era un plato. Había platos que no los lavaba y otras veces se ponía intentaba fregar cualquier cosa redonda.

T

#2 A la IA le indicas cuáles son los parámetros que implican que el plato está limpio. Si haces el chequeo al principio, eso no va a pasar.

El problema que aquí indica es que si basas las decisiones en las capturas de datos, por ejemplo sólo de imágenes, si tienes platos cuyos dibujos puedan parecer suciedad, la IA "pensará" sienpre que ese plato está sucio, a no ser que se acabe desgastando el dibujo (lo cual no sucederá a corto plazo) o tenga un "timeout".

S

#26 Bueno, tal y como lo dices parece que se podría solucionar aprendiendo a errar y a evaluar esos errores.

Las IA tal y como están entrenadas ahora mismo si no me equivoco no asumen el tener errores, ellas producen un resultado, a la hora de entrenarlas otra IA/Aplicación les dice si el resultado es correcto o no, para modificar algunos parámetros, pero luego cuando no están en el entrenamiento no distinguen si lo que están haciendo está correcto o no.

T

#45 Vamos a ver. En su momento tuve una asignatura que era algo así como la iniciación a IA. De esto hace mucho tiempo y, lo dicho, era un aperitivo de lo que se puede hacer, pero las bases son las mismas.

La IA no sabe qué es lo que está haciendo. Ese es el principal concepto con el que hay que quedarse. Tú sí sabes que cuando te montas en un coche en la posición de conductor, estás conduciendo. La IA no sabe qué es eso de conducir. Sólo sabe que tiene una serie de entradas (visuales, LIDAR, lo que sea) que tiene que procesar y, en función del resultado de ese proceso, emitir una salida (girar, o no, el volante, acelerar, mantener velocidad, frenar, etc.).

Puedes hacer un entrenamiento "positivista" (palabro mío aquí) en el sentido de que (por centrarnos en un aspecto mínimo de la conducción) sea capaz de distinguir las señales de tráfico, que si esta es una limitación a 50, que si aquella es un "obligatorio girar a la derecha". Simplemente le pones las señales y ya. ¿Qué sucede? que en el mundo real hay un montón de posibles problemas en la adquisición de datos inequívocos: señales desgastadas (las de fin de prohibición son mis preferidas en esto porque, además de ser gris más o menos claro, con el tiempo se "vuelven blancas"), dañadas, oxidadas, vandalizadas... Tú sabrás interpretarlas, o puede que no, pero la IA lo va a tener harto complicado.

No se trata de "asumir tener errores", que imagino que te refieres a que sean capaces de evitar cometerlos, sino de cómo de bueno es su entrenamiento y... eso es virtualmente imposible. Porque tú podrás ponerle miles de ejemplos de señales correctas, y después (o mejor intercaladas) ejemplos de miles de señales "perjudicadas", pero siempre es posible que haya situaciones reales que no sepa interpretar.

Hay que tener en cuenta que la IA no guarda en memoria una lista de ejemplos válidos e inválidos y los compara, no, para nada, lo que hace es, siendo inexacto, adaptar la información que tiene sobre qué es lo que se quiere obtener, con cada ejemplo que se le pone. Tengo por ahí un comentario en el que contaba el funcionamiento básico de una red neuronal (muy básico e introductorio) pero no lo encuentro.

Es decir, tú puedes entrenar una red neuronal poniéndole ejemplos de dos números y dándole que el resultado es la suma de ambos números. La red no sabrá que está sumando, no tiene consciencia para ello, pero si está lo suficientemente entrenada, te devolverá ese resultado para cualesquiera dos números que le aportes. ¿Cualesquiera? pues no puedes estar del todo seguro porque si lo entrenas con números pequeños igual si le metes números grandes tiene errores de precisión. O no. Pero si haces algo más "avanzado" poniéndole tres números en el entrenamiento y como resultado la suma de los dos primeros y el tercero como si no estuviese, es posible que la IA acabe """deduciendo""" lo que quieres. ¿Problema? Que si has sido un poco listo de menos y el tercer número ha sido siempre cero, o siempre el mismo, cuando cambies ese tercer número por otro, igual la IA no le hace caso, como querías, o igual sí.

Entrenar una IA es todo "un arte" en sí mismo. En mi práctica de la asignatura que te comento había que coger una imagen (tipo vista satélite de google maps) y lo que se tenía que hacer era entrenar una ""mini-IA"" para que supiese reconocer qué parte era camino y qué no. Resumiendo mucho, el entrenamiento consistía en que cogías cuadrículas del mapa, algunas con caminos, otras sin ellos, y le decías a cuáles tenía que responder sí y a cuáles no. Tienes que tener en cuenta cosas como curvas y cruces, y dentro de los cruces los hay de varios tipos. Pues bien, una de las variables que más afectaba a la precisión de la "IA" era el tamaño de la cuadrícula de entrenamiento. Tenías que encontrar el "sweet spot", el punto exacto donde era lo suficientemente grande para que fuese información relevante lo que pillas, pero no demasiado como para que hubiese demasiado "ruido" (pixels que no aportan información relevante).

S

#55 Añado algo sobre lo que dices, hace un tiempo vi un meneo quejándose de que la IA comete errores "básicos", pero es que no son tan básicos...

Ejemplo: Le pides una biografía de un personaje histórico, pero la IA dice que muere en 1615, pero sigue gobernando hasta 1623. Algo que será absurdo para la mayoría de personas.

El problema es que una IA como ChatGPT no tiene ningún tipo de conocimiento empítirico, no puede experimentar y saber que la muerte es permanente, solo tiene constancia de lo que sabe de "oidas" porque lo "lee". Incluso a mi como humano, si bien me podría parecer rara esa biografía, tampoco descartaría que hubiera algo que yo desconozca. A lo mejor legalmente su gobierno continúa hasta que le sustituye el próximo rey, o quizás no sabe que ha mezclado dos calendarios diferentes.

Todo esto podemos aplicarlo a humanos y sus errores, pero en general una IA está muy limitada en cuanto al contexto que tiene para aprender. No sabe lo que está haciendo, porque carece de mucho contexto. Por eso a veces al optimizar demasiado, da resultados incorrectos o inutiles, en otros ámbitos es muy efectiva porque da resultados que están muy por fuera de la "caja", y no son convencionales.

T

#85 Esto... voy a precisar sobre lo que has dicho, empezando porque yo estaba hablando de IA en general y tú te has centrado ahora en las IA Generativas, que tienen sus peculiaridades aunque partan de lo mismo que ya comenté.

ChatGPT, hasta donde sé, en lo que está limitada es en cuanto a razonar. Simplemente tú le preguntas y ella busca información relacionada con esa pregunta a partir de lo que se le "enseñó" en su momento.

Tal como hablas de ella parece que fuese un "niño grande", alguien con deficiencias mentales para según qué cosas o un extraterrestre recién llegado a la Tierra y no es nada de eso.

Lo que hace es escribir texto (o lo que sea que genere, pero en este caso texto) en base a probabilidades. Probabilidades no son certezas. Una probabilidad muy alta puede confundirse con una certeza, pero no lo es. La única probabilidad igual a 1 sin ser 1 es 0'9 período, pero realmente es que ambos son 1. Así que siempre puede generar cosas que no son ciertas, lo que tiene el nombre (para mi gusto no demasiado acertado) de "alucinaciones".

Mira, como dije en aquel comentario al que me referí antes, una red neuronal es, en su base más simple, una serie de capas de "neuronas". Cada capa de neuronas tiene conexiones que vienen de la capa anterior (excepto la primera, que recibirá directamente la entrada) y tienen conexiones con la capa posterior (excepto la última, que es la que proporciona la salida). Esas conexiones pueden ser de cada neurona de una capa con sólo una, varias o todas de la siguiente capa. Podemos complicarlo más y meter conexiones hacia neuronas de las misma capa o anteriores (realimentación).

Cada una de esas conexiones tiene a su vez un "peso asociado" que determina la "importancia" de esa conexión. Es decir, la neurona X se conecta con la neurona Y de la siguiente capa y esa conexión tiene un peso asociado de 1,5, en ese caso, si el resultado de lo que sea que haya recibido y procesado la neurona X es 3, a la neurona Y le llegará 4,5. Y si entre X y Z hay conexión de peso 0,5, a Z le llegará 1,5.

Antes del entrenamiento lo habitual es que los pesos tengan o bien valor cero o bien valores aleatorios, al menos cuando aprendes sobre ello.

Un entrenamiento simplemente consiste en que a la capa de entrada de datos le enseñas lo que proceda (en el ejemplo de antes, una señal de tráfico, por ejemplo indicando el color y la posición de cada pixel, lo cual sería una capa de entrada de la hostia porque necesitas tantas neuronas como todas las que hagan falta para representar esa información, que dependerá del tamaño de la imagen, pero vale) y a la salida le dices que tiene darte "prohibido circular a más de 50". Lógicamente esto irá representado numéricamente, tanto la entrada como la salida.

¿Qué hace la red neuronal? adaptar los pesos de todas las conexiones (si procede) para que esa entrada produzca esa salida.

¿Que le enseñan otra imagen con otra señal? pues vuelve a adaptar los pesos. El quid de la cuestión está en que las adaptaciones sean de tal manera que el enseñarle cosas nuevas no afecte a lo "ya aprendido" y sí sirva para elucubrar respuestas válidas a lo que no se le haya enseñado. Quizás el ejemplo de las señales de tráfico no es el mejor para entrar en detalles pero la idea es esa.

La red no aprende nada, no sabe nada, no tiene abstracción sobre lo recibido. Solamente recibe información en forma de bytes y devuelve bytes después de procesarla.

S

#89 Hablo en general, y he puesto un ejemplo, no hay más. En todo caso, sin ánimo de ofender se bastante sobre como funcionan, no creo que me hayas dicho nada nuevo.

No he dicho que sea un niño grande, no sé de dónde sacas eso, pero si lo hace una IA lo llamarías "alucinaciones". De hecho pongo sus deficiencias principalmente en el material con el que trabaja, y eso te va a pasar también con adultos. Aún así, sí tengo que decir que si te fijas en muchos de los "ataques" basicamente consisten en engañarle como a un niño pequeño. lol Incluso las imagenes de ruido para otros tipo de IA a veces también te dan esa impresión, depende del tipo y la IA, pero como dije, no siempre son tan básicos y dependen mucho de cómo "aprende", si te sientes más cómodo lo entre comillo, pero no me parece importante ese debate terminológico.

Si aprenden de otra manera, es fácil que cometan otros errores, y al ser un algoritmo de caja negra no sabes qué ha "aprendido".

Patxi12

#26 El ejemplo quizá no es el mejor, y supongo que a un chimpancé también se le podría enseñar con mucho esfuerzo a distinguir un plato sucio de uno limpio... Pero lo que trataba de decir es que hay cosas que los humanos sabemos "intuitivamente" (que no es necesario lavar platos limpios), pero a una IA se lo tienes que explicar todo al detalle y como dices tú, darle todos los parámetros (y los parámetros pueden ser muchísimos).

S

#2 Si a mi me das un plato limpio seguramente lo lave, porque sé que la suiciedad no siempre es visible...

Si llevamos eso, a tu ejemplo, lo mismo a la IA le pasa lo mismo, y sabe algo que no sabemos.

Patxi12

#77 Lo que te pasa es que eres un obseso de la limpieza.

BM75

#1 Aún.

S

#33 Claro. Todos podemos mejorar, pero una IA infalible se me antoja algo tan difícil como que su creador lo sea. Las lineas rojas las imponemos nosotros, no la IA.

navi2000

#37 Hace solo 5 años veíamos imposible que una IA dibujara una palmera en la playa con solo pedirselo con 5 palabras. Es evidente que los sistemas de ML se fundamentan en el aprendizaje y eso implica fallos por no haber aprendido lo suficiente. Los parámetros internos de un modelo de deep learning no son estables porque el entrenamiento no es finalista, pero la investigación demuestra que conforme aumenta el entrenamiento, aumenta la estabilidad. En el momento en el que los valores pudieran fijarse a un valor completamente estable (i.e. que más ejemplos no modificaran los valores internos), la semilla aleatoria que se usa podría fijarse a un valor fijo y obtendríamos siempre buenos resultados sin ningún tipo de aleatoriedad.

S

#63 Esa lógica puede funcionar en un sistema experto, cerrado, concreto, que realice sus funciones en entornos estables en lo que no hay ruido o este está muy controlado, y donde el aprendizaje es relativamente fácil por esa misma razón de ausencia de ruido que pueda hacer que la IA "aprenda mal". Pero esa misma ausencia de ruido también hace que le sea difícil manejarse en entornos ruidosos, donde probablemente el aprendizaje sería más costoso y los resultados más imprevisibles para los humanos. Son líneas rojas que aún se están analizando. El aprendizaje constante en un entorno ruidoso es costoso y largo (quizá el mejor ejemplo es la inteligencia humana), porque hay muchas equivocaciones y accidentes al principio y además depende del entorno en el que nos movamos y los estímulos que recibamos. Una IA en movimiento desde el principio con toda esa aleatoriedad "natural" es lo que se ha intentado hacer con la conducción autónoma. Y las líneas rojas lamentablemente no han desaparecido.

ahoraquelodices

#33 Y tal vez nunca.

BM75

#50 Pues quizá

BuckMulligan

#33 el artículo dice que ae hha probado matematicamente. Si ea correcto, ni ahora ni nunca con las actualea técnicas

D

#1 El ejemplo que pone en el texto está bien:
Los humanos no nos confundimos con una señal de ceda el paso en la que alguien ha escrito "Libertá!", la IA puede tomar la señal por algo diferente. Y eso no sería "error humano" como en un despiste, sino una confusión difícil de explicar si la persona estaba prestando atención. La máquina estaba prestando atención.

D

#36 En realidad ese problema se solucionaría si en los datos de entrada hay suficientes pintadas y pegatinas en las señales.

D

#87 Exacto. Es como lo del reconocimiento de caras que se podía trampear plantando una fotografía frente a la cámara: con el conjunto de entrenamiento adecuado y procesamiento de vídeo (secuencias de imágenes frente a imágenes únicas) se puede hacer que diferencie entre personas y fotografías o muñecos. Solo que el entrenamiento es mucho más costoso. Los humanos nos pasamos meses y años entrenando la visión, desde que nacemos, realmente es un problema complejo pero con solución.

m

#1 Resumiendo: El riesgo 0% no existe, para todos.

meso

#7 #1 no estoy del todo de acuerdo con el ejemplo de los coches.

Los humanos, al menos los que conducen "bien", cuando ves una señal que no reconoces correctamente por algún motivo, un árbol la tapa, pegatinas, está rota, etc. Aplicas diferentes probabilidades de que tipo de señal es y buscas señales de refuerzo de esa misma señal. Y en caso de duda, aminoras la velocidad. (Y el de atrás te pita).

Por ejemplo un stop, para empezar la señal es única. Tiene una forma especial .
Pero está suele estar reforzada por una línea blanca en el suelo, y suele precedir un cruce.

Yo mismo, cuando llego a un cruce "nuevo" y quizá mal señalizado, independientemente de si tengo preferencia o no me pongo en alerta, aminoró velocidad, y busco peligros o señales que refuercen mi preferencia (o no). Suelo ir en moto y eso hace que anteponga la seguridad a la preferencia.

Una IA bien entrenada puede hacer lo mismo, mucho más rápido, y con más antelación a los acontecimientos, y mucho mayor analisis de datos. Y el error humano al final suele ser una falta de antelación a posibles problemas o demasiada confianza.

Saludos!

powernergia

#54 Precisamente de eso va el artículo, un humano no va a tener dudas porque una señal tenga una pegatina de un anuncio, o porque una señal de stop tenga el color cambiado. La IA no lo entenderá, y lo que hace es lo que está ocurriendo en San Francisco, que los vehículos de detienen y se bloquean por múltiples circunstancias.

navi2000

#58 Eso es porque la IA todavía no ha visto muchas pegatinas pegadas en señales. Sin embargo, conforme vaya viendo más ejemplos de señales en mal estado, irá aprendiendo a reconocerlas y tomar decisiones acertadas (y con mayor probabilidad de acierto respecto a los humanos).

powernergia

#64 El artículo dice otra cosa.

navi2000

#94 uno de los dos no ha entendido el artículo

S

#54 Una IA nunca cometerá un "error humano". Lo que se ha demostrado es que una IA nunca dejará de cometer "errores de IA".

navi2000

#60 veo cuestionables tus dos 'nunca', tanto el IA-humano, como el IA-IA

S

#65 Me parece perfecto que te cuestiones las cosas. Pero si lees el artículo entenderás que esos "nunca" no son de mi cosecha.

navi2000

#76 empezando por que este es un artículo puramente teórico, el primer 'nunca' lo cuestionable que veo es la aplicación práctica. Piensa por ejemplo en los sesgos (racismo, machismo, etc). La IA ha replicado los errores humanos. En la práctica, lo que nosotros vemos son errores humanos típicos.

El segundo 'nunca' incluso aceptando el marco teórico propuesto (que no lo cuestiono porque no he entrado a evaluarlo), será mientras la IA se base en los algoritmos que tenemos hoy en día, si evoluciona y descubrimos otro tipo de algoritmo, es posible que el marco cambie y entonces la IA pueda no cometer errores de IA

rojo_separatista

#60, cuales son los "errores IA" y quién ha demostrado que nunca dejará de contar meterlos. Flipo con la poca memoria que tenemos, hace un año el tema eran los dedos de la mano en las IAs, incluso por aquí algunos me decían que jamás se solucionarían, hoy son un chiste. Es mucho más realista que vayamos planteando un mundo en el que dentro de 10 años la IA no se equivoque jamás.

S

#98 Primero, que la IA sea "realmente inteligente". lol

rojo_separatista

#100, y cómo se mide esto? Resolviendo problemas de matemáticas, escribiendo cuentos, dibujando, componiendo canciones, inventándose chistes? De verdad que me gustaría saber qué prueba del algodón sirve para saber si algo o alguien es inteligente o no.

kmon

#1 la IA al volante es como las mujeres al volante, no se le admite ni un error, aunque es probable que de media tengan muchos menos accidentes

D

#59 La culpa en este caso es del humanismo.

S

#1 Quizás la cuestión es que los algoritmos de IA, al ser de caja negra, realmente no sabemos qué ha aprendido ni cómo, cuando un humano comete un error es algo comprensible incluso si da resultados disparatados (como en un examen de física o matemáticas: aquí falta un signo, aquí te olvidaste un parentesis, etc).

Si embargo, al aprender de forma diferente a la nuestra, es fácil ver que un poco de ruido hace que cometa errores despropocionados, y no comprendemos por qué.

https://towardsdatascience.com/breaking-neural-networks-with-adversarial-attacks-f4290a9a45aa

Por ejemplo ahí se ve ese efecto, se añade ruido y se confunde con otra imagen, además contesta con un alto grado de confianza en la respuesta. La cuestión es que lo mismo para la IA ese cambio no es tan trivial como para nosotros, (y seguramente se elimine ese ruido con un filtro de gauss). Así como seguramente, si dividimos esa imagen en regiones, y permutamos cada región, seguramente para nosotros será muy dificil distinguir cualquier animal, pero lo mismo para una IA está tirado.

También me recuerda a cmoo hbaia un etsduio srboe que si pmuerats las ltreas pdoems dtiisngr las plbaras y leer perfectamente. Porque seguramente en nuestro aprendizaje no es tan relevante, según como funcione la IA va a ser un gran putada.

D

#75 En concreto esa frase GPT 4 la pilla a la primera, pero 3.5 se lía con "permutas". Aunque sospecho que muchos humanos también.

S

#90 No me sorprende, no era mi intención decir que no la fuera a pillar, solo que lo que para un algoritmo puede ser ruido trivial, para otro puede que no lo sea, por la forma en que procesa la entrada, el cómo aprende, etc.

Recuerdo una anecdota de Richard Feynman sobre que él, y la mayoría de personas, si intentaban contar 60 segundos en su cabeza generalmente lo hacían con una "voz" en su cabeza que cuenta, por lo que no podía hablar a la vez. Sin embargo, encontró a alguien que sí podía hacerlo porque su forma de contar era imaginar un reloj al que "miraba", pero entonces este no podía leer.

Igual me he equivocado en algo, pero aquí tienes el original:

u

#20 En mi opinión has puesto el foco en una de las claves.

El razonamiento probabilístico nos es muy útil a los humanos (tanto si somos nosotros los que los realizamos como si lo delegamos en nuestros esclavos llamados ordenadores). Eso es innegable. Pero también es innegable que hay muchos tareas para las que los humanos queremos exactitud sin margen (o muy poco) de error.

PD: Cualquier metodología usada en el mundo real tiene sus inconvenientes. Los humanos tenemos problemas (por nuestro "diseño") con ciertas tareas, pero lo mismo pasa y pasará con cualquier otro ente (IA, etc).

T

#12 A los Wright complicado, los Montgolfier más o menos ya lo habían demostrado. Y si vemos a cosas volar con el viento, más aún.

MétodoCientífico

#12 muy buenos argumentos, gracias!

sieteymedio

Solo queremos que haga porno.

h

#5 Entiendo, pero aquí la palabra clave es "ruido"

ACEC

#35 Ya, pero me apetecía contar mi anécdota para criticar a la guardia urbana de Barcelona
Las IA siguen evolucionando, quizás ahora una pegatina les confunda, pero dejará de hacerlo. Igual que hace no tanto habría que repetir 20 veces "si acepto" a los robots telefónicos para que te entendieran y hora puedes tener una conversación fluida con ellos, o hace tan solo unos meses las IA generaban manos de 7 dedos y ahora mismo ya son indistinguibles de una fotografía. Dales tiempo.

h

#44 Ya te digo que entiendo perfectamente, sólo vengo a añadir que tu anécdota no desmiente la noticia.

Con tiempo desde luego, incluso viajaremos a las estrellas.

ACEC

#49 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo. Lo que vengo a decir es que a los humanos se nos engaña igualmente. Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que? Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio. Y no estamos hablando de cuando "viajemos a las estrellas", estamos hablando de hoy o de dentro de unos pocos meses o años. Si quieres resultados matemáticamente perfectos una IA no es el camino, para eso están los algoritmos deterministas y las calculadoras. Las IA tienen margen de error, se equivocan, igual que nos equivocamos los humanos. Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.

Por otro lado, el titular no lo veo correcto. Es mucho más acertado el subtitular: "Investigadores de la Universidad de Copenhague se han convertido en los primeros del mundo en demostrar matemáticamente que, más allá de los problemas sencillos, es imposible desarrollar algoritmos para la IA que sean siempre estables."

h

#62 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo.: No hace falta, con poner un contraejemplo sería suficiente.

Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio.: Totalmente de acuerdo, han llegado para quedarse, como las calculadoras. No es mi intención contradecir eso, veo el futuro como simbiosis entre las dos "inteligencias" y ninguna va a sustituir a la otra. Es cierto que a nivel personal sí que me inquieta el uso que se está haciendo de este "megahype" que hay en torno a la AI para atraer inversión, denigrar las profesiones técnicas y pronosticar el apocalipsis laboral, pero he intentado no reflejarlo en mis comentarios en esta noticia, y mucho menos en la entradilla, lo cual sería microblogging.

Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.: Esto se repite mucho, pero no va a empezar a ser verdad. Un coche también tiene cuatro extremidades y no es un humano. En general, todo ese argumento de "todos nos equivocamos" y por eso "somos bastante parecidos" es falaz (non distributio medii).

el titular no lo veo correcto: ¿La diferencia es ese "siempre" que tú añades? La estabilidad es una propiedad del algoritmo, no de los datos de entrada... cuando un sistema no es BIBO se entiende que su salida puede estar acotada para algunas entrada, pero no para todas. Ese "siempre", siempre está implícito. Para un medio generalista como este, podría estar de acuerdo, pero me parece un debate semántico en el que no estoy muy interesado. Creo que se entiende perfectamente, pero si consigues que algún admin lo cambie, yo no tengo problema (aunque creo que no me quedaban más caracteres libres para la entradilla...).

ACEC

#73 Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Tienes razón en eso, es porque no me había leído el artículo. Esto es menéame...

S

#5 #35 Es que lo que defines como "ruido" es a medida de nuestra percepción. Una máquina percibe las cosas de forma diferente, así que lo que es ruido para ti, puede no serlo para la IA y viceversa. De hecho en otros ámbitos es muy tolerante al ruido que haría dudar a un humano.

h

#86 Sí, saber si un "ruido" tiene estructura y por lo tanto no es ruido, es casi un debate filosófico (insertar aquí la viñeta de xkcd y el vídeo de Veritasum, p ej.), pero diría que si pretendemos que esas máquinas nos sean útiles en tareas que antes hacían los humanos, tendrán que ser capaz de interpretar el "ruido" de la misma forma que un humano. Y entonces ya no estamos hablando de ruido en general, sino del que los humanos creen que es ruido.

navi2000

#5 lo que tenías que haber hecho es hacerle una foto a la señal en el momento. Para la próxima (NOTA: así me libré yo de una multa de aparcamiento, unos árboles tapaban completamente la señal de prohibición de aparcamiento)

ACEC

#66 Lo triste es que la hice y la adjunté al recurso. La ignoraron. Y ante la resolución solo cabe la vía judicial pero en ese momento no tenía ni el tiempo ni los recursos para seguir por ahí. Si fuera ahora le habría pedido a una IA que me redactara un recurso de reposición

p

#19 Efectivamente esa expresión parece absurda. Se referirá a unos tipos de algoritmos concretos porque si no sus implicaciones son enormes. Si fuera cierto que es imposible matemáticamente salvar ese problema que los humanos sí solucionamos, eso implica que los cerebros humanos funcionan fuera de toda lógica matemática y por tanto somos seres divinos.

a

#47 Este resultado que estamos comentando no se refiere al procesamiento de información en general, sino a lo que es posible hacer a base de redes neuronales que son un aparato que aplica la fuerza bruta a las cadenas de caracteres, lo que produce resultados interesantes y un poco útiles incluso.

No tiene absolutamente nada que ver con cómo los humanos procesamos la información. Este resultado no implica nada para los cerebros humanos.

p

#68 Pues eso, que se refiere a algoritmos concretos.

h

#19 go to #46

SalchichonVegano

Es enternecedor ver a los equipos de desarroolo de las IA y los de supervisión y a sus jefes y los fabulosos presupuestos que manejan y todo ello para ir en busca de la "piedra filosofal" o el "oraculo" de todos los Dioses, habidos y por haber.

Pretender desarrollar una IA con un desempeño adedecuado (comportamiento estable) en todas la areas del conocimineto humano no pasa de ser una "quimera". Del tipo a buscar una "persona" con estudios en todas las ingenierias y areas de conocimiento y 30 experiencia en cada una de ellas.

La especialización en diversas areas ha sido la respuesta mas adecuada a las necesidades humanas. Pero claro trae de la mano la interdepencia. Y eso no mola.

Y con las IA me temo que pasa algo parecido. Y el día que no pase, si es que llega ese día le llamaran Skynet , o algo similar y habrá que apagarla o morir.

g

#6 > Del tipo a buscar una "persona" con estudios en todas las ingenierias y areas de conocimiento y 30 experiencia en cada una de ellas.

Ese limite lo pone la carne humana, que se pudre y se muere demasiado rapido.
La IA no tiene esa desventaja

babybus

#18 seguro que no?

SalchichonVegano

#18 Lamentablemente, o no, los limites existen. Tanto en la capacidad de calculo como en el tiempo de validez de una respuesta o incluso en los costes asociados.

Obviamente no son los mismos para todo y para todo tipo de situaciones.

S

#18 De momento sí tiene esa desventaja.

Es, por ahora, imposible manejar la totalidad del conocimiento humano y de todas las habilidades humanas en un sistema de información digital, y también es imposible procesar toda esa información.

Os recuerdo, por si acaso, que lo único que sabe hacer ChatGPT es predecir texto.

sauron34_1

Errores básicos? No puede ser! Si por aquí me decían que chatGPT era ya inteligente y que no había manera de demostrar lo contrario!
Lo de los miles de humanos entrenándolo durante años y que se haga la picha un lío a la mínima ya si eso para otro día.

sillycon

Basta instalarse el ollama con unos cuantos LLMs y jugar un rato con ello para encontrar las debilidades básicas. Es como si alguien repitiera de oído conceptos que reconoce por el contexto, pero no entiende un pimiento de lo que está diciendo. Si no profundizas da el pego y es impresionante, pero si empiezas a tirar del hilo de las inconsistencias...

s

Ridículo, eso te lo enseñaban en redes neuronales hace años, se sabe desde siempre, no hace falta estudio ninguno. Fortuna parte del temario.

c

#32 Estamos redescubriendo lo que se sabe desde los años 50

navi2000

#32 Supongo que no te has leído el trabajo de estos investigadores. No han descubierto nada, esa es la parte introductoria. Lo que han hecho es modelizar matemáticamente la cuestión

c

si basas las decisiones en las capturas de datos,...

Y en el caso de las IA en qué otra cosa te puedes basar?

powernergia

Por eso nunca veremos verdaderos vehículos autónomos circulando en tráfico abierto.

TheUglyStranger

#7


 

M

#9 #8 Porque en estados unidos la regulación va detrás de la innovación

Hace nada pudieron la revocación de las licencias en California porque los pocos coches autónomos que tenían permiso para circular solo en unas horas fijadas a una velocidad máxima no eran seguros.


https://www.publico.es/redirect/blogs/kaostica/2024/01/26/san-francisco-da-el-alto-al-coche-autonomo//amp

La demanda presentada por el fiscal de la ciudad, David Chiu, indica que durante todo este tiempo no sólo se han registrado cientos de incidentes de seguridad –desde chocar contra autobuses a no responder al alto de la policía-, sino que incluso han interferido con los servicios de emergencia. Este fue el caso de un robotaxi que chocó contra un camión de bomberos cuando éste acudía a un incendio.

(...)

los datos actuales que maneja San Francisco reflejan, además, que las incidencias han provocado embotellamientos en múltiples ocasiones como consecuencia de pararse en seco en mitad de la carretera.

skatronic

#9 Y ya han tenido varios problemas con servicios de emergencia porque, por ejemplo, se paran justo detrás de una ambulancia en servicio y no pueden abrir las puertas.

v

#15 Problemas claro que hay. Igual que hay accidentes con conductores humanos.
Han dicho que nunca veremos verdaderos vehículos autónomos con tráfico. Y eso ya existe, con problemas o no, pero existe.

powernergia

#9 Son vehículos en pruebas con varios supervisores detrás, que además están causando muchos problemas por lo que se les ha denegado el permiso para seguir operando.

https://www.cocheglobal.com/tendencias/taxis-autonomos-cruise-encallan_808602_102.html

#7

v

#56 Como dice en la noticia los de Waygo de Google siguen funcionando.

"el Gobierno de California ha paralizado los robotaxis de Cruise, una empresa participada por General Motors y Honda. En cambio, los coches autónomos de Waymo, del gigante Google, siguen en funcionamiento."

powernergia

#79 No he dicho lo contrario.

Llevan años en pruebas, con supervisión humana detrás, y hay marcas que siguen en ello.

v

#93 "se les ha denegado el permiso para seguir operando." Y es falso.

Siguen operando una de las dos licencias que existían, luego es incorrecta la afirmación. Lo correcto es decir que se le ha denegado a una operadora.

M

#96 ya han solicitado la denegación de la licencia de Wymo, en cuanto la burocracia termine se la quitarán también.

www.publico.es/redirect/blogs/kaostica/2024/01/26/san-francisco-da-el-

powernergia

#79 Si, me refería a los de Cruise, supongo que los de Google seguirán el mismo camino.

Por otro lado estas pruebas son un gran agujero económico, y desde hace tiempo no hay avances significativos, parece que esto es una buena excusa para que las empresas abandonen los proyectos.

Txikitos13

#7 en china estan usando ya taxis voladores sin piloto

t

"Esta diferencia ha sido probada ahora matemáticamente insalvable"

Me da igual lo que diga el artículo que viendo el poco rigor de la entradilla ni me voy a molestar en leer: esa afirmación de "matemáticamente insalvable" no es cierta. Y es tan falsa que le añaden el "matemáticamente" para darle un aura de respetabilidad y conocimiento avanzado a la afirmación, como que así tiene mayor autoridad lo que se afirma. Manipulación en el lenguaje de libro.
Y con toda seguridad veremos como se "salva".
La ciencia está repleta de "imposibles" que luego resultaron totalmente posibles.

h

#34 "matemáticamente imposible" para el paradigma de aprendizaje que se usa hasta ahora. Claramente, todo aquel que no sea dualista entiende que debe haber alguna forma, nuestro cerebro sería una muestra de ello.

Barbol_Pelao

Relacionado, otro estudio de Stanford/Berkeley que demuestra que ChatGPT-4 también está empeorando, una degradación significativa en un intervalo relativamente corto de tiempo.

https://arxiv.org/pdf/2307.09009.pdf

navi2000

#52 ChatGPT no empeora porque sí. Empeora porque detrás hay una empresa con intereses económicos y lo que ha hecho es hacer un modelo algo peor a cambio de una bajada sustancial en los recursos empleados. De esa manera sus beneficios aumentan.

h

¿Cuantas acciones de Tesla valdrán todas las fábricas de pegatinas?

Mandrago

Es de risa buscarle los tres pies al gato a las ias mientras escurrimos de la ecuación que quien está haciendo estas declaraciones es un ser humano, con todo el peso de la imperfección sobre nuestras cabezas.
La soberbia de los Investigadores de la Universidad de Copenague son los primeros en demostrar que, más allá de problemas simples, es imposible desarrollar un sistema perfecto en el que vivir sin guerras y con un reparto justo de la riqueza mundial. Asi que como no han sido capaces de resolver todo eso, nos ponen el ejemplo del reconocimiento de señales, una pegatina no engaña a un humano, pero sí a una IA porque ahora, esa señal es diferente de las que ha encontrado en sus datos de entrenamiento. Esta diferencia ha sido probada ahora matemáticamente insalvable. Saben lo que es insalvable? Lo adivinan? Exacto!

r

Es que todavía no exista la "IA"... porque no es "inteligente".
Lo que existen son "modeladores". Que puede haber "granjas" de modeladores (unos unidos con otros), pero siguen siendo eso...

De todas maneras, ya llegará...

DDJ

"una pegatina no engaña a un humano, pero sí a una IA porque ahora, esa señal es diferente de las que ha encontrado en sus datos de entrenamiento"

Es que las IAs actuales a día de hoy las comparo con el cerebro de un bebé, al principio cuando somos humanitos hasta confundimos tierra con algo que se puede comer lol A las IAs aún le falta tiempo para ir reconociendo esos tipos de ruido, y no creo que lleve mucho tiempo.

v

El problema es que no es realmente una Inteligencia Artificial. En el caso de las señales, de las ambulancias cerradas por coches autónomos se añadirá algún tipo de señal inalámbrica que el sistema de conducción autonoma pueda interpretar sin ruido y arreglado.

j

Pegatina diferente. No la entiendo. ¿Que alguien me la explique? Ah, vale.

M

El botón de apagar??

1 2