Hace 2 años | Por RoyBatty66 a bbc.com
Publicado hace 2 años por RoyBatty66 a bbc.com

En entrevista con la BBC, Pichai dice que la inteligencia artificial va a cambiar el mundo y defiende al gigante tecnológico en controversias relativas a impuestos, privacidad y datos.

Comentarios

Corvillo

#4 Skynet seal of approval

D

#4 Échale un ojo a GPT-3 y verás que hay un considerable trecho andado

D

#12 #10

He visto cosas con GPT-3 y esta lejos de que genere un juego racional simple como una aventura conversacional sin salirse de madre.

Hablo de Inform6 o inform7.

rojo_separatista

#32, acaso te crees que la inteligencia natural no se basa en patrones estadísticos y matemáticos? Supongo que te refieres a que la inteligencia artificial está sobreaprendiendo a partir de los datos de entrenamiento, pero no es capaz de generar conocimiento, ni de improvisar, ni de generalizar. Pues déjame decirte que he podido probar gpt-3 y te puedo asegurar que no se limita a sobreaprender, por no hablar de que no todos los modelos de IA se basan en aprender a base de ejemplos, el aprendizaje por refuerzo o no supervizado, también está demostrando capacidades sobre-humanas en muchos campos.

F

#42 Dejame decirte que trabajo a diario con ese tipo de modelos y otros de deep learning, y me reafirmo en que estamos a años luz de la inteligencia artificial general.

PS. Cualquier algoritmo hecho con lógica de negocio puede alcanzar capacidades sobrehumanas en una tarea concreta. Como también es el caso de la IA. No le pidas a GPT-3 que procese video y te diga quien hay en la imagen, o si pasa algo bueno o malo, porque si no lo has entrenado para ello te dirá que ni flowers.

rojo_separatista

#93, yo también trabajo diariamente con este tipo de modelos, de hecho mi trabajo consiste en diseñar algoritmos de visión por ordenador basados en deep learning. Si conoces un poco este campo, sabrás que los avances son muy acelerados de un año a otro. Las primeras GAN's de hace 5 años a penas podían dibujar imágenes en las que se intuía lo que querías, hoy dibujan imágenes indistinguibles de la realidad. Lo mismo ha pasado con toda clase de problemas, segmentación de imágenes, clasificación, procesamiento del lenguaje natural...

Te recomiendo que intentes probar la beta de GPT-3. Yo creo que el horizonte para que desarrollemos una AGI es de alrededor de 15 años.

elvecinodelquinto

#32 Todo aprendizaje basado en la experiencia (también el humano) se basa en modelos estadísticos y de probabilidad. La IA puede ayudar de muchas maneras sin necesidad de ser "general", ese comentario no tiene sentido. Es como decir que un vehículo no es útil hasta que pueda enfrentarse a todos los medios posible (tierra, mar, aire, espacio...). Pues no, oiga, para movernos por tierra hemos inventado el coche, para el mar los barcos, para el aire los aviones, etc.

Suigetsu

#4 Cada vez estamos más cerca con modelos como gpt-3.

A

#4 Yo siempre pongo el mismo ejemplo: Antes para cavar una zanja hacian falta 20 personas. Cuando llegaron las excavadoras, se pasó a 5 personas, porque la excavadora y el resto de máquinas necesitan conductores y operarios. Con la inteligencia artificial pasamos a 1 sola persona, que será el supervisor (y posiblemente trabajará en remoto desde China.)

j

#17 Tengo mis dudas de que eso será el progreso. Para mi el progreso es levantarme a las nueve, dar un paseo a la tienda de manoli a por unos niscalos y unas patatas de su huerta, pasarme la mañana en la cocina con algo de música y un vinito. Y a la tarde ir un rato de paseo al parque con los hijos/nietos/sobrinos, comer un helado y poco más. Ahora no puedo hacer nada de eso porque estoy 10 horas sin que me de la luz en una oficina.

RoyBatty66

#45 Eso no es progreso, eso es ser rico o cambiar de trabajo que te permita hacer eso. Progreso en el capitalismo es que los ricos sean más ricos, da igual como se consiga.

j

#58 No creas. Los níscalos están un poco más caros, por lo demás tienes el día hecho por euro y medio, ya dependiendo del helado. El mes entero te lo haces por 45 euros más los níscalos.

D

#45 Si tus pretensiones son una vida sencilla como esa, a lo mejor hay otros trabajos que se adaptan más a tus necesidades, pero eso ya sería una progresión personal. Y de todas las cosas que has dicho, incluido poder ver jugar a tus hijos/nietos/sobrinos en lugar de ponerlos a trabajar para sacar la familia adelante, siempre que hubieran sobrevivido a su infancia, muchas las tendrías garantizadas gracias al progreso humano.

D

#45 Bueno, supongo que eres consciente de que una persona que no sea rica riquísima nunca ha podido hacer algo parecido.
Y tú ahora estas diez horas sentado en la oficina, no hace tanto tiempo (y ahora en muchos sitios) se pasaban esas mismas diez horas doblando el lomo, para llegar reventados a casa y caer sin poderse levantar, para no saber si podrían comer algo al día siguiente.

j

#84 Sí, la verdad es que yo me quedo en la vida de finales de los 80 / principios de los 90. Creo que ahí tocamos la cima.

AlsoSprachMeneante

#14 El supervisor trabajará en remoto pero desde aws, estará hecho en Rust.

anor

#4 supongo que para que se llegue a eso de veras llegarse a una conciencia artificial, solo así puede haber un verdadero pensamiento que tome decisiones sobre qué dirección tienes que tomar los razonamientos, etc dentro de esa conciencia deberá haber algo parecido a nuestro pensamiento, o sea como una "voz" o sea lo que tú estás percibiendo ahora mismo al leer esto. En fin yo también creo que ese está muy lejos de la conciencia artificial general, pero eso no significa que no sea una herramienta potentísima.

ccguy

#4 Si te parece que tener diagnósticos médicos instantáneos y más fiables que los realizados por un médico no es una revolución que ya está aquí... mira rapid.ai
Conducción autónoma que funciona en cientos de modelos de coches... comma.ai

Y bueno, cincuentamil ejemplos más de tecnología con IA que está aquí y que a mí me parece revolucionaria.

Wachoski

#4 como sabemos que este comentario lo ha escrito un humano? ... Joder, podría estar ya soltando balones fuera mientras termina de desarrollarse.... Maldita tostadora!

D

#28 Excusatio non petita.... como sabemos que no eres TU uno de sus agentes? lol

rojo_separatista

#4, después de haber probado GPT-3 no me atrevo a decir que estemos a más de una década de una IA general.

Además de que para la disrupción en la automatización de tareas por parte de la IA tampoco hace falta una IA de propósito general.

RoyBatty66

#88 #43 Cuando he leído lo de inteligencia artificial de proposito general he pensado en el demiurgo y la IA entiendo que va más por el desarrollo orgánico, no mecanicista. El gran misterio que quizás nunca resolvamos es el de la consciencia. Me encanta Terminator, pero yo creo, porque no puedo otra cosa, que la consciencia está más allá de nuestra consciencia. Así lo creía Kant y Hegel, que era un fenómeno, la llegó a describir fenomenologicamente... Y hasta aquí sabemos, porque toda la ciencia, incluida la neurociencia, heredera de la metafísica freudiana, de la consciencia nos ha dicho muy poco.

elvecinodelquinto

#4 Eso es como decir que para que haya una autentica revolución industrial necesitamos una "herramienta universal" o una "máquina universal", que nunca hemos llegado a tener, pero aquí estamos.

RoyBatty66

#64 Estamos confundiendo paradigmas?

elvecinodelquinto

#81 En absoluto. No hace falta una inteligencia artificial general para obtener un gran beneficio. De hecho puede ser más provechoso enfocarlas a problemas específicos.

D

#64 Mas bien es como decir que para que haya una revolucion industrial hace falta algo mas que vapor de agua.

elvecinodelquinto

#85 No estoy de acuerdo. Lo que tenemos a día de hoy es más que suficiente para producir una revolución, por lo que mi simil me parece más adecuado.

D

#89 Y me parece correcto que discrepes, no me creo en posesion de la verdad absoluta , pero tener alguna de las herramientas para la revolucion no es tener a los soviets a las puertas.
Creo que estamos en los primeros pasos , pero aun no tenemos ni siquiera una deficion clara , ya sea axiomatica o experimental de lo que implica inteligencia, no hablemos ya de consciencia.

Varios meneantes han respondido con ejemplos como GPT-3 que si , es muy flexible y con suficiente entrenamiento es capaz de hacer cosas que no habiamos conseguido hasta el momento , pero cuando la meta es tan difusa, es jodido hacer una estimacion de cuan cerca estamos de la revolucion que proclama este señor.

Mi opinion personal es que quizas hay que hacer un pequeño ejercicio de humildad.Sterling y Watt podrian haber pensando en algunos usos de su maquinaria , pero no podian imaginar lo que estaban desencadenando realmente.

Por otro lado , tener la herramienta en si mismo , no sirve de mucho. Voy a poner un ejemplo sencillo de ver
Hace 2010 años nacia en Alejandria un chavalote al que le pusieron de nombre Herón. No era muy de trabajar duro , asi que el colega le daba al coco y se le ocurrian cosas como una esfera con dos tubos doblados suspendida en un eje. Se rellenaba con agua , se le ponia una vela debajo , y ... mira , como gira la jodida.
La primera maquina de vapor , fabricada en el siglo I despues de cristo.

El bueno de Herón hizo otras cosillas como el primer dispensador automatico usando monedas , para vender agua bendita , o las primeras puertas de apertura automatica cuando te acercabas a cierto templo... un puto genio de la epoca.

Y no hubo revolucion industrial porque existia la esclavitud y era mucho mas practico tener esclavos que fabricar una turbina.

Asi que tener una herramienta no garantiza , ni de lejos la revolucion , ni nos permite ver hacia donde llevara dicha revolucion, porque los grandes eventos de la humanidad ni han sido planificados ni se sabia realmente a donde iban a llevarnos.

No se si es la edad o el cinismo tras ver prediccion tras prediccion caer en saco roto sobre como seria el futuro , y cuando llegas a el , ver que todo es la misma obra con diferentes decorados de papel pintado.

A ver si hay suerte y me equivoco.

elvecinodelquinto

#90 Mi impresión es que a la hora de definir las expectativas de la IA la tendencia general es imaginar algo similar a la inteligencia humana pero "mejor" y esto no es muy realista.

Los humanos somos razonablemente buenos en muchas cosas pero es fácil identificar desarrollos sencillos que permiten superar nuestras capacidades, por ejemplo en el ámbito físico tenemos la rueda, la polea, la palanca... Estamos lejos aún de construir un autómata que replique todas nuestras capacidades, pero a partir de piezas más simples hemos sido capaces de por ejemplo ir a la luna.

En el plano de la inteligencia ocurre algo similar. Un detector de objetos (Yolo) es un desarrollo relativamente simple de visión artificial pero con unas horas de entrenamiento puede captar matices solo perceptibles para el ojo más experto, siendo capaz de procesar miles de imágenes por minuto. Es poca cosa, pero va a revolucionar los métodos diagnósticos. Porque, además, va a permitir utilizar imagen convencional para detectar cosas hasta ahora solo posibles con otro tipo de sensores mucho más específicos (y caros).

En el corto-medio plazo veremos muchos avances de este tipo: combinaciones de piezas "simples" que llevarán un poco más lejos alguna de nuestras capacidades actuales.

D

#6 "Aberrantes" no, los resultados pueden ser erróneos. No aberrantes.

#15 Muy informativo tu comentario, y muy bien explicados tus argumentos y razones...

Pues, desde la más profunda ignorancia, a mí me parece que #6 tiene razón. Hoy en día se necesita un porrón de machine learning para la IA, y lo que se hace es llenar los nodos de la red con valores que dan los resultados que más o menos se esperan al entrenamiento. Pero cuáles son esos valores y por qué esos y no otros, ningún programador tiene ni idea.

#35 en todo momento se conocen los pesos de los nodos y se sabe que tienen que ser los que minimicen la función de coste. Si lo que buscas es una explicación de porqué en tal nodo el valor es de 2 en vez de 4 para justificar que en un ejemplo prediga un valor u otro no lo vas a obtener, porque el valor del nodo va a depender de la arquitectura de la red y de cómo se hayan configurado el resto de nodos.

#40 Muchas gracias por la explicación. Yo preferiría decir que no sé cómo funciona algo si no puedo explicar por qué el valor de un nodo es 2 en vez de 4. Dado que parece ser una función de pesos y minimizaciones, ¿existe alguna teoría matemática que pueda predecir cuáles serían los valores de esos nodos? Dicho de otro modo, ¿se podrían en teoría conseguir los valores de los nodos vía definiendo los parámetros de una función matemática, en vez de hacer el ML? - Imagino que sí, pero que a la larga para resolver dichas funciones haría falta cálculo numérico y estaríamos un poco en las mismas (pero al menos habría una base teórica para explicar/entender los valores en los nodos)

rojo_separatista

#41, sabes tú porque las sinapsis del cerebro humano se configuran de tal o cual manera para realizar cualquier tarea? No. Te importa? Tampoco.

Con los modelos de deep learning pasará lo mismo, lo que importa es que hagan bien su trabajo. Me parece muy naif la crítica que se le hace al deep learning de que es imposible entender como funciona el modelo por dentro, como si fueramos capaces de entender como lo hace el cerebro humano.

#46 Pues para no importarnos cómo se configuran las sinapsis del cerebro, hay una rama entera de la ciencia investigando todo eso.
No me parece nada mal la crítica a intentar entender cómo funciona algo. Más aún si es algo que hemos construído nosotros.
Aunque, por supuesto, si funciona, funciona; no son cosas excluyentes. Como la anestesia, que no se sabe aún como funciona, pero no por eso está vetada.

rojo_separatista

#55, igual que hay una campo entero de investigación que trata de comprender mejor los modelos deep learning por dentro. Pero si quieres entender específicamente porque un peso en concreto de un perceptrón en específico de la arquitectura toma un determinado valor para determinar que aquella imagen es un gato, no lo harás, de igual forma que no lo harás igual que no lo harás con la configuración de una de los miles de millones de neuronas que tenemos en el cerebro.

#41 ML también es una regresión lineal, puesto que a partir de unos datos de ejemplo estás intentando predecir el resultado de otros que no ha visto tu algoritmo. Lo que diferencia una regresión lineal de una red neuronal, en cuanto a la minimización del error es que en el primer caso tiene un resolución analítica, mientras que en el segundo caso esa resolución sólo se puede hacer de forma computacional (mediante descenso de gradiente). En una regresión lineal también se podría hacer de forma parecida a una red neuronal, por lo que la única diferencia es que en vez de obtener como pendiente un 2, quizás obtengas un 2.0000003. ¿Por qué no se puede hacer de forma analítica en una red neuronal? Básicamente la forma en cómo se activan las neuronas, las relación matemática entre cómo es la salida y la entrada, y como se interrelacionan entre ellas hace que resolver el problema analítico sea una locura y no merezca la pena el esfuerzo cuando el método computacional es igual de válido con un coste de cómputo asumible

s

#40 Ya, y del orden de presentación de los ejemplos suministrados. Lo único que has dicho es que no se sabe como funciona por dentro, es decir que es imposible intervenir ni corregir nada. Además es impredecible.

La razón es que una red neuronal lo único que hace es almacenar los datos suministrados y reproducirlos a petición. Si le pides por un problema que no ha visto antes, no sabrá responder. Pero tiene la peculiaridad de que si se sobrepasa su capacidad de memoria entonces lo que hace es buscar los aspectos comunes para poder almacenar menos datos; entonces si se le pregunta por un problema distinto (nuevo) pero que caiga dentro de la generalización que haya hecho (que no se sabe cual es) responderá más o menos adecuadamente. Sin embargo, si se le pregunta por algo que, para sorpresa de todo el mundo, caiga fuera de eso, responderá de manera brutalmente incorrecta.

Por lo tanto la gracia de las redes neuronales es que sean pequeñas. Los inventos enormes que hacen ahora, con tantísima memoria, serán menos fiables que los pequeños, por muchas impresionantes capacidades que demuestren.

#49 Se sabe a nivel matemático cómo funciona por dentro. Cuando hablamos de caja negra lo que se quiere decir es que no podemos decir que tal nodo haya tenido la culpa de predecir algo en concreto porque los nodos están todos interconectados, así que no le puedes echar la culpa a uno en concreto. Si por impredecible quieres decir que yo no sé el valor que va a adoptar un nodo sin resolver el problema, eso mismo le ocurre hasta a un árbol de decisión. Si te refieres a que los nodos adquieren valores distintos en cada ejecución, sí que pueden diferir, pero a nivel individual me da un poco igual cómo estén configurados mientras sea capaz de hacer una predicción al mismo nivel. Total, todo esto tiene un alto componente de azar que hace que todo sea muy probabilístico e incluso deseamos que sea así para que la red generalice mejor, por lo que no me importa tanto cómo quede a ese nivel de detalle.

Sobre cómo funciona la red, no es tanto como lo pintas. La red no almacena ningún dato, lo único que almacena son los pesos que tiene cada nodo en función de la topología que hayas definido para la red (número de neuronas, número de capas, activadores, etc). Los valores que tienen esos pesos dependerán de los valores que haya visto durante el entrenamiento, pero hay muchos mecanismos de generalización para evitar que se ajusten demasiado a los datos de entrenamiento y pueda funcionar con datos más variados.

RoyBatty66

#49 En IA y por ende en conceptos como machine lerning, además de las redes neuronales está el paradigma de los sistemas expertos en los que se utilizan herramientas como la mineria de datos o las redes bayesianas.
En todo caso en tu descripción de las redes neuronales no tienes en cuenta que el objetivo, es decir, donde funcionan y se utilizan las redes neuronales, es en el reconocimiento de patrones, por lo que tu comentario resulta redundante.

RoyBatty66

#35 Machine Learning está funcionalmente en un nivel superior a las redes neuronales. Tu planteamiento es semejante a exponer los problemas de un lenguaje de programación en concreto cuando se está hablando de Orientación a Objetos, por ejemplo. Las redes neuronales funcionan muy bien para reconocimiento de patrones y aunque como indica #40 si hay un control de la estructura por dentro funcionan como cajas negras. La mineria de datos está más relacionada con machine learning que las redes neuronales. En todo caso, la gente se hace unas pajas mentales tremendas con la IA por pura ignorancia y ya se sabe, la ignorancia es atrevida.

#53 La ignorancia en efecto es a veces muy atrevida. Sin embargo me parece que un debate explicando las cosas y exponiendo las ideas (como el que ha surgido ahora) es muchísimo más productivo que un "tú no tienes idea de lo que estás hablando" a secas que, con todos mis respetos, sonaba un poco prepotente.

RoyBatty66

#59 La letra con sangre entra

rojo_separatista

#6, acaso sabes tú como funciona el cerebro humano? La complejidad de las tareas y el número de neuronas que hay es tan grande que entender una red neuronal artificial será tan difícil como hacerlo con una natural, lo importante serán los resultados que arrojen.

s

#44 He dejado esta discusión. No puedo con ciertos niveles de estupidez. Pero si asumes que una red neuronal tiene nada que ver con el cerebro, te estás equivocando de continente.

rojo_separatista

#61, si de mi comentario desprendes que yo he dicho que "una red neuronal tiene nada que ver con el cerebro" es que sencillamente no te has enterado de nada de lo que he dicho. Un saludo.

j

#6 "redes neuronales enormes que no es posible saber cómo funcionan". Estas describiendo el cerebro humano. Por eso creo que vamos por buen camino.

s

#51 Está bien. Lo dejo. No puedo con esto.

AlsoSprachMeneante

#19 Yo he acabado en caminos cortados y con una rueda pinchada de propina gracias al tito Google. Desde entonces miro los carteles y paso del gps.

P

#19 vete a una ciudad nueva y no lo pongas. A ver si llegamos a destino antes tú sin nada o yo con Google Maps.

Lógicamente puede tener fallos, pero para eso se supone que estás tú. Si te envía por una calle que acaban de poner en sentido prohibido, es tu inteligencia el que lo debe interpretar. Si te pones burro haciendo caso a ojos cerrados acabarás en algún embalse con tu coche, como ya le ha pasado a alguno

sevier

#33 Si te envía por una calle que acaban de poner en sentido prohibido,
Acaso he dicho eso? No te inventes cosas, son call con muchos años sin cambios y lo utilizo a diario por necesidad, qu viene bien, pero ya te digo que tiene fallos gordos. Pero bueno, tu opina lo que quieras.

P

#75 Claro. Y tú opina lo que quieras. Pero Google Maps es una herramienta brutal. ¿Que tiene fallos? Claro. Para eso estás tú.

Dentro de no mucho la IA de esta y otras aplicaciones cometerá bastantes menos fallos que nosotros

BM75

#19 "No creo en la IA porque Google Maps una vez me llevó por más calles de la cuenta"
Y ese es el nivel de la deducción...

Kantinero

A tomar por culo la inteligencia natural...

santim123

#1 De esa queda poca.

s

#1 El "sentido común" que tenía más valor antes que ser inteligente, porque presuponía saber usar adecuadamente la inteligencia a la hora de tomar decisiones.

Rocio_Siri

#30 El sentido común es el menos común de los sentidos.

LaGataAgata

No hay inteligencia natural, la va a haber artificial.

quitamelpiedencima

Cuando se use la IA para crear una IA más avanzada y esta a su vez para crear otra y así sucesivamente, tal como Asimov lo adelantó en Yo robot, estaremos pero que bien jodidos.

friguron_

#7 Nunca sobra leerlo cada vez que se habla de las IA's modernas (ojo que es LARGO), y tampoco nunca caduca su contenido, al contrario, enerva y deja super abrumado:

https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Vale deu...

arhuaco

#7 Así se hace. Hay IAs que entrenan Otras.

kaostias

#7 O Douglas Adams en la "guía del autoestopista galáctico".

Por cierto, para mi gusto y también de Asimov, el mejor relato sobre IAs que anticipa este hecho no está metido en la colección de relatos de yo robot ni en la de robot completo, es "la última pregunta" que se lee en 20 minutos. Por mi parte, lo recomiendo enormemente pues es en mi opinión y en la del propio Asimov, lo mejor que ha escrito.

cognitiva

Cortina de humo mientras Google deja cada vez más atrás lo de "don't be evil".

HASMAD

La pregunta es si beneficiará a la sociedad o si todas las ganancias irán a manos de unos pocos y el resto veremos cómo el reparto de la riqueza se hace aún más desigual y no se compensa de ningún modo la falta de trabajo.

kaostias

#29 Pues como la mayor parte de estas IAs las están generando grandes compañías, los parámetros están viciados por los beneficios de esas mismas empresas por lo que, me inclino a pensar que las ganancias van a ir a manos de unos pocos con una ganancia tangenciala la sociedad. Es decir, obtendremos resultados subóptimos para que las mega-corporaciones (que es un concepto cyberpunk que me gusta mucho) tengan beneficios óptimos.

dani.oro.5

El substrato biológico es sólo un paso en la evolución, la inteligencia artificial nos seguirá y conseguirá la eternidad al tener un substrato digital perfectamente replicable.

j

#31 Veo que no estoy solo en esa visión. Imagínate poder viajar a la velocidad de la luz... aunque quizá viajar deje de tener sentido y seamos felices viviendo en una raspberry pi 659 en el cuarto de las escobas.

P

Ai Pichurri, que se te ve el plumero.

D

Voy a firmar el comunicado en apoyo a los australopithecus ofendidos por las palabras del jefazo de google.

Yoryo

Hace tiempo que nos lo avisan... HAL9000, Skynet.
Los humanos las creamos a nuestra imagen y semejanza y ocurre lo más lógico, nos exterminan

armando.s.segura

A mí, con que hubiera inteligencia me valdría. Algo que parece que brilla por su ausencia últimamente...

y

Especialmente para la generación de empleo.

Nova6K0

Ya se está viendo en las IA que controlan los y "automoderan" los contenidos, como por ejemplo para adultos, que fallan más que una escopeta de feria.

Saludos

d

Totalmente de acuerdo, muchos trabajos de hoy en día se van a ver como poco afectados por esto.

Siempre que voy al médico (y eso que yo tengo muy buena médico) lo pienso, qué bien sería el meter todos los síntomas y valores (análisis, temperatura, etc) en una máquina con machine learning y que te diera un diagnóstico de lo que puedes tener.

El otro día mi mujer se pasó toda la tarde en el hospital "aislada" con un gotero porque la médico decía que tenía COVID y era una simple gastroenteritis con fiebre.

Y así con muchos, que se equivocan porque "pasan" de diagnosticar más allá, o incluso de escuchar al paciente, ya no te digo de enfermedades graves o raras, buena suerte para que te las diagnostiquen.

En este caso la IA ayudaría al profesional, algo así como en la peli de "idiocracia" (pero mejor, espero :S) y esto podría salvar muchas vidas.

Spirito

La inteligencia artificial es el mayor y más arriesgado invento que jamás creó el hombre. Es el paso previo y necesario para que un átomo de humanidad sea eterno.

RoyBatty66

#36 Pasame el tfno de tu camello, porfa

Spirito

#62 lol lol lol

Sí, tú mete wasa con esto, que ya verás cuando la bestia tome conciencia y enseñe los dientes de silicio. lol

ildefonso_arevalo

Claro que sera una revolucion, por fin habra algo de inteligencia

Q

#5 .. pues como tenga que aprender de los humanos

d

Haran juegos por si mismos?

D

Lo dice el líder

MisturaFina

El mundo hoy se caracteriza por la estupidez. Si la IA es realmente inteligente bienvenida sea.

ppma

Mientras las IAs sigan siendo cajas negras que no hagan otra cosa que regresiones multivariable (de muchas variables, esto hay que reconocerlo), no serán ninguna revolución. Como para tantas otras tecnologías emergentes, seguirá una 'hype curve' de Gartner mucho antes de que suponga un cambio real en nuestros paradigmas.

rojo_separatista

#37, acaso el cerebro humano no es una caja negra?

La revolución en el campo de la IA los últimos 10 años ha sido precisamente porque se ha dejado de utilizar algoritmos basados en una secuencia de instrucciones creadas a mano y que se podían entender, para utilizar modelos que se autoconfiguran internamente a partir de lo que quieres que hagan. Es imposible entender una red neuronal compleja por dentro, como lo es el cerebro humano, porque la complejidad de la tarea es tal, que no tenemos capacidad de procesamiento suficiente para comprender como interactúan tantas variables entre sí, con tantos órdenes de profundidad.

j

#37 igual es que el cerebro humano no hace más que "regresiones multivariable". Cada vez son menos caja negra, hay redes que explican sus decisiones. Lo de que no se puede saber cómo funcionan empieza a ser un mito. Al menos al mismo nivel que yo no sé explicar la mayor parte de mis acciones

F

Pues a ver si consiguen hacer un traductor en condiciones.

R

#74 Me manejo mal con el ingles y sinceramente, con la opción de chrome de traducir automáticamente paginas al ingles hay muchas en las que después de leer un par de párrafos veo un gazapo y digo ¡¡¡ostras!!! esta en ingles. Funciona muy bien en textos, no tanto en palabras sueltas donde no detecta tanto el contexto de toda la página.

Ojala pronto evolucione al mismo nivel para audios