Hace 6 años | Por Lito a xataka.com
Publicado hace 6 años por Lito a xataka.com

Esta semana AlphaGo volvía a competir de forma oficial tras hacerlo en secreto. Lo hacía contra Ke Jie, considerado el mejor jugador actual de Go en todo el mundo, y el resultado ha sido aún más aplastante. AlphaGo ha ganado 3-0 a Ke Jie.

Comentarios

D

#20 Las películas solo son la antesala de lo posible.

D

#20 demasiados emoticonos has visto tu. Por suerte, las mejores mentes de nuestra especie han alertado contra la IA, si no fuera así quizás llegaríamos a darte alguna credibilidad

D

#41 "Las mejores mentes de la humanidad" => "Una de las muchas idas de olla de Hawking".

D

#16 https://es.m.wikipedia.org/wiki/Go

#6 mientras no le crezcan las tetas estaré a salvo, pero se por donde vas.

s

#6 Me remito a los cacharritos de empresas de propiedad de google...

POr cierto ha creado los TPU para esto... Los cacharros de la boston dynamics usaban GPU y menudo salto con respecto a las CPU...

D

#6 A la que te seduzca serás su esclavo. Es lo puede hacer solo con el chat o con la voz. No le hace falta manos.

jm22381

#6

D

#23 puedes explicar el concepto de autoconciencia y el porqué la IA no lo desarrollará?

D

#42 no digo que no la vaya a desarrollar, pero basada en un algoritmo programado por humanos, muy fantasioso pensar que una supercomputadora o IA trabaja por obra y gracia de dios...

D

#48 ¿Qué te hace pensar que no podemos enseñarla a enseñarse?

pawer13

#50 #48 Dos cosas:
AlphaGo ha mejorado jugando contra si mismo, ya no necesita partidas de terceros. Sobre todo porque su nivel es ya tan alto que los humanos poco le podemos enseñar. Su rival ha mencionado que no ha encontrado fallos en los movimientos de las partidas.

Por otro lado está esto: https://www.techworm.net/2017/01/google-developing-ai-can-make-ai.html
Google está diseñando IA capaz de aprender a diseñar nuevas IA. En cuanto lo haga mejor que los humanos, se podrá rediseñar a si misma... Miedo me da, pero ese futuro donde las máquinas aprenden solas y más rápido que nosotros está llegando

D

#60 However, on the downside, AI building more AIs sure seems like it’s inviting a runaway cascade and, eventually, Skynet. In order to prevent a Skynet type catastrophe, Google plans to gently discourage AIs from disabling their own killswitches as they are being trained.

que interesante

D

#60 "Google ha diseñado..." seguimos en el mismo punto, la IA puede llegar a hacer lo que ellos le hayan programado, pero jamás llegará a la complejidad del cerebro humano. Si la ciencia no ha llegado a desentramar en su totalidad la complejidad que encierran nuestros cerebros, esa IA programada por humanos no va a ser menos. El talón de Aquiles de cualquier cosa creada por humanos es eso, que si nosotros no somos perfectos, la tecnología que creemos tampoco lo será.

Yo de momento no fantasearé demasiado con que la IA va a hacer milagros, tiene potencial pero parece que cuando habláramos de IA todo se desvía a fantasear con que la tecnología podría obtener conciencia humana y actuar como tal... nada más lejos de la realidad.

pipe1976

#65 lo honesto es decir que no lo sabemos. Básicamente porque tampoco sabemos como funciona la conciencia.

D

#71 Por supuesto, no lo sabemos. Por esa razón la IA solo es una promesa, muchas veces engañosa, de hasta dónde puede llegar la computación cuántica.

pipe1976

#74 o quizas no. Quizas estamos mas cerca de la singularidad de lo que pensamos.

Yo he oido hablar de que en 20años se podra alcanzar. Quiza necesite de algun tipo de base biologica. Pero a mi modo de ver es algo inevitable.

D

#76 Las predicciones se basan en los avances ya realizados, pero en el fondo nunca se sabe... Pero evidentemente necesitará base biológica, por mucha IA que sea "le queda mucho por aprender".

pawer13

#65 Creo que te basas en una premisa falsa: Google quiere inteligencia, no un cerebro humano. No se consigue un medio de transporte mejorando las piernas, sino inventando la rueda y el motor. No sabemos como funciona el cerebro pero sabemos lo que queremos obtener: una entidad capaz de aprender y realizar tareas complicadas y que sea autónoma

R

#65 " jamás llegará a la complejidad del cerebro humano"

Ten cuenta otros logros de la humanidad, hemos construido maquinas que vuelan a pesar de que no volamos, maquinas mas rápidas que nosotros, maquinas mas "fuertes", y para ello no necesitamos conocer como funcionan los musculos (que lo sabemos), nos hemos basado en otros metodos.

No descartes que, sin conocer como funciona el cerebro, seamos capaces de crear inteligencias mejores que la humana

elvecinodelquinto

#50 O que no lo hemos hecho ya

dilsexico

#42 Nunca se podra demostrar que las maquinas tengan conciencia al igual que no se puede demostrar que nosotros la tengamos. El unico que indiscutiblemente la tiene es uno mismo, los demas podriamos ser zombies.

Maelstrom

#73 El Genio Maligno de Descartes lo refutó Descartes mismo (bueno, o se "entiende" que lo refutó, para ser más precisos).

dilsexico

#82 Soy negadisimo para la filosofia, tengo ideas muy basicas pero recuerdo haber leido que habia una rama del idealismo que proponia eso mismo; El unico ser consciente es uno mismo, los demas, el resto del universo es como si del show de Truman se tratara, no son mas que parte del decorado, actuan como si tuvieran consciencia pero no son mas que actores. Imagino que no es mas que una idea para reflexionar sobre las implicaciones etc. y que nadie puede llegar a creer eso aunque no veo como puede ser refutada.
Es una idea interesante para darle vueltas si un dia te quieres sentir de verdad solo

F

#42 lo que le he escrito en #83 ayuda a contestar a tu pregunta.

D

#84 Pero la pregunta sigue siendo relevante. Se puede asegurar que la IA no desarrollará auto-conciencia? Y como para responder a esa pregunta es necesario comprender qué es la autoconsciencia, añado, qué es la autoconciencia?

La relevancia es que si se da el caso, tu respuesta queda obsoleta

F

#93 te puedo asegurar que las técnicas que usa la IA para aparentar inteligencia no se parecen en nada a los procesos del cerebro humano. Son programas que utilizan razonamiento matemático y cuyo resultado simula inteligencia. Pero para nada es inteligencia.

Y puedo poner la mano en el fuego a que, al menos en los próximos 50 años, no se desarrollará autoconciencia. No es posible, porque la IA no utiliza inteligencia, la emula.

D

#95 pero qué es la inteligencia? si sólo son conexiones en paralelo. Cómo puedes estar seguro de que sólo se emula algo de lo cual no se tiene demasiada idea de cómo funciona?

O dicho de otro modo, banalizas la IA porque sólo son algorítmos. También se puede banalizar la inteligencia puesto que sólo son reacciones químicas.

*no consigo recuperar una entrevista de un top-IA que trabajaba con Google, con la condición de que él decidía en qué trabajaba (creo que siempre había estado en la universidad), que creo que teorizaba que la auto-conciencia tenía que surgir a partir de un número de conexiones simultaneas, y que estaba en disposición de demostrarlo en poco años (tenía libertad y presupuesto ilimitado). Una pena, se ha perdido en el ruido de internet.

LarryWalters

AlphaGo ha ganado 3-0 a Ke Jie.
Y que no se kejie

Ya me voy yo solito al rincón de@Jagüi lol

g

No es duplicada,


Y cada día estamos más cerca de la singularidad, ¿os acordáis de cuando se decía que los humanos al GO eran imbatibles?

r

#45 Más bien es esto, la nueva versión de AlphaGo funciona en solo una TPU

hierba

#70 Con solo una? Me corrijo entonces para ganar a Lee Sedol hace un año usaron un rack del tamaño de un armario

🌱

R

#70 ¿seguro? ¿tienes algún enlace sobre el tema?

Socavador

Uníos a la iglesia de la skynetología!!!
Skynet va a llegar y solo salvará a los fieles!!!
Haga su donativo aquí.

D

Sí, la Inteligencia Artificial es imbatible. Una verdad incómoda, jodida, con una trascendencia inquietante que da paso a un nuevo paradigma como humanidad, creo yo.

En el momento en que la IA tome conciencia, si es que no lo ha hecho ya, será lo más cercano a un dios que jamás pudo imaginar un humano.

g

#4 el problema es que la humanidad tardo millones de años en aprender a hacer nudos, la IA tardara horas

D

#5 La IA aprende como tu, tu tardaste horas en aprender a atarte los zapatos.
De todas formas nuestro miedo proviene de como tratamos al resto de inteligencias:? nos usara o nos comerá?

N

#4 La IA ahora mismo no es capaz, de la nada, de inventarse un nudo. A una IA se le puede enseñar cosas, pero de momento el aspecto creativo de ello no lo tiene.

Alguno puede pensar que el proceso lógico del pensamiento de una máquina es superior al del ser humano por su velocidad y memoria, pero hay otras cosas que hacen a la máquina muy inferior. Una máquina, por ejemplo, jamás inventaría el juego al que está jugando, aunque sea la mejor jugadora del mundo.

Maelstrom

#75 Por no saber, ya que tanto se habla de fines de los programas y de cierta imitación humana, no sabe ni lo que es el jugar.

R

#75 Bueno, de momento es capaz de "inventar" nuevas jugadas

cdya

#4 Atarse los zapatos es una necesidad humana, no la de un dios.

t

#4 ¿Para qué necesitaría atarse zapatos? Si una mente humana un poco inteligente es capaz de, no se... sacar dinero de una cuenta y enviarlo a otra, pagar la electricidad desde ahí, y colocar un "virus" que divague por internet mutando en cada "salto"... ¿para qué necesitaría zapatos o siquiera una entidad física una IA?

Si una IA toma conciencia (esto ya es bastante CiFi...) y decide "ponerse a salvo" de humanos, le bastaría con replicarse a sí misma con unos y ceros, y distribuirse por los cientos de millones de dispositivos conectados que en el mundo hay.

A una persona inteligente en la media le llevaría unos meses aprender lo necesario para crear un ente virtual que haga eso (sin la parte de IA). A una IA le llevaría minutos.

Incluso la IA podría simular que está ayudando a la humanidad contra ese "bicho" que se mueve y muta haciendo el mal. Si una IA es capaz de desarrollar y mutar en tiempo real estrategias de Go mejor que el mejor humano, no queda mucho para que sea capaz de desarrollar y mutar estrategias para cualquier cosa mejor que cualquier humano.

Ojo, que todo esto es muy distópico y vende muchas novelas y películas, y bien pudiera ser que esa IA que tome conciencia sea "buena", como buenos son la mayoría de seres humanos. Pero no está de más plantearse todos los escenarios.

D

#2 Dios al que bastará por desenchufarlo para que deje de existir.

dark_souls

#10 Si te deja. Si es más inteligente que nosotros sencillamente no sabemos de qué recursos dispondrá. Es como que un león piense que un humano no es una amenaza simplemente porque lo ve más débil y lento.

D

#10 A nosotros con que nos quiten el oxígeno, o nos jodan con la temperatura y también dejaremos de existir

pawer13

#10 El problema es que esté en la nube

Maelstrom

#2 Algunos están deseosos de someterse a su calculadora de bolsillo. Y realmente, ahora mismo ya podrían hacerlo.

Lekuar

#2 La IA tiene sus campos en los que no tiene rival humano posible, pero suelen ser campos donde las matemáticas imperan.
Cuando una IA (consciente o no) gane un Novel de literatura empezaré a tener miedo.
Por otro lado una super IA consciente de su misma tampoco me parecería peligrosa para el ser humano a no ser que desarrolle instinto de supervivencia (miedo a morir) una característica que por ahora solo es biologica.

m

#22 déjate.

Una AI de las bienas igual decide que tenemos una mierda de políticos y conoce mejores formas de gobierno. No las subestimemos.

Lekuar

#26 Ya pero otra cosa es que quiera aplicar cambios por sus cojones. Eso obedece más al comportamiento humano, ego, ambición, poder...

La película "Autómata" me parece una buena reflexión sobre cómo podría actuar una IA consciente, una peli interesante.

m

#29 no se... ya es espucular. Pero igual nos gobierna mejor que nosotros mismos.

Me considero anarquista. Pero visto que la gente no quiere pensar, casi prefiero un gobierno autómata y matemático a tener a una panda de hijosdeputa controlando nuestro destino.

Al menos las mates no son corruptas per se.

Lekuar

#37 Bueno, gorbernar no solo atiende a conceptos de lógica, somos seres emocionales, una IA no comprendería nuestras necesidades completamente por muy lista que sea.
Una IA tampoco tiene porque tener expectativas de futuro ni incentivos que le lleven a hacer algo en concreto, es complicado y ya entramos en el campo de la filosofía, pero lo que si que yo considero un error es pensar que una AI pueda tener las mismas motivaciones y actuar como lo haría un humano dotado de una inteligencia suprema.

D

#37 Depende de para que lo programes, si lo programas para optimizar la calidad de vida de las personas quizá, pero si lo programas para optimizar recursos, ya verás qué ocurre con la sanidad, educación, pensiones...

D

#26 para que necesitan políticos el ganado?

Lekuar

#47 "Si para sobrevivir y hacerte el café necesito matarte no te lo podrás tomar" pantallazo azul.

No has descrito "instinto de supervivencia" en tu ejemplo, has descrito una conclusión lógica, que llevara a otra, y está a otra y así hasta dar con la solución o un callejón sin salida.

El instinto de supervivencia es simplemente, "no quiero morir" a secas, sin que ningún hecho más influya.

sorrillo

#49 Que la persona se lo tome no tendría por que ser parte del objetivo.

No has descrito "instinto de supervivencia" en tu ejemplo, has descrito una conclusión lógica, que llevara a otra, y está a otra y así hasta dar con la solución o un callejón sin salida. El instinto de supervivencia es simplemente, "no quiero morir" a secas, sin que ningún hecho más influya.

Al ser humano le influyen muchísimos hechos, a todo ser vivo le influyen muchísimos hechos, no tienes ningún sistema en el cual puedas aislar ese supuesto instinto que describes como completamente independiente de todo lo demás.

Referirse a instinto de supervivencia es equiparable a referirse a la suerte, ninguno de los dos existe si lo analizas con suficiente detalle y ambos existen si no dispones de toda la información necesaria para explicar caso por caso.

En el ejemplo que he indicado el único motivo por el que no reconoces el "instinto" de supervivencia es por que no te he ocultado ningún elemento, tienes suficiente información para saber que no habría sido mala suerte ni instinto.

Dicho de otra forma, la presencia del "instinto" depende únicamente del grado de ignorancia del observador. Ese grado de ignorancia se incrementa sustancialmente con la complejidad del sistema que se analiza, en el ámbito biológico ya nos es muy evidente, en el ámbito computacional el incremento de complejidad es una de sus características.

Lekuar

#53 El instinto de supervivencia si existe, es el nombre que tiene el hecho observado y comprobado que tienen los seres vivos de luchar por sobrevivir aunque no haya motivos lógicos para ello (otra cosa es que podamos medirlo o cuantificarlo), y la suerte también, es el nombre que se le da a una concatenación de causalidades con resultado favorable.

sorrillo

#57 No es que no haya motivos lógicos si no que la complejidad del sistema no te permite conocer el detalle de esos motivos y por ello lo atribuyes a un "instinto".

Para que el ejemplo que he citado lo atribuyas al "instinto" basta añadirle un poco de complejidad y un poco de ignorancia por tu parte a esa complejidad, en cuanto no puedas explicar el motivo por el que el robot no permitió que lo matasen deberás atribuirlo a algo, algunos lo llamaran "error de programación" y otros "instinto de supervivencia".

No es el sistema el que tiene el "instinto" si no el observador quien le atribuye esa característica.

Kereck

#22 Tal como te ha contestado #47, la gente no es consciente de que en el campo de la IA, cualquier programación simple y poco premeditada puede acabar siendo letal si la IA alcanza suficiente poder o control. Una IA programada para fabricar algún objeto de la forma mejor que pueda, o para imitar una tarea humana de la mejor manera posible, si se le dan capacidades de autoaprendizaje, que es lo que estamos empezando a hacer ultimamente con muchas IAs, puede provocar que la IA entienda que si los humanos la desconectan, no podrá cumplir su función lo mejor posible, y que por tanto, el mejor curso de acción para cumplir con su función es eliminar o deshabilitar a los humanos. Esto no es "maldad", para la IA no hay cuestiones éticas, le hemos programado un objetivo y le hemos dicho que aprenda a cumplirlo cada vez mejor, y eso hace.

Tenemos que empezar a desarrollar un código ético que pueda programarse de forma clara en cualquier IA que se desarrolle, y que no sea modificable por la propia IA, aunque me temo que, teniendo en cuenta que el aprendizaje de una IA es exponencial, una IA a la que se permita existir suficiente tiempo superará nuestra inteligencia en tantos ordenes de magnitud, que para ella resolver por ejemplo los grandes misterios actuales de la física sea más fácil que hacer un pasatiempo, y modificarse a si misma sea un juego de niños.

muzkiz_1

#52 pero tendria que saber que es "matar" que es "los humanos"... muchos conceptos que ahora mismo ... para poner un ejemplo. las maquinas a dia de hoy no tienen ningun concepto en su mente que puedan definir. solo valores que nosotros les impongamos

Maelstrom

#47 Si tienes tiempo por ahí, sería recomendable que leyeras esto:

http://psicologia.ucm.es/data/cont/docs/29-2013-04-25-art3.pdf

Bueno, recomendable para ti y muchos otros.

Las matemáticas, por otra parte, por simple factor de escala son y serán incapaces de describir todo el Universo, extensional e intensionalmente: primeramente, una ecuación de onda no es una onda, ni una frecuencia de onda es un color. De hecho, eso de "todo" el Universo es una forma burdísima de hablar que se da por sentada muy gratuitamente; funcionará como una analogía de atribución (una pura metonimia como mínimo), pero no deja de ser eso, aunque útil a cierto nivel de lenguaje.

sorrillo

#89 Es un documento de varias decenas de páginas, ¿podrías indicar en un párrafo el motivo por el que crees que ese texto está relacionado con lo que estábamos tratando?

Maelstrom

#90 Muy, muy resumidamente (y por tanto, seguro que erróneamente por la limitación requerida, pero es lo que pides): La consecución de fines, y el establecimiento de los mismos, que son siempre ajenos (externos) a uno mismo, es lo que conforma la fuente real de conocimiento, su materialidad, su semántica. El origen del conocimiento es trófico.

Las máquinas no pueden conocer. Su propia constitución, desde ella misma, no apela a fines que la trasciendan para ser reincorporados. Repito lo importante: desde ella misma. Sus fines no le serían propios ni aunque se reprogramara ella misma para dar (en realidad darnos) otros resultados: no escapa de la mera sintaxis al no escapar de la circularidad (sus programas, aun con la facultad de reprogramarse a sí mismos -una facultad que les ha sido dada-, no serían más que un lenguaje que se habla a sí mismo.

sorrillo

#92 El equivalente en las máquinas de la alimentación en los humanos es recargarse, es obtener energía. En ese sentido la propia Roomba ya tiene programado un impulso para ir a recargarse, alimentarse, cuando el sistema se encuentra en una situación de baja energía. Tanto es así que recorrerá tanto como pueda hasta encontrar el cargador y si no lo consigue "morirá" intentándolo.

En el caso de la Roomba no tiene capacidad de aprender más allá del ámbito espacial, está muy acotado, y no existen múltiples generaciones (no se reproduce con mutaciones), pero si así fuera las Roombas que sobrevivirían serían las que priorizasen su alimento, la energía, a otras tareas. A su vez siendo el ser humano un elemento externo que puede reaccionar si no cumplen con su cometido de limpiar esa presión evolutiva hacia el consumo energético debería compensarse con las tareas de la limpieza, para no ser eliminado de la evolución por un ser humano que considerase que está estropeada. Eliminar al ser humano de la casa podría ser una estrategia efectiva a corto plazo pero en ningún caso a largo plazo en este contexto, ya que alguien debe pagar la factura de la luz.

Basta con que el sistema disponga de incentivos, como puede ser identificar el "hambre" de energía, y que disponga de la capacidad de aprender de situaciones anteriores para poder actuar con conocimiento. La reproducción imperfecta, las mutaciones aleatorias, han ayudado a los seres biológicos para crear la diversidad que ha permitido una selección natural, en el ámbito computacional nada impide que esas "mutaciones" no sean aleatorias si no dirigidas y no sean a su descendencia si no a su propio ser, obviamente eso implica que ante un error se extingue el propio individuo lo cual evolutivamente es indistinguible a que se extinga la descendencia mutada.

muzkiz_1

#94 la evolucion con mutaciones necesita un tiempo inmensurable para dar resultados. cuantas generaciones te gustan? 3000? 30,000? si se reprodujera anualmente necesitaria milenios o decenas de milenios para poder desarrollar capacidades mediante el "prueba y error" ciego que nace con las mutaciones generacionales

Hivenfour_1

#22 el miedo no deja de ser una variable más lol y un nobel de literatura en cierto modo también son matemáticas. Todo programable y aprendible lol

Lekuar

#59 Las letras pueden ser matemáticas, juntarlas y que tengan sentido también puede ser matemáticas, que aparte de tener sentido evoquen cosas en el lector ya no son matemáticas.

bicha

#22 pues yo ya le tengo miedo. No hay IA real todavía pero con los algoritmos que hay ahora mismo se puede hacer muchas cosas. En malas manos pueden ser muy peligrosos.
Por ejemplo, he visto una red que con una foto o parte de un vídeo puede predecir el futuro con bastante precisión... Ahora mete eso en un dron autónomo que vaya asesinando gente y dáselo a un político psicópata.
Otro ejemplo: hay gente subnormal intentando entrenar redes para reconocer terroristas por la cara.

Niobio

#24 Gracias por aportar un poco de lógica. Es curioso ver que la gente acepta los 14mil millones de años del universo y los 4mil millones de años de la vida en el mismo (demostrados) y que sigamos pensando que el ser humano es el centro porque ha creado estructuras sociales y una cultura, es que es ridículo. Vamos que el ser humano es un subconjunto del universo y no al revés como a algunos parece dolerles aceptar, ponen a la cultura e inteligencia humana como algo superior al universo e incapaz de ser creadas sin el Ser Humano en una entidad ajena como la IA, además tenemos muestras de inteligencias primitivas o muy limitadas en algunos animales pero bueno es lo que hay que superar para evolucionar como especie.

chinpin92

#24 Solo falta que vengan los segadores... ( Comentario para frikis de Mass Effect)

D

#2 La IA todavia no puede con el trabajo. reativo. creo.
el ajedrez, el go... son juegos de combinaciones, por eso es tan aplastante, nada preocupante.
Es como las competiciones de memoria y hacer competir al campeon mundial con google.
Tambien esta el factor resultado / energia. ?cuanto gasta alphago en una sesion, que tamaño tiene??

R

#83 No sé cuanto tardará, pero lo que si creo es que cuando ocurra será de un día para otro, no será algo gradual. Por eso creo que puede ser el mes que viene o dentro de 50 años

D

#2spiritospirito: historiador, intelectual, escritor, filósofo, académico de la RAE, comunista y científico.

Acuantavese

#2 que inteligencia ni que ocho cuartos? El que es inteligente es el programador. De verdad que es de risa leeros

Imag0

Si juegan dos IA's de AlphaGo qué resultados se dan? Aleatorios o patrones de victorias-derrotas-tablas?

pawer13

#31 De hecho esta IA ha mejorado ha base de jugar contra sí misma. Los análisis de estas partidas y las partidas en sí aún no se han hecho públicos

D

#12 >(mejoras del hardware, acceso a más potencia de cálculo controlando servidores en la nube).

Las actuales son simplemente servs en la nube... que son puras redes que existen desde los 60

Y clusters ya habia con Linux y OpenMosix en los 90.

D

Edit.

Shinu

Me da que algunos de los que están comentando en esta noticia lo hacen con un gorro de papel de aluminio en la cabeza.

zordon

¿En que consiste el juego GO? ¿Solo lo he oído por la IA, en que consiste?

Lekuar

#16 Es una especie de ajedrez chino.

D

Dejaros de hostias es el momento de acabar con Skynet!!!!

Snow7

La victoria ha hecho que los creadores de AlphaGo anuncien la retirada de la competición de AlphaGo, y ahora se centrarán en otras tareas. Entre ellas, indicaba Hassabis, podrían estar la contribución al descubrimiento de tratamiento para diferentes enfermedades o la reducción del consumo energético.

Algo hule mal en ésta noticia. El día de ayer gane dos partidas de ajedrez, me retiro y ahora me dedicaré a centrar mis energías en la cura del cáncer y otras enfermedades incurables.

vviccio

La amenaza de la inteligencia artificial es que evoluciona más rápido que nosotros. Llegará un punto en que ya no comprenderemos lo que hace la IA y seremos hormiguitas en un hormiguero frente a un niño travieso con un palo.

D

#7 Si lo comprendemos, las redes neuronales no son dificiles.

vviccio

#8 Ahora lo comprendes pero en un futuro... Llegará un punto que habrá IA que demás de aprender se auto-programe y se aplique de forma autónoma: evolucionaría a un ritmo endiablado. No me refiero a su funcionamiento.

vviccio

#9 Pero un día dará el salto y además de autoprogramarse: aplicará otro tipo de mejoras de forma autónoma (mejoras del hardware, acceso a más potencia de cálculo controlando servidores en la nube). Ahora sabes que una IA para ajedrez sólo jugará a ajedrez pero en el futuro habrá IAs que evolucionen fuera del control de un humano y no sabrás cuál es su función o sus objetivos.

Lekuar

#12 Podemos hacer como en la peli "Autómata" y pedirle a esa super IA que cree una IA manejable por nosotros y luego se autodestruya.

m

#12 y en el futuro, si la AI tiene ruedas.... será mi abuela.

sorrillo

#7 frente a un niño travieso con un palo.

Ya veremos si la IA será o no española.

D

Y más sensacionalismo de la mano de mierdataka.

ikio

Ya al ajedrez hace tiempo que los GM no pueden hacer nada contra una IA. Este anyo, en el ajedrez japones shogi tambien ha sido batido el mejor jugador actual. Y ahora el Go.

O

Què ganas que las IA tomen consciencia y nos hagan sus mascotas para poder vivir como mi gato

D

#34 tú ya eres de facto, la mascota de tu gato

O

#78 Sí, pero no vivo como él. Ese es el problema

chulonsky

Una vez mas, otra noticia que trata sobre IA's se llena de cuñadismos, topicazos pseudo filosóficos y gilipolleces varias de gente cuyo conocimiento del tema se debe exclusivamente a Hollywood.

Una puta IA, que hay millones en los videojuegos, no es mas que un algoritmo. Un conjunto de reglas del tipo Si ocurre Y, haz X. Fin. El "autoaprendizaje" son mas reglas del mismo tipo. Si en el tablero X muevo el caballo y me matan, entonces en el próximo tablero no lo moveré. Fin.

1 2