Hace 6 años | Por darsena a blog.desdelinux.net
Publicado hace 6 años por darsena a blog.desdelinux.net

El programa Mar.io ha conseguido completar un nivel de Super Mario World tras 24 horas de evolución neuronal. Qué pasará cuando se empleen estos recursos a áreas como la ciberseguridad

Comentarios

m

#2: Y una de energía cuando nos peleemos con alguien.

D

#3 Hype.

sonixx

#3 y que tal de empates?

D

#3 Stockfish es GPL

Sobre el Go, es mucho más complejo que el ajedrez. En el ajedrez puedes predecir una partida buena en pocas tiradas. Con el Go es muy dificil.

Kereck

#15 Elon Musk tiene un doctorado por la universidad de Yale en Ingeniería y otro en física, y participó directamente en el desarrollo del software de sus dos primeras empresas, que ofrecían servicios a través de internet (Zip2 y X.com), por lo que algo de desarrollo de software si que sabe (aunque no sea su principal especialidad).

F

#20 La IA no tiene nada que ver con desarrollo de software. El Machine Learning, que es a lo que se le llama IA hoy en día (la IA es más que machine learning), son matemáticas y algoritmica. Lo importante es saber las matemáticas y la lógica debajo de eso. Para desarrollar redes neuronales ya hay librerías como tensorflow.

D

#21 ¿Y si eso no es desarrollo de software qué es entonces?
En mi opinión es puro hype, reinventar la rueda. Toda esta misma superchería la oímos desde que se inventó la calculadora. Una learning machine no es más que un ordenador, y se crea con conocimientos de hardware y software. También hacen falta conocimientos de matemáticas, son proyectos multidisciplinares.
Pero lo que quiero decir es que no es cierto que las learning machines sean una cosa y las computadoras otra. Simplemente son computadoras muy grandes con cantidades ingentes de código y algoritmos enormes. Pero usan el mismo tipo de hardware, código y algoritmos que cualquier otra aplicación y necesita el mismo tipo de conocimientos técnicos. Ahí tienes la implementación en Python que mencionas. No funciona si no sabes programar, no llega con escribir unas fórmulas por muy matemático que seas.

La panacea que venden las IA es la máquina multipropósito definitiva que no necesite de conocimientos previos para darle instrucciones. Sin embargo la experiencia demuestra que son máquinas muy complejas, exageradamente específicas y que precisan de un montón de conocimiento para crearlas y hacerlas funcionar.

D

#25 No. Las redes neuronales son álgebra linea de la pesada.

F

#25 Al contrario, los algoritmos de redes neuronales (por poner un ejemplo) son relativamente sencillos. Con las matematicas adecuadas, puedes hacer que una máquina aprenda con unas cuantas líneas de código. Las ingentes capacidades de computación se necesitan porque estos algoritmos suelen tener complejidad exponencial en tiempo y memoria y por lo tanto cuanto más potente la maquina mejor. Más potencia computacional te permite aprender problemas más grandes y en menos tiempo.

De verdad te lo digo, tiene más código una página web como esta que un algoritmo para jugar al Go.

Te lo digo con conocimiento de causa, soy doctor en IA.

PS. Totalmente de acuerdo en lo que dices respecto a la especificidad de la IA y lo sobrevalorada que está. Sabemos hacer que una máquina juegue al Go, pero si no la has entrenado para otra cosa no le pidas más.

Jesuo

#50 Doctor en IA

Iniciando solicitud de petición para que crees un artículo sin tecnicismo alguno que explique a los neófitos los avances de los distintos tipos de IAs.

Espero no haberte puesto en un aprieto 😇

D

#50 ¿Y los doctores en IA tenéis algún permiso para acceder al código del AlphaGo? Porque que yo sepa no ha sido revelado al público y aventurar cuántas líneas de código puede tener con cero información y sin ninguna otra referencia con la que compararlo me parece poco propio de cualquiera que se anuncie experto en la materia.
El algoritmo de AlphaGo puede resumirse quizás en unas líneas, pero asumir que está al alcance de cualquiera que pueda escribir la fórmula matemática es como creer que vas a construir una catedral usando solo boli, papel y una calculadora.

F

#58 el método que han usado para AlphaGo es público y esta publicado en artículos científicos. No es sólo para doctores. Te lo puedes bajar si quieres y si tienes el background necesario te podrás dar cuenta de que no se necesitan grandes algoritmos para que una máquina aprenda. Sólo el mecanismo adecuado.

Toma https://storage.googleapis.com/deepmind-media/alphago/AlphaGoNaturePaper.pdf

D

#61 Eso no es código. El problema es que el "mecanismo adecuado" no crece en los árboles, más bien consiste en un montón de código sobre el que corre el código "sencillo" del que hablas.
Decir que el código de AlphaGo es simple porque puedes reducirlo a un puñado de fórmulas es como decir que el código de circulación tiene pocas páginas porque las señales de tráfico son muy fáciles de entender.

F

#62 Revisa la conversación. Donde he dicho yo que sea sencillo de implementar como mecanismo o incluso entenderlo? He dicho que se requiere muy poco código, argumentando que IA no es equivalente al desarrollo de software.

Los algoritmos de aprendizaje son muu sencillos, en el sentido de cantidad de codigo y mantenimiento. Se necesita mucho más código para hacer un programa de gestión de empresas que hace cosas muy específicas y con muchos pasos y requisitos. El Machine Learning en el caso del Deep Learning se basa en algoritmos de aprendizaje general basados en teorías matemáticas y algoritmos de descenso del gradiente. No voy a perder más tiempo debatiendo contigo sobre algo que no tiene debate.

D

#65 Y eso es ingeniería de software, lo mires por donde lo mires. Tu argumentario es como decir que para crear un coche eléctrico no hacen falta conocimientos de automoción porque no usa gasolina.
Para crear una IA hacen falta entender como funcionan los ordenadores y programar mucho.
Para empezar porque gran parte del hardware y el marco de trabajo en el que se desarrolla una IA no es reciclable para otros proyectos salvo que sean muy similares (y en ese caso te doy la razón, pero coger el programa de otro y cambiarle unos valores no es programar IAs, como mucho es adaptarlas).
Entiendo que los profesionales queráis desmarcaros para señalar la diferencia y exclusividad que caracteriza a la forma de trabajar con IAs. Lo que me parece exagerado es cuando oigo a alguno decir que no es un ingeniero que programa sino una especie de pedagogo que entrena aparatos.
Es como si yo soy técnico de sistemas en red y digo que a partir de ahora no quiero que me llamen informático, quiero ser domador de redes.

F

#66 Antes que científico en IA fui (y sigo siendo) ingeniero de software y un campo no tiene nada que ver con el otro. La IA no es ni mas difícil ni más sencilla, ni creo que alguien que programe una IA se haya de desmarcar de un ingeniero de software. Sencillamente son cosas diferentes. Puedes programar una red neuronal teniendo conocimientos muy básicos de programación, mientras entiendas el marco matemático subyacente. En cambio nunca podrás hacer ingeniería de software sin esos conocimientos... eso es otra cosa y se necesitan años para aprender a desarrollar un software complejo.

Para muestra un botón, hay cursos online de Machine Learning en Stanford orientados a cualquiera. Hacen prácticas con Matlab y no necesitas ser ingeniero de software para seguirlo y desarrollar una red neuronal. https://es.coursera.org/learn/machine-learning

D

#67 He visto varios de esos cursos antes y aunque enseñan lo básico no puedes decir que con simplemente con esos conocimientos puedas llegar a hacer algo profesional. Los algoritmos son una parte importante pero no única ni suficiente para programar IAs. A tu carrera me remito: ¿Sabrías hacer lo que haces sin conocimientos de ingeniería de software?
Cualquiera puede picar código o rellenar una hoja de cálculo sin saber programar, pero eso no llega para crear la gran mayoría de aplicaciones.
¿Que el diseño de algoritmos es una disciplina distinta? De acuerdo, pero si no sabes implementarlos no te servirá de nada. Especialmente si quieres que tu máquina no tarde eones en encontrar la solución que buscabas.

D

#15 Canal 3Blue1Brown en Youtube.

Jokessoℝ

Los programadores de a 800 euros seguirán el camino de los taxistas: la desaparicion.
En 5 años, no existirán picacódigos: le dirás a un ordenador que te haga un programa y este lo hará , sin necesidad de código fuente o compilador, porque lo hará directamente en ensamblador.

Por cortesía ,si se lo pides, te sacará un listado en pseudo-código, o python, por si acaso tienes curiosidad en saber un poco qué algoritmos ha inventado para resolver tu problema.

Algoritmos que serán mucho mas eficientes que los creados por los humanos y que os enseñan en la Facultad.

Jokessoℝ

#13 comparar un generador de codigo de 1993 con la IA es lo mismo que comparar el Dragon Voice Speaking (si eres tan viejo, lo conoceras) con el reconocimiento de voz de Google.

C

#14 quise decir que desde esa época conozco los generadores, hace un mes probé uno nuevo. No han cambiado, espectaculares formularios CRUD y reportes sencillos, pero de allí no pasan.

squanchy

#14 Pues yo si que debo ser viejo, porque llegué a instalar el Dragon Dictate

D

#13 Parte de razón tiene. Pista: GCC optimiza hoy en día el código objeto en C o incluso ASM mejor que un humano en toda su vida.

D

#11 y del Bitcoin qué me dices? Y sobre mi salud? Qué hay del trabajo? Me saldrá trabajo pronto professor?

c

Desde mi punto de vista:
Las Redes Neurales son una rama de Inteligencia Artificial, son un gran avance cualitativo - pero ni mucho menos tienen conciencia.
Cuando digo cualitativo me refiero a la forma de programa, antes sin estabas programando en estructurado y en objetos, básicamente deducias todos los casos posibles y los programabas ( programación deductiva ) con las Redes Neurales esto cambia a programación inductiva, no programas todos los casos posibles, suministras una gran cantidad de datos sobre el problema q quieres resolver y luego se diseña un algoritmo para que aprenda de esos datos con unos objetivos especificos, el cambio es brutal ( pero todo esto ya se propuso en los años 80 ) , la situación actual de datos ( bigdata y capacidad de cálculo ha permitido que esto explote desde hace 5 años ).

Con esto quiero decir que una IA actual no es consciente ni piensa por si sola. Todo esto es hasta donde yo sé - igual google amazon ibm y compañía tienen algo guardado...

d

#31 Nuevos chips que no son 0 y 1 ni estúpidas vgas como trata de vender nvidia.

c

#32 sí cierto.
También hablar de de porcentajes y no de 1 y o 0.

D

#32 Las nuevas de NV ahora impiden según EULA usarlas en datacenter.

systembd

La cuestión no es si Inteligencia Artificial será o no capaz de superar los limites humanos y dejarnos sin trabajo a los informáticos. Ya existen IAs que controlan la calidad del código generado por humanos y aprenden a escribirlo automáticamente. La clave es cuándo serán capaces de crear sus propias funciones de utilidad (las que determinan los valores a maximizar) adaptadas al contexto del mundo real.

Hoy en día, las IAs son una maravilla para resolver problemas complejos para los que existe un ámbito definido... pero aún tenemos que ser los humanos quienes definamos el espacio del problema. El día que adquieran la capacidad de entender su función en el mundo físico... Démonos por jodidos.

D

#23

editado:
perdón por el tocho, si me lees, gracias por tu tiempo.
Las IAs, por lo menos las desarrolladas hasta la fecha, no tienen capacidad de entender su función en el mundo físico. Es una fantasía recurrente que hemos tenido los humanos desde que vemos tormentas, fuego, árboles, casas o coches. Nos imaginamos que son "entes", que piensan y sienten, incluso fantaseamos con ello y a veces escribimos buenas ficciones o escalofriantes relatos. Pero una IA es simplemente una computadora muy específica que no habla ni piensa. Decimos que una IA piensa o que un coche corre o una planta tiene sed, pero no es el pensar, correr o tener sed humanos.
Una IA es un programa que toma una serie de decisiones en base a unas reglas fijas (y por el momento extremadamente sencillas comparadas con el "mundo real") maximizando las posibilidades de conseguir un resultado esperado. Las learning machines (Lo que actualmente se llama IA. Aunque la palabra IA se lleva usando desde el principio de la computación, todas las generaciones de ordenadores han tenido programas llamados IA.) además almacenan una base de datos de intentos anteriores, descartando las decisiones que no le condujeron al resultado y repitiendo las que sí. Probando además pequeños cambios y matices para ver cómo se relacionan y quedarse con los mejores. Abstrayendo este proceso, digamos que la máquina es capaz de crear nuevas reglas (hasta un límite) para que le vaya mejor en futuras ocasiones. Esto es a lo que nos referimos cuando decimos que una máquina "aprende". Pero estas nuevas reglas surgen del mismo conjunto de reglas que tenía al principio y sus posibles permutaciones. Y aunque muchas veces sus métodos sorprenden no hay que olvidar que sus capacidades son específicas y limitadas, y sus resultados dependen de funciones matemáticas y no de una inteligencia real.
Una IA no es más que un montón de transistores recibiendo y emitiendo corriente y de ahí no puede brotar una conciencia. Podríamos decir que un cerebro humano es algo similar. Pero tampoco tenemos constancia de ningún ser humano con la capacidad de hayar su función en el mundo físico.
Para que una máquina fuese capaz de pensar como lo hacemos nosotros, tendríamos que programarla con las reglas que permiten el pensamiento. Y no sabemos cómo se hace eso porque nadie es capaz de escribir un manual de instrucciones sobre cómo pensar. Y menos aun fabricar una máquina que lo haga a partir de pura electrónica.

systembd

#27 Mmm... las IAs toman muchas formas; desde simples árboles de decisión si/no, hasta redes neuronales capaces de autoconfigurarse y distribuir el procesamiento en varios equipos. Actualmente son relativamente simples, pero ya se usan a menudo para interpretar el mundo real (aunque por ahora con objetivos muy específicos como reconocimiento facial o de carreteras). En un futuro no muy lejano, no me cabe duda de seguirán mejorando (siendo mejoradas) y llegarán a "comprender" varios aspectos de la sociedad. No creo que alcancen un grado de consciencia como el humano, pero sí que podrán reemplazar la mayoría de los trabajos que hoy en día hacemos los humanos... incluido el de picar código y crear IAs.

D

#28 Salvo porque una IA no puede crear una aplicación más compleja que sí misma. De acuerdo en que algunas IAs están conectadas a sensores y procesan información del medio, pero tener un termómetro o muchas células fotosensibles no te dotan de intelecto.
Las IA no van a "comprender" la sociedad humana porque las IA no comprenden nada, solo saben hacer trabajos específicos de forma mecánica e incansable.
Si los chimpancés, que son muy similares a nosotros, no han demostrado tener conciencia, difícilmente la tendrán un puñado de transistores.
Otra cosa es que una IA pueda ayudar en el futuro a los humanos en el estudio de la sociedad, en materia de procesado de datos, pero eso no quiere decir que lo comprendan igual que una calculadora no comprende lo que es el espacio cuando la usas para calcular un volumen.

systembd

#59 Dota a cualquier IA de la capacidad de recrearse a sí misma (lo que no es tan difícil, dentro de un lenguaje interpretado), un factor aleatorio de mutación y una buena función de selección (eso sí es complicado) ... Y, básicamente, tienes un sistema evolutivo como el nuestro.

Ahora, dejas a esa IA aprender dentro de un espacio de problema del mundo real relativamente acotado (cocinar, conducir un vehículo, recolectar fruta, etc) y, tarde o temprano, tendrás un "experto" en ese área que será mejor que cualquier humano. Vale que las primeras IAs no llegarán a ser tan maleables como un cerebro humano, pero para realizar la mayoría de los trabajos actuales ya valdrán. Y, una vez se consiga juntar diferentes IAs dedicadas a diferentes tareas sociales (interpretar emociones en los rostros, evaluar el contexto del espacio físico, crear patrones conversacionales, etc.) se podra crear un sistema que no sólo pueda superar el test de Turin, sino reemplazar a los humanos completamente. Y no necesitarán consciencia, ni conciencia reales.

Sinceramente, no creo que se llegue pronto a ese extremo, pero todas las limitaciones son bastante asumibles con el nivel de desarrollo tecnológico actual.

D

#60 Facilísimo, oiga. Y para volar solo hay que dotar a los humanos de alas, incluir un factor genético de modificación para que aprendan a usarlas y esperar unas cuantas generaciones a que el sistema de perfeccione. Lo haría yo mismo, pero estoy resolviendo otros problemas fáciles como el hambre en el mundo y el calentamiento global, que no necesitan más que comida y frío, no sé por qué no lo han solucionado antes.

systembd

#63 Bueno... Al ritmo (cada vez más) acelerado al que vamos, no lo veo algo tan lejano. Difícil, desde luego, pero si hay pasta y egos de por medio, es algo perfectamente factible en unas pocas décadas. Y la primera fase, la de reemplazar a humanos es trabajos relativamente simples, ya está en marcha (la conducción autónoma capaz de responder ante cambios en la carretera, los asistentes virtuales capaces de entender frases simples, etc.).

Y los humanos podemos volar... sólo que resulta más cómodo y barato hacerlo en un aparato externo. El día (no tan lejano) en el que podamos usar CRISPR para dotarnos de alas (y salga rentable), muchos no dudarán en hacerlo.

D

#27 Ojo que biologos dicen que las plantas intercambian información sobre depredadores

Y lo de la fotosíntesis a nivel cuántico es flipante, pero es otro tema

Shotokax

Me recuerda un poco al algoritmo backtracking. Va probando hasta que tiene éxito.

squanchy

#7 que es donde nos barre a corto plazo.
En corto plazo, tú no tienes la capacidad de cálculo de un ordenador. A ti te da tiempo a evaluar las 100 mejores opciones, mientras que la máquina evalúa 5 millones de opciones, entre las que se encuentran esas 100.
Con más tiempo, tú evalúas las 1000 mejores opciones, mientras que la máquina evalúa 50 millones de opciones, pero con eso quizás haya conseguido encontrar las 600 mejores, porque cada vez le cuesta más encontrar buenas soluciones.
A largo plazo, gana el cerebro humano.

Jesuo

#46 Ni de coña a largo plazo gana el cerebro humano, ni por asomo.
En el ejemplo que das diciendo que "cada vez más le cuesta encontrar buenas soluciones a la maquina es síntoma de que no entiendes o no sabes como funciona el deep learning o aprendizaje automático.

crycom

#7 El problema es que sin tener que cagar, comer o dormir, tiene mucho más tiempo para hacer ensayo/error y por lo tanto no hace falta irse al largo plazo para que nos barra.

M

#1 se llama fuerza bruta. Y esta ya inventado. De hecho la mayoría de pen testing son automáticos

Donde tiene futuro la IA es en protección de ataques, usando deep learning por ejemplo

Shotokax

#24 desde la ignorancia: ¿por qué en protección de ataques sí?

M

#43 porque los sistemas pueden aprender lo que es un ataque y lo que es una petición válida

ℵiemand

Es gracioso que el que escribe el artículo se plantee si debe seguir su carrera en Ciberseguridad. Chaval, tranquilo, que antes estamos todos los demás en la cola del paro. Los hacker utilizan técnicas previsibles pero es que el resto no anda mucho mejor

Jokessoℝ

Es curioso que puede que la de la IA sea la última generación de ingenieros de software que exista.

P.D. Felices Fiestas y próspero año nuevo a todos

squanchy

#19 Tengo yo ahora un proyecto entre manos, que les digo a los 3 usuarios "¿cómo queréis que el programa haga esto, así, o asá?", y se queda balbuceando sin saber darme una respuesta. Es como comprarle la termomix para facilitarle cocinar a alguien que le cuesta usar el microondas.

D

#12 Felices!

EauDeMeLancomes

Yo creo que la IA será una ayuda enorme, pero no pensara sola como para sustituir el deseo humano. Quizá tome otros caminos. En mi cabeza es como un hada que cumple deseos... Tu pedirás y ella proveerá, cruzará los datos por ti, depurará tus ideas y buscará tus errores. Pero estará a nuestro servicio, como un mayordomo omnisciente capaz de interrelacionar las distintas áreas del pensamiento y la ciencia en una fracción de segundo para resolver los problemas que tú le plantees.
La lucha, como se pinta en el artículo, de atacantes contra defensores, será manejada por personas que guiarán esa Ia ahorrando trillones de ciclos de proceso para ganar al de enfrente.

D

#18 Yo estoy deseando tener mi propia IA para pedirle que adopte la forma de un unicornio y usar sus poderes mágicos para cruzar el océano. Qué gran invento que cumple todos tus deseos. No sé cómo no lo han inventado antes.

squanchy
a

Hielo negro, como en Neuromante.

saqueador

Año 1985, en el año 2000 los ordenadores hablarán. Año 2011, nace Siri...

D

#35 Los ordenadores ya hablaban en 1985 e incluso 1969 en Unix con un sintetizador de voz. Es mas viejo que el mear
El propio Spectrum tenía un sintetizador de voz rudimentario con un cassete
Los griegos tenian algo similar pero con tubos eólicos y máquinas de vapor que "hablaban". O los minoicos, no recuerdo.

saqueador

#42 Pues mira, igual de viejo que las IAs.

Peachembela

Ingeniería en ciberseguridad mención mesero, a la segura.

trylks

No me parecen muy inteligentes esos investigadores de IA, más inteligente sería plantearse lo contrario: ¿podríamos hacer que la IA trabajara para jugar nosotros?

D

24h para pasarse este nivel...

D

Septiembre de 2000: entro en la universidad, informática. Haces nuevos amigos y en los corrillos se habla del futuro. Todo el mundo coincide en que dentro de pocos años los ordenadores programarán solos sobre ordenadores cuánticos.

D

En una scasa que este implantado este sistema entre a robar multiples veces, dará tres opciones.

1.Hacer la casa sin ventanas y una puerta tipo baco americano.

2.Mudarse

3.Eliminar el problema (matar a todo ladrón o delincuente par que esto no se repita en el futuro)

y sinceramente la opción mas justa para el que busca vivir tranquilo en su casa (recuerdo que solo es un ejemplo concreto) es la opción 3.

Imag0

Qué pasará cuando se empleen estos recursos a áreas como matar personas?

Jesuo

Aquí dejo algo para leer sobre los fallos de las IAs en 2017, pongo el enlace para que sea traducido al castellano in situ y cualquiera lo pueda leer:

https://translate.google.es/translate?sl=en&tl=es&js=y&prev=_t&hl=es&ie=UTF-8&u=https%3A%2F%2Fsyncedreview.com%2F2017%2F12%2F23%2F2017-in-review-10-ai-failures%2F&edit-text=