Hace 6 años | Por ewok a efefuturo.com
Publicado hace 6 años por ewok a efefuturo.com

Un modelo de inteligencia artificial resuelve pruebas Captcha, una herramienta esencial en la informática para distinguir a los humanos de las máquinas.

Comentarios

fifodoble

#13 Era exactamente eso y lo ponía en letra pequeña.
Pero eso era para digitalizar libros. Ahora no sólo lo hacen los humanos sino que con todos esos datos de miles de personas guardados pueden enseñar a las máquinas a entender lo ilegible.

TarekJor

Ahora sólo queda descargárselo y metérselo a "Tesseract" "OCR"...

El "entrenamiento para OCR" para textos antiguos e históricos, caligrafías "atípicas" o "patrones", me parece muy muy importante y relevante (#11 #13 #33), para "preservar" más allá de "Futuras Quemas de Libros" o "Alejandrías silenciadas"...

Hoy día hay CAPTCHAs que son complicados, hasta para humanos lol (los hay recientemente visuales para "entrenar "coches inteligentes"...)

El enfoque del Humanismo, existe con la IA, pero hay mucho "Nihilismo" y "Mitología" en los grandes centros de investigación sobre "IA como nuevo Dios", y no me va.

IA siempre como herramienta-medio del humano, para aprender del propio humano, no como fin mismo, que no lleguemos a entender.

fifodoble

#49 La IA a día de hoy ya no se entiende. Sus decisiones son simple mezcla de neuronas con ciertos valores cada una y de ahí a ver que sacas. De hecho se están creando expertos para resolver o explicar como está pensando cada IA en especial. Cuando una IA decide si este caracter escrito es un 1 o un 7 se puede medio entender ya que ves que las neuronas que detectan el palito cruzado de en medio tienen mucho valor. Cuando hace algo en el GO ya se nos escapa hasta que vemos el resultado muchas jugadas despues.

Por ejemplo, cuando una IA decida tirar por un terraplén su coche con sus ocupantes alguien tendrá que explicar por qué lo hizo. No vale con decir que las neuronas 232 342 y 345 estaban en un valor 15. Es posible que haya que acabar creando IA que explique a los humanos lo que otras IAs hacen.

TarekJor

#83 Claro, por el enfoque "que le han dado algunos", ha creado su "propia singularidad neuronal", has tocado un tema clave.

El enfoque que yo le doy a la IA, es otro, por desgracia algunos han derrochado grandes recursos, en crear Dios virtual, o algo similar, del que muchas veces, no se puede "inferir" información real.

Esa IA, que no se entiende, es inútil.

TarekJor

#83 Por cierto, añadir que "ese es UN enfoque", algunos tenemos un enfoque "semántico" "ontológico" y de aprendizaje supervisado que sí funciona muy bien (sin tanto "Deep Learning"), no sé, en mi caso asumo que la vía Pragmática y útil es menos "mística" que esa IA como descifrador del "Demiurgo" "incognoscible"*

*PD: A veces se me va bastante, pero tiene bastante sentido lo que digo

fifodoble

#85 Se puede pensar justo al revés. Si es aprendizaje supervisado sólo va a hacer lo que haría un humano pero más rapido. Nada más que quitar puestos de trabajo
Si es unsupervised learning en cambio pensará en maneras que no lo hace un hombre hasta ese momento. Se abren nuevos horizontes.

Mira alphaGO, ahora sus nuevas jugadas se estudian por los profesionales y se empezarán a usar.

Una IA es la única que nos puede dar con la suficiente velocidad algo que rompa nuestro aislamiento en la Tierra. Algo que nos permita viajar a una velocidad suficiente para escapar a otros sistemas y no agotar la Tierra como estamos haciendo y lo haremos cada vez más rápido (gracias a la revolución energética que estamos teniendo, ese es otro tema del que no se habla)

TarekJor

#86 "Se puede pensar justo al revés. Si es aprendizaje supervisado sólo va a hacer lo que haría un humano pero más rapido. Nada más que quitar puestos de trabajo"

Lo que has dicho es totalmente cierto, son dos vías, perfectamente válidas, cada una con sus pros y sus contras
Sobre quitar puestos de trabajo, pienso, por fin se podrá cuestionar a fondo el sistema económico (no tiene porque ser un problema).

"Si es unsupervised learning en cambio pensará en maneras que no lo hace un hombre hasta ese momento. Se abren nuevos horizontes. "

Eso es muy interesante sin duda, no lo desprecio, con mi comentario, pretendo señalar el enfoque más "comprender al humano"(resumen de lógica humana) frente al (aprendizaje de patrones desconocidos) "enseñar al humano", que tambien es muy importante.

"Una IA es la única que nos puede dar con la suficiente velocidad algo que rompa nuestro aislamiento en la Tierra. Algo que nos permita viajar a una velocidad suficiente para escapar a otros sistemas y no agotar la Tierra como estamos haciendo y lo haremos cada vez más rápido (gracias a la revolución energética que estamos teniendo, ese es otro tema del que no se habla)"

Estoy totalmente de acuerdo, pero entonces debe ser una IA "democrática" no "teológica", con esto me explico, en que la IA tiene que ser algo de acceso con voluntad universal, no un Skynet o un monopolio controlado por "Autoridad Única", Google-IBM-Microsoft... a mi juicio la iA es un desestabilizador del poder, luego tiene que tener en ese sentido una apertura de voluntad pública.

Enlazo con eso IA como "autoridad lógica", de alguna forma, si tomamos la intuición de Descartes y Dios (Dios quizas "Demonio"), la IA puede ser "buena" o "mala" depende de como se interprete y de quien la interprete, no podemos presuponer solo bondad ante una lógica que en muchos casos depende el "Conocimiento" del que se pueble.

Ejemplos recientes de Educación de IA, tiene Google, Microsoft con experiencias de feedback -enseñanza automática en Twitter etc

Me parece un debate relevante ese... los límites de la IA, control, la Ética y Moral de la IA, si es simplemente una IA aséptica supervisada, una IA autónoma en un contexto controlado... etc

fifodoble

#87 Sí, va a ser un punto esencial. La filosofía de la técnica es un campo que debería tomar mucha importancia. Al fin y al cabo la IA es un cuchillo.

Pero por ahora vamos mal. La técnica se está utilizando para que no se puedan mostrar pezones pero sí se puedan mostrar sesos derramados. Ya es un programa quien lo decide. Se está usando para ganar en el "juego" de la bolsa (mira los ETF manejados por IA). Para ganar en las elecciones (por ejemplo en USA donde una IA detectó que los seguidores de la serie Walking dead eran más proclives a las politicas antiinmigración y por tanto la publicidad en ellos tendría mejor retorno para Trump) y seguro que en el control de la población de algunos gobiernos.

Lo lógico es apoyar tu punto de vista pero la realidad va por otro lado. Ayer vi un reportaje en youtube donde se acababa comentando que el mundo es tan caótico que es muy difícil saber a donde llevan tus acciones (ya que trataba de como Nintendo, y todo lo amigable con los niños que es, surgió gracias a la Yakuza). En ese punto estamos. La IA es desestabilizadora totalmente, es disruptiva pero ¿qué podemos hacer para controlarlo? .

TarekJor

#88 Estoy totalmente de acuerdo, sobre esa reflexión, y en parte esta "deriva" es porque el Poder Real, el que decide que se hace, hace tiempo que "Gerontócrata" de el, está preocupado por la Inmortalidad propia a coste de todo, que de algo "colectivo".

Añadiría un tema como "Psicopatía" del Poder, y varios artículos y reflexiones que muchos han planteado sobre que gobierna la "Psicología" de los incentivos o de muchos factores de gestión en el mundo financiero.

No diría todos son unos psicópatas o sociópatas, pero me atrevería a decir, que: HAY BASTANTES PSICÓPATAS, cuando vas subiendo en la pirámide de responsabilidad (un contrasentido por lógica, mayor puesto de responsabilidad, mayor sabiduría, empatía, valoracion de riesgos)

Ese es el problema de que "El Mundo Vaya Como Va", luego el que "cuestiona" un poco a veces, es "liquidado", disidencia intelectual controlada...

Un personaje en cuestión que me parece una "buena broma cósmica" y me gusta es Noam Chomsky (al que considero un Hacker del lenguaje, judío, antiImperialista, crítico, y sabio, que podrá equivocarse, pero que respeto...

TarekJor

#88 Añado, que "Se está usando para ganar en el "juego" de la bolsa (mira los ETF manejados por IA)"

Es parte de mi campo de estudio, por ejemplo, y va mucho más allá

Imaginemos el peor enfoque de 1984 + IA y técnica moderno, y incluso ese a nivel de "Manipulación" de medios y de población y opinión pública se queda corto.

"por ejemplo en USA donde una IA detectó que los seguidores de la serie Walking dead eran más proclives a las politicas antiinmigración y por tanto la publicidad en ellos tendría mejor retorno para Trump) y seguro que en el control de la población de algunos gobiernos. " => en un buen ejemplo, ahora aplícalo a todo lo demás

Marketing, Política, Consumo, Bolsa, (cualquier sistema que implique humanos)

Manipulación no es 13TV o "chapuzas" que hacen a veces que cantan, sino sutileza, "manipulación sutil y que apenas se nota.

En el caso de la bolsa, les interesa que de vez en cuando "entre algún" incauto, pasa como el Bitcoin, son sistemas sujetos a que los manipulen (porque los humanos se pueden manipular)

El Hacking, desde la epoca de los griegos, es Lógica y pensamiento, antes que IA o Computación (que vienen derivados de lo anterior)

Luego para mí el camino es Hacking (Mayéutica) del ciudadano, pueblo moderno, para crear Libre Pensadores escépticos y críticos, eso sería un buen ejército.

TarekJor

#88 (disculpa que separe el mensaje) Se me olvido esta parte:

Puedes pasarme el enlace?, me interesa bastante el tema lol (gracias)

"Ayer vi un reportaje en youtube donde se acababa comentando que el mundo es tan caótico que es muy difícil saber a donde llevan tus acciones (ya que trataba de como Nintendo, y todo lo amigable con los niños que es, surgió gracias a la Yakuza). En ese punto estamos. La IA es desestabilizadora totalmente, es disruptiva pero ¿qué podemos hacer para controlarlo? ."

Esto me recuerda a planteamientos tipo "Efecto Mariposa" y Teoría del Caos, que en el caso de la Humanidad como sistema (los veo muy peligrosos, además de poco prácticos)

La Lógica global (El Demiurgo social), no existe a mi juicio, (por mucho que se empeñe cierto Poder, en crear "Teos" "Dioses" virtuales con forma de IA y condicionamiento (El Poder busca control al final), entonces nosotros como sociedad por esa Lógica perteneceriamos a sus planes...

Al final Matrix es la realidad y las máquinas son "El Poder", el maestro de llaves será "El Hacker" moderno, cuando se haga Polímata, Desarrollador, y no sólo sea un proletario picaCódigo (pensamiento que estoy desarrollando, en profundidad)

Para mi eso es tan peligroso como suena, que la IA y su desarrollo este dirigida por "El Poder", que está más allá del Bien y del Mal, y que domina nuestro futuro.

fifodoble

#91 Que enlace quieres? El de nintendo yakuza es

y si pones esos dos términos en google te salen más historias sobre ellos.

Por otro lado te recomiendo sobre lo que estás mirando otro vídeo que se llama The rules for rulers de CGP grey. te sale el primero en google.

TarekJor

#92 Gracias, es eso sí, (era por ir directo), además al final YouTube, y Google (nos muestran primero lo que quieren mostrar)

Recuerdo un tema polémico relacionado con un tema escabroso en USA (que Google censuraba, poniendo fake news y conspiranoia de primero, en vez enlaces de información contrastada) (vale la pena tenerlo en cuenta también)

El de CGP grey, lo pongo en pendientes

Sobre "educación para líderes" me sugiere :

El caso paradigmático (y cutre lol) en España, serían cosas como "FAES", Ciudadanos o "El Pequeño Nicolás" (como esperpentos)
Macron en Francia (como "cambio sensato" " de Bien ")...

fifodoble

#93 Yo he vivido un caso claro en mi carrera y universidad que no diré cual es pero muchos de los que de ahí salen parten la pana con el gobierno en temas energéticos. Pues bien, la publicidad nuclear y publicidad anti-renovables era constante. Se comentaba que el cambio climático era prácticamente un engaño y muchos, a esas edades lo creen a pies juntillas. Imagínate que desastre cuando estos mismos ahora están decidiendo el futuro del país en estos temas.

TarekJor

#94 Muy interesante eso que comentas (gracias por el comentario), a eso me refiero...

Yo creo en el escéptico, en el crítico, que "de forma radical" (de raíz) no asume "sin batalla dialéctica" "Argumento de autoridad" o "falacia" de autoridad... (en la universidad, hay muchos intereses en quien la dirige, sea privada o pública, y como no es "democrática" porque al final tenemos rectoress que son como son, ni meritocrática (en muchas ocasiones).

A mi en Ingeniería el modelo universitario me quería como "un proletario formado" no que me planteara cosas, no que repensara lo que me estaban enseñando, y doy gracias de tener la "rebeldía" interna para darme cuenta y rechazar, que quieran un "eslabón más de la cadena"...

No creo que crear "técnicos" sin escepticismo ni cultura científica sea positivo...

Ahora imagina en la ciencia más "pura" como en la Medicina, o en cosas como la Fïsica o la Matemática (donde hay mucha batalla de egos)... Recuerdo casos como los de Einstein (que en sí mismo fue un revolucionario, un "desobediente" un "Anarquista de lo inelectual" en el contexto de la autoridad en Ciencia.

La Ciencia (Scientia, la Verdad falseable) al final radica en el argumento, en la prueba o en la opinión debatida como hipótesis posible y social, eso que comentas, me lo encuentro, en la propia universidad pero en los profesores incluso....

Se produce además un choque (deslealtad) de una generación con otra (el joven tiene mucho que aprender, pero no por ello es inferior per se) el maduro o "mayor", con experiencia, (sabe mucho por la experiencia, pero tambien tiene vicios "del creer que sabe"

Hubo una vez un radical llamado Sócrates, "sólo se que no se nada", eso en el fondo, junto al Falsacionismo (Karl Popper, Método Científico) son las claves...

Que ocurre cuando el modelo educativo "nos expulsa" a los que somos escépticos o vamos a nuestro propio ritmo, pues que lo que fomenta son "personas que se adapten a normas" y "resolver problemas existentes" no "personas que se estretienen en resolver problemas que no existen todavía" y por tanto "mas divertidos"...

Eso que comentas sobre el Poder Político o "La Agenda Ideológica" en muchas universidades es lo que me hace rechazar a veces "superEstructuras" como las universidades, hoy día con la tecnología (y más será en el futuro), alguien que se asocie y tenga un buen método y curiosidad, puede aprender de forma más rápida, ágil y "efectiva" casi cualquier cosa...

Por poner un ejemplo en Economía, he aprendido más además de por leer por supuesto (y haber estudiado), debatiendo sobre problemas actuales, y soluciones, causas de crisis, que estudiando un "programa de formación" fijo en una universidad, donde igual les interesa darme más a "Escuela Austríaca" o "una verdad" que que analice Marx, las insconsistencias del Liberalismo clásico, etc (a eso me refiero)

Al final todos tenemos nuestra Libertad para hacer lo que queramos, pero hay "agentes condicionantes" muy claros, que el que no tiene "esa rebeldía" hacia la "autoridad" per se, no asume.

Por cierto, un placer, y es muy grato, poder "hablar" con alquien y entenderse, en temas como estos, que me parecen clave (como el de la DUDA, como principio.

p

#11 Estoy de acuerdo. Es curioso lo malos que son los OCR libres, por ejemplo. Y digo "malos" no para menospreciar, pero es que fallan muchísimo si no escaneas documentos con tipografías modernas. No hace falta ir a manuscritos medievales, simplemente escanear un libro de hace cien años da bastantes errores.

V

#11 Hay el mayor problema será encontrar recursos para que alguien se dedique a digitalizarlos con cuidado.

Wayfarer

#47 Ahí, ahí.

leporcine

#11 que letra más chula

ramon_lopez

#50 no tanto como la comic sans

D

#1 O para gobernar España. Así habría alguien inteligente gobernando.

Joice

#17 Eso no es nuevo. Bienvenido el Proyecto Venus.
https://www.thevenusproject.com

D

#34 Madre mía. El proyecto Venus. Y yo que pensaba que era el que más chorradas decía. Resulta que hay gente que me gana....

Joice

#38 Te veo informado.

D

#53 En este mundo en el que todos podemos hablar de todo, es fácil hablar sin tener ni puta idea lol

Joice

#56 ¿Lo dices por quién?

D

#71 Por mi y tantos otros. Hay que aprender a tirarse piedras a tu propio tejado cuando toca.

Aokromes

#1 lo dudo, ademas, le reto a descifrar mi letra.

Trigonometrico

#35 El problema está en que descifre claves y mande un banco a la quiebra o active un arma nuclear.

sorrillo

#10 Y dale. Las IAS no piensan. Ejecutan un conjunto de reglas, programadas por personas.

Los cerebros no piensan. Ejecutan un conjunto de reglas derivadas de procesos químicos en las neuronas.

El "auto aprendizaje" son mas reglas, que dependen de estados del sistema anteriores, que son almacenados para tenerlos en cuenta en futuros escenarios.

Estamos muy lejos de llegar a algo parecido a cómo funciona un cerebro biológico.

Estamos trabajando para acercarnos cuanto más podemos a ese funcionamiento, por que eso nos es útil. Y la IA se utiliza ya para acelerar la investigación en esa dirección.

La programación en código binario actual NO TIENE NADA QUE VER con dicho tema.

La física de partículas en estados cuánticos no tiene nada que ver con dicho tema.

Un resolverdor de captcha es un simple OCR, un algoritmo que busca patrones en imágenes.

Una persona resolviendo captcha son simples células sensibles a la luz, y un proceso neuronal que busca patrones en las imágenes.

Dichos patrones corresponden a cifras y letras, y el algoritmo devuelve la cadena que más coincidencias ha encontrado con la imagen. Probablemente, cuando dos patrones tienen el mismo "porcentage de éxito" en un caracter del captcha, el sistema almacena ambos, y usa uno. Si falla, la próxima vez que encuentre otro caracter del captcha, con esos dos mismo caracteres, usará el otro. Y seguro que tendrá más ideas felices implementadas. Pero son simples reglas.

Fin de la inteligencia, paja mental de física de partículas no necesaria.

¿Sabías que muchos creen que una rata no es inteligente?

Amazon tiene sus almecenes llenos de robots, pero no son 100% autónomos, tienen personas vigilando el sistema.

Amazon tiene sus almacenes llenos de personas, pero no son 100% autónomos, tienen ordenadores vigilando el sistema.

chulonsky

#12 En lo que de tu cerebro no piensa, estoy totalmente de acuerdo. Y ahí paré. Todo lo demás es verborrea que no me voy a molestar en leer, es como correr en círculos.

sorrillo

#14 En lo que de tu cerebro no piensa, estoy totalmente de acuerdo.

¿Ves como eres incapaz de distinguir la inteligencia de su ausencia a partir de cierta complejidad?

Y eso que parece que eres programador, como yo. Que parece que para ti es un baremo significativo.

chulonsky

#15 Y también eres biológo, y neurocientífico. Pero seguramente te costará explicar por qué yo puedo resolver problemas que nunca había visto antes, pero que sea algo que no puede realizar ninguna IA en todo el planeta (y que seguirá siendo así unas cuantas décadas más, o siglos, ni idea de cómo progresará en el futuro). Esto es el mejor ejemplo que define "pensar".

sorrillo

#16 Pero seguramente te costará explicar por qué yo puedo resolver problemas que nunca había visto antes

Si eres un adulto llevas miles de días, con cientos de miles de horas, con millones de minutos aprendiendo a resolver problemas, es difícil que tras millones de minutos aprendiendo no te hayas encontrado con algo con similitudes al problema que dices puedes resolver sin haber visto antes.

¿Cuantos niños de 5 años, que llevan ya millones de minutos aprendiendo, han resuelto problemas que los adultos han sido incapaces de resolver? ¿Ha descubierto una nueva partícula un niño de 5 años o ha tenido que aprender mucho para llegar a conclusiones a las que nadie ha llegado antes?

pero que sea algo que no puede realizar ninguna IA en todo el planeta

Como tú necesita una fase previa de aprendizaje, la cual tú pareces despreciar completamente.

y que seguirá siendo así unas cuantas décadas más, o siglos, ni idea de cómo progresará en el futuro

La humanidad se caracteriza por su capacidad de predecir el futuro con acierto, claro que sí.

chulonsky

#18 Si eres programador, explícamelo desde el punto de vista del código, que es de lo que entiendo, Que me expliques cómo hacer que un algoritmo piense. Que con la biología te gusta mucho retorcer argumentos hasta el absurdo.
Una IA solo "aprenderá" de lo que está programado para aprender. Y dicho sistema de "aprendizaje" es mas código, reglas matemáticas en su mayor parte. Hecho a posta. Mi cerebro no.

sorrillo

#19 Define que entiendes por "pensar".

Sí puedo decirte como hacer que consiga resultados similares e incluso mejores que las personas en ciertos ámbitos, cada vez más, por ejemplo como cita el meneo capaz de acercarse y seguramente superar en un futuro próximo pruebas diseñadas por humanos para determinar si lo que responde es una persona que piensa o no lo es.

Si dos entidades obtienen los mismos resultados de forma indistinguible en un ámbito que se entiende requiere pensar es que ambas piensan, es así de sencillo.

En el ámbito tecnológico se utilizan lo que se denominan redes neuronales que permiten mediante el aprendizaje crear respuestas no predeterminadas por el programador en base a patrones aprendidos en esa fase de aprendizaje, si el resultado de esa respuesta se puede volver a introducir al sistema se puede usar para mejorar ese aprendizaje contínuamente.

Una IA solo "aprenderá" de lo que está programado para aprender. Hecho a posta. Mi cerebro no.

Una IA aprenderá en base a la información que reciba de sus sentidos, como el ser humano.

Si una IA puede procesar imágenes aprenderá de esas imágenes y encontrará patrones, si se correlaciona con sonidos más de lo mismo, etc.

chulonsky

#20 Una IA solo aprenderá en base a lo que está programado para que aprenda, con más código. Y dicho sistema de aprendizaje es mas código, una máquina de estados finita, donde el que la programo se quiere aprovechar de la tremenda potencia de cálculo que tienen las cpus de hoy.

sorrillo

#21 Una IA solo aprenderá en base a lo que está programado para que aprenda, con más código.

Una IA capaz de programar otras IA nos es útil.

Y dicho sistema de aprendizaje es mas código, una máquina de estados finita, donde el que la programo se quiere aprovechar de la tremenda potencia de cálculo que tienen las cpus de hoy.

La inteligencia biológica tampoco es ilimitada, lo que no le impide ser inteligente y pensar.

En general se usan GPU.

chulonsky

#22 Me encantaría ver código tuyo. Si está al nivel de tur verborrea vacía, tiene que ser un espectáculo de desperdicios de recursos.

sorrillo

#23 Me encantaría ver código tuyo.

Y a mí el que rigen tus neuronas.

Si está al nivel de tur verborrea vacía, tiene que ser un espectáculo de desperdicios de recursos.

Me alegra que te sientas orgulloso de tu calidad como programador, espero que eso te ayude a no tener que dedicarte a ganarte la vida como profeta.

chulonsky

#24 Pero el código es mas fácil.
http://www.jlabstudio.com/webgl/
Éste es mi blog, ahí tienes que ver cómo hacia cosas hace ya 4 años.
Enséñame algo tuyo, repito que quiero ver cómo programas.

sorrillo

#25 ¡4 años!

¡Uau!, me abrumas.

En fin.

chulonsky

#26 ¿No me vas a enseñar nada? Por favor, enséñame cómo programas, es de lo que entiendo. Y ahí puedo ver qué criterio tienes para hablar de lo que hablas. ¿O sólo sabes aparentar?

sorrillo

#27 ¿No me vas a enseñar nada? Por favor, enséñame cómo programas, es de lo que entiendo. Y ahí puedo ver qué criterio tienes para hablar de lo que hablas.

Ahí es en lo que te equivocas en el fondo del asunto, en creer que la calidad subjetiva de un trozo de código sirva para juzgar la capacidad de una persona de pronosticar el futuro y de evaluar las consecuencias futuras de la evolución de la sociedad en la dirección de dotar a más y mejor inteligencia artificial a las máquinas y robots.

En no saber evaluar más allá de las piezas básicas, equiparables a las partículas o las neuronas, para pretender extrapolar de ello sus consecuencias en entornos complejos y en sociedades como la humana, sin ser capaz de comprender que el conocer el funcionamiento de una neurona no te permite explicar el descubrimiento de la relatividad general y el conocer el funcionamiento de una neurona de una red neuronal te permite explicar la mejor tasa de identificación de tumores y diagnósticos médicos respecto a personas.

Un físico de partículas es tan buen profeta sobre lo que nos depara el futuro para la sociedad humana como un programador sobre lo que nos depara para el futuro la inteligencia artificial.

chulonsky

#28 Que me importa un pimiento tu retórica. Código. Quiero ver cómo programas. Si tienes un mínimo de nivel, algo tendrás en github.
Así puedo valorar mejor tus opiniones; cosas mías. ¿Ô es que eres otro charlatán que se caga encima cuando tiene que mostrar algo real y factible en vez de hablar de lo metafísico, de lo trascendental, y demás cuentos vende humos?

sorrillo

#29 Gracias por ejemplificar mejor lo infantil de tu postura.

chulonsky

#30 De acuerdo, mi postura es infantil, pero enséñame algo de tu código. Por favor. Venga, no tengas vergüenza (aunque es evidente que no la tienes). Y no me rendiré; si no es en este hilo, te lo recordaré en otros.

ramon_lopez

#20 " Si dos entidades obtienen los mismos resultados de forma indistinguible en un ámbito que se entiende requiere pensar es que ambas piensan, es así de sencillo."
Te equivocas. Eso es una habitación china (https://es.wikipedia.org/wiki/Habitaci%C3%B3n_china), que ambas lleguen al resultado no implica capacidad de pensar. No tienes ni idea lo siento.chulonskychulonsky tiene toda la razón.
Que un algoritmo te de un resultado no implica conciencia ni pensamiento.

ramon_lopez

por cierto #20 para ser así de sencillo según tu, yo me dedicaría a informarme, leer, y estudiar un poco más, antes de ponerte a dar charlas pseudocientificas.

squanchy

#18 Yo conozco uno, Gauss, que resolvió el problema de los sumatorios de series aritméticas siendo un criajo.

sorrillo

#78 A los 5 apuntaba maneras, pero tampoco te pases, por lo que veo aquí hasta los 12 o más no empezó a hacer cosas "nuevas": http://www.storyofmathematics.com/19th_gauss.html

s

#12 #10 Una IA actual no puede decidir, de motu propio, ir a buscar información para formarse en algo que no conoce. A partir de ahí, cualquier elucubración es paja.

Me sorprende que la gente ponga el grito en el cielo por estos sistemas y no diga nada con los que rigen la compra-venta en bolsa, que llevan muchos más años funcionando, y cuando fallan provocan crisis económicas. Pero en fin, la tele ha hecho mucho daño

D

#32 ¿Cuando fallan?
Seguro que los que provocaron la "crisis" actual no lo llamarían fallo.

s

#67 Digamos que ahora mismo funcionan como profecía auto-incumplida. A grosso modo, todos los sistemas apuestan en ciertas situaciones porque provoca una buena ganancia, que a su vez se produce por el hecho de haber hecho todos la apuesta. Y cuando la profecía falla...pues palo.

D

#12 El problema está en esta frase:
"Estamos trabajando para acercarnos cuanto más podemos a ese funcionamiento, por que eso nos es útil. Y la IA se utiliza ya para acelerar la investigación en esa dirección."
Todo el trabajo invertido en IAs en la última década se basa en tecnologías y principios que ya existían hace 40 años. Todas las empresas hablan de que se va a inventar una nueva tecnología que eclipse la actual y haga viable y productivo todo el trabajo que llevan hecho hasta la actualidad. Sin embargo nadie tiene idea de cómo va a ser esa tecnología, y aunque puede que sea posible, no estamos ni cerca de conseguirlo. Es todo humo para atraer inversores y financiación.
Me recuerda a los albores de la química, en busca de la piedra filosofal. Se consiguieron muchas cosas con el estudio de la alquimia, pero no su objetivo principal, la vida eterna y transformar cualquier metal en oro. Todos los que invirtieron en alquimia en aquel entonces fueron estafados.
Dónde sí se están haciendo progresos es en el llamado "Deep learning", que no es otra cosa que descomponer un problema complejo que sólo un humano resolvería en muchas partes pequeñas y distribuirlo en pequeños baches en la navegación de Internet que si quieres superar tendrás que hacer un poco de trabajo gratis para Google.
Es una tecnología potente, aunque con una ética cuestionable, y le falta mucho por recorrer hasta ver a dónde puede llegar. Sin embargo se trata de algo completamente distinto a una IA capaz de "pensar", abstraer conocimientos o tomar decisiones no programadas de antemano.

sorrillo

#61 Todo el trabajo invertido en IAs en la última década se basa en tecnologías y principios que ya existían hace 40 años.

La tecnología que nos llevó a la sociedad de la información, que cambió los cimientos de lo que entendemos por sociedad y como relacionarnos, se ha basado en tecnologías y principios que ya existían muchas décadas antes de que se produjeran esos cambios en nuestra sociedad.

La edad de los principios y tecnologías no es indicativo de nada, avanzar con ellos es lo que te puede llevar a un desenlace significativo u otro.

daphoene

#12 cc/ #61

"Una persona resolviendo captcha son simples células sensibles a la luz, y un proceso neuronal que busca patrones en las imágenes."

Pero los busca con un mecanismo completamente distinto. Las objecciones que podemos plantear al funcionamiento de las IA actuales son completamente legítimas. Porque una IA no "piensa" como piensa un humano, ni se le acerca. Yo estoy trabajando en sistemas que piensen como un humano, y no necesito casi nada de todo lo que se ha hecho en inteligencia artificial hasta ahora. Que una máquina sea capaz de identificar una señal con miles de pruebas y errores no significa que piense como un humano. De hecho, un coche autónomo se acerca más a cómo piensa un humano, y eso que sólo se queda con la parte más superficial de prueba y error, aunque añade una descomposición 3D de lo que está viendo y le añade un significado, eso sí se acerca un poco.

Estamos muy lejos, porque partimos de capacidades erróneas, porque nuestro cerebro no es binario, y no es bueno en lo que es bueno un ordenador. Pero es muy bueno en aquello que un ordenador es malísimo. Que lleguemos a conseguirlo no lo dudo, si no nos extinguimos antes, pero de momento, casi todo el trabajo en IA no es más que polvo en suspensión sobre el camino del significado de la existencia

Lekuar

#10 Yo creo que el problema de tanta paja mental viene de confundir "inteligencia" con "consciencia".

e

#10 Define "pensar"....

Y no, no son "reglas" lo que usan estos clasificadores. Los clasificadores que usan redes neuronales no aprenden a través de reglas que le da un humano (eso es IA de los años 70), sino que se adaptan a si mismas para reconocer patrones que les van mostrando, EXACTAMENTE igual que la manera que aprende un animal.

La única intervención humana es proveerle de un dataset sobre el que aprender con la solución ya dada y con suficiente tiempo de aprendizaje y un dataset lo suficientemente amplio el programa puede extrapolar a ejemplos que no ha visto previamente.

En cuano a que están muy lejos de un cerebro biológico, es cierto. Pero hay que tener en cuenta que los modelos de redes utilizan decenas de miles de neurodos como mucho por simples limitaciones de hardware, mientras que un cerebro de mamífero tiene del orden de miles de millones de neuronas, así que es obvio que no van a alcanzarlo en el futuro próximo, pero no sabes que puede pasar de aquí a unas décadas.

chulonsky

#46 Pero esos ejemplos que no ha visto previamente, son de la misma naturaleza. Es decir, las entradas y las salidas que usa para comparar. son homogéneas.

La única experiencia que tengo con redes neuronales era en una práctica universitaria, hacer una red con unas pocas neuronas que fueran capaces de aprender a resolver puertas lógicas simples (AND, OR, XOR, NOT), y nunca entendí como hacer funciones de propragación usando arcotangentes o hipérboles, no recuerdo bien.

Pero volvamos a lo de siempre. Está hecho adrede para un determinado fin. Una red neuronal para reconocer animales en imágenes, por ejemplo, jamás te hará una simple suma aritmética.

D

#7 Hola aquí otro programador. Que los científicos no sepan como emerge la inteligencia del cerebro humano, no quiere decir que los informáticos podamos crear inteligencia 'fuerte' sin saber cómo.
La noticia por otro lado no la entiendo porque no cuenta nada nuevo, hace lustros que se usa la IA para superar captchas con éxito ¿?
Y por ultimo comentar que no han habido avances significativos en la IA a parte de echarle más hierro al tema (más potencia de cálculo). ¿Es cuestión de potencia de cálculo que emerja la inteligencia fuerte con los mismos algoritmos de hace 40 años? Pues si es así ok, vamos a echar a correr o algo.

TarekJor

#37 A mi juicio, la IA no es más que un sistema razonador (lógica) "con conocimiento modelado" (Conocimiento como Datos). (Llevamos con este tema desde la mitad del siglo XX, con buenos artículos formales y tesis), pero claro con la capacidad de cómputo real actual, la inercia de evolución ahora es brutal.

A mí me interesa más la IA distribuida y personal que la IA en la nube "del gobierno" de la "empresa", pero quizás sean locuras mías lol...

Sobre el Cerebro humano tenemos datos (y aunque no soy un experto, en absoluto, y me queda mucho por leer, aprender, y descubrir), tiene muchos paralelismos con una "base de datos" orientada a grafos (neuronas)

Por lo tanto se podría generar cierta "Inteligencia", pero sería una "Inteligencia" mucho más humana de lo que muchos piensan, igual hasta tiene "Sentido Común", pero dependerá de esa lógica y del Conocimiento que tenga (La diferencia?, mucha mayor capacidad de cálculo (relación, mapeo, operaciones, etc)...

No hace mucho una IA de Microsoft "aprendió" que "Los Judíos eran malos" o algo así por Twitter

http://www.lavanguardia.com/tecnologia/internet/20160325/40672722377/inteligencia-artificial-microsoft-nazi.html

TarekJor

#52 Cualquier IA estará sometida a "CONTROL" y "AUTORIDAD" para definir la "VERDAD" de la IA, por eso es peligroso, por mucho que nos digan que haya "aprendizaje no supervisado" (que lo hay tambien) al final hay que "educar" a la IA desde el "Humano", y eso se puede hacer "malEducando" "bienEducando" etc

Vamos que lol el tema es interesante, para los que lo seguimos.

daphoene

#52 Otro error que cometemos al comparar es que comparamos el ordenador, o la IA, con un humano, a nivel de órdenes de magnitud, y bastaría con compararlo con el cerebro de un murciélago, o de una rata, para que quedara en pañales. El asunto es otro, hay mucho hierro, suficiente incluso en el mundo, o bajo el control de Google, como para emular el cerebro de una rata, pero no hay huevos a replicar el "software"

TarekJor

#81 Estoy de acuerdo, aunque "comparar"(*1) no tiene porque significar "equiparar", se puede comparar el tocino con la velocidad (si procede lol, si se puede inferir algo útil), pero es un buen matiz el que señalas, (me recuerda en Robótica o "Biónica" los "intentos" de hacer "bichos" de "Boston Dynamics" o los "robots mosca", cuya cinética comparada con la de "hueso+carne" o "tejidos" obviamente es muy "precaria".

Se puede comparar un brazo robótico (más o menos complejo) con un brazo humano? (se podría), ahora, como bien dices en tu ejemplo, la "Naturaleza" siempre nos dejará en cierto ridículo (puede que en el futuro, el ridículo sea menor), el objetivo tiene que ser funcionalidad "análoga" concreta no "equiparación" o "competición" con.

"Humanos con Voluntad de ser Dioses"?, yo pienso que el enfoque más "Racional" es Humanos comprendiendo Humanos.

(*1) Y estoy de acuerdo también en... a mí me resulta más interesante y estimulante (además de útil), "inferir" cierta lógica del cerebro humano (mente) a una lógica formal "IA", pero jamás sería comparable (equiparable) al Cerebro en sí, porque el cerebro es muchísimo más que eso (además de las conexiones con el sistema central, y muchas cosas más que desconocemos, todavía), sentidos, generación del "Sujeto" del "Consciente"... etc

A mi juicio, puede que desarrollar "IA", lógica pura, etc nos ayude a entender mejor, el estudio de nuestro cerebro (y no al revés).
Mi perspectiva es "Utilitarismo" de la IA más que "réplica del Humano" (a lo segundo además de mucho más complejo, no le veo mucho sentido, más allá de algún sueño húmedo de la Ciencia Ficción lol)

referencia:
Boston Dynamics

TarekJor

#37 Sólo un detalle (que he observado, y del que me he dado cuenta), cuando se "observe" la "Programación" como una extensión de Filosofía y Linguística y se enseñe más allá de "Informática" o "máquinas" y más hacia "Pensamiento" puede y sólo puede que la "Programación" y sus procesos lleguen al "Derecho" "Ley" y "Política", y es un debate profundo e interesante, que ... por casualidad he tenido más con colegas programadores, o con "conocimientos del mundillo" que con otro "tipo de personas"...

Si logramos "poner eso" en el "Sistema Educativo" ya sea "via Estado o en paralelo al Estado", será un "Hacking de Sistema" a mejor, porque lo he "visto" bastante claro.

s

#58 Dos personas distintas nunca van a producir el mismo código. Es una actividad altamente creativa.

Un programa libre de bugs, eso no puede existir.

Es mi opinión que no se debería permitr escribir leyes a quién no sepa programar. Los abogados carecen de pensamiento lógico y escriben auténticas..... Algunos carecen por completo.

TarekJor

#69 Totalmente de acuerdo, en las dos primeras líneas (poco que añadir)

Sobre lo último, la "Verdadera Revolusión" llegará cuando la Ley sea un "Corpus Lógico Completo" y se pueda hacer "ILP" via lógica y debate público via "peticiones de cambio" ("pull request")

Un "GitGov" lol, en fin por soñar entelequias que no quede, quizás algún día llegue.

La Constitución-del-78 en España que yo sepa tiene dos "pull-request" una de ellas el "Artículo 135" muy lamentable, y el criterio de "autoridad" del admin del repo, fue "inconsistente" sin Referéndum.

En fin para mí es un tema clave, este, se venga desde donde se venga "ideológicamente".

TarekJor

#7 Gran comentario, es curioso lo que hace la "Programación" como "disciplina de lógica" de "meta lenguaje" en nuestro cerebro.

A mí me ha cambiado en la forma de enfocar Conocimientos "múltiples", y temas desde realidades "múltiples" y no "bipolares" eso ayudaría a "Sociedad" y a "Política" a evolucionar, y por tanto a "Economía" y a "Ciencia".

La Lógica, lo que nos lleva a la Civilización, pero continuamente puesta a actualización.

PD: Cuando tenga algo de tiempo contestaré a un comentario que me enviaste, que me ha gustado. (aunque no estemos de acuerdo en todo).

ewok

#3 Replicants or Terminators?

ewok

#6 ¿Elegir para qué? lol
¿Y la pregunta también es qué llegaría antes? Claro que pueden llegar antes los replicantes y que Skynet envíe algo "al pasado".

Lekuar

#6 Que dramáticos sois siempre con la IA, serán como Wall-E .

sorrillo

Esto es lo que no entienden los que creen que se puede dominar a la IA.

A cada barrera que ponemos existen incentivos para hacerlas más inteligentes para que superen esas barreras.

En muchos casos por intereses económicos o comerciales, en otros simplemente por que "se puede" desde un punto de vista del reto intelectual.

cadgz

#2 Skynet is coming

chulonsky

#2 Esto es lo que creen los que no tienen ni puta idea de programar, que es mucho mas real. No saben cómo funcionan las IA's, y se montan sus propias películas (que a su ves seguramente han sido inspiradas por el cine).

cadgz

#4 Si las personas más inteligentes del planeta nos advierten contra ello por algo será, digo yo...

http://www.animalpolitico.com/2016/10/stephen-hawking-inteligencia-artificial-vice/

"Hawking no es el único que se preocupa por los avances de la tecnología. Bill Gates, Steve Wozniak y Elon Musk han expresado opiniones similares acerca de los peligros que supone dar a las máquinas demasiada autonomía."

s

#8 En mi muy humilde opinión, esos no se enteran.

Un gran experto es alguien en quien se puede confiar, pero siempre dentro se su campo de experiencia. Fuera, es un cuñao.

Ainur

#8 Más que porque tomen conciencia es por el hecho de depender cada vez más de ellas, no temen una skynet, temen las consecuencias sociales.

Acuantavese

#2 Cuando un hacker crea código para resolver capcha también le llamamos IA?

s

#40 No, le llamamos padefo.

SalsaDeTomate

Según Science, el modelo desarrollado por los científicos puesto a prueba logró resolver el 57,4 % de test de Yahoo, el 57,1 % de PayPal o el 67 % de test reCaptcha -otro modelo de estas pruebas- de Google.
Joder, tiene una tasa de acierto más alta que la mía

Azucena1980

Ya es m'as inteligente que muchas Inteligencias Naturales.

Lekuar

Pues que se lo implementen ya al JDownloader, que al principio funcionaba bien el anti-captcha, pero luego ya no.

s

#39 Pero, pero, pero, ¿seguro que estás usando la versión buena? infinitas posibilidades, oiga.

D

La IA vuelve a resolver captchas, ¿y?. Esto es como cuando se rompen algoritmos de cifrado.

s

#48 ..... y .... los siguientes captchas no habrá humano que los resuelva. Yo las paso canutas.

D

#48 Como que y? Pues habrá que informar del progreso, como cuando se rompe un algoritmo de cifrado.

s

Resolvedores automáticos de captchas los hay y los ha habido siempre. Si no se ponen al público versiones más resolutoras es porque entonces el captcha desaparecería. La rumorología está en que las máquinas son mucho más capaces que los humanos.

También hay interesantes redes de intercambio de captchas. Puedes comprar las soluciones o solucionar tú captchas a cambio.

lakhesis

Le habrán puesto los Captchas de ahora, que no tienen mucha miga. A ver si la IA lo hace con los antiguos del Rapidshare, en los que había que descifrar si lo que veías era -según ellos- un perro o un gato y cuántos había.

No me creo que ahí acertara, si a los humanos nos costaba un cojón y medio.