Hace 4 años | Por CrudaVerdad a xataka.com
Publicado hace 4 años por CrudaVerdad a xataka.com

La mayoría de los profesionales que trabajan con tecnologías de inteligencia artificial en el Reino Unido afirman estar preocupados, desde un punto de vista ético, por la clase de productos que están ayudando a crear. El dato procede de un informe difundido ayer bajo el título "People, Power and Technology: The Tech Workers View" ('Gente, poder y tecnología: el punto de vista de los trabajadores del sector tecnológico').

Comentarios

leumasmg

#3 #4 es correcto que el Deep learning simplemente consta de una serie de operaciones y conceptos matemáticos muy sencillos: sumas, fracciones, divisiones exponenciales, derivadas... nada más. lo que quiere decir el articulo es que la forma concreta de combinar millones de estas operaciones de forma que el resultado del algoritmo (o del modelo, mejor dicho) sea el que esperas no es nada trivial. ahí entra la idea de que es una ciencia oscura. Se entienden bien las operaciones individuales y como se conectan, pero, dado el número de operaciones y la no-linealidad de las mismas, nadie tiene demasiado claro por qué ciertos modelos compuestos de X capas de redes neuronales conectadas de una forma concreta funcionan mucho mejor que otros. Los expertos en IA son unos artesanos especializados precisamente en diseñar y combinar estos modelos con una intuición más relacionada con la experiencia (x modelo funciona mejor para análisis de sentimiento, y modelo para procesamiento de imagen) que con el análisis matemático.

uno_d_tantos

#18 Restringiendonos a Deep Learning y dejando de lado todos los temas relacionados con probabilistic programming y deep Bayesian networks (añado deep porque es un palabro sexi). Durante estos últimos dos años (2018-2019) han comenzado a aparecer trabajos que alumbran esa "oscuridad" de manera formal. Es un campo muy verde donde hay aún hay muchas conjeturas, poco formalismo y mucho trabajo por hacer. Yo no le llamaría en ningún caso oscuridad porque hay gente que tiene una idea aproximada de lo que pasa en ciertos casos y por eso es capaz de configurar bien sus algoritmos. En cualquier caso, es un campo extremadamente basto y todavía queda mucho camino por caminar en muchísimas más direcciones de las que puedo (podemos) imaginar.

uno_d_tantos

#31 Era vasto

C

#3 Exacto, a la larga la "Inteligencia Artificial" es solo:
Algoritmos que hacen mucho uso de la estadística y ecuaciones diferenciales+derivadas+integrales para interpolar / extrapolar + Un montón de datos que requiere la estadística.

D

#5 Totalmente de acuerdo, ¿pero quién puede asegurar que nuestro cerebro no es lo mismo pero con más ecuaciones, más datos y más velocidad de procesamiento? Según algunas corrientes la singularidad se alcanzará con más poder de procesamiento y la conciencia es una mera ilusión creada por nuestros propios procesadores / cerebros o simplemente un resultado de un alto nivel de procesamiento.

Acuantavese

#7 Nuestro cerebro aprende, la IA no, por mucho que fumen.

D

#11 Todo depende de qué se entienda por aprender. Nada puede negar ni probar a día de hoy que llegada una determinada capacidad de procesamiento las máquinas puedan aprender de forma similar.

yemeth

#7 Porque calcules ecuaciones más rápido no se va a desarrollar consciencia mágicamente. Por algún extraño motivo, en IA esa postura absolutamente irracional se cree a sí misma como la que tiene los pies en la tierra, solo porque al no entrar en la cuestión de la consciencia (apartándolo con la manita llamándola epifenómeno) creen que se mantienen puros y científicos.

Si quieres singularidad, yo empezaría a tejer redes de neuronas con impresoras 3D con células madre. De esto hace 15 años: Construyen un cerebro artificial con neuronas de rata capaz de pilotar un avión

Hace 16 años | Por tomeu a tendencias21.net


Por otro lado #11 la IA puede aprender y hay un montón de algoritmos de aprendizaje automático, esa no es la diferencia.

Acuantavese

#20 Puede aprender solo lo que le hayas enseñado que aprenda, esa es la diferencia
#21

D

#30 ¿Y nosotros no somos iguales? Según muchos filósofos y científicos cognitivos poseemos ciertas estructuras innatas que son las que nos permiten aprender. En ese sentido estaríamos preprogramados igualmente.

Tabula rasa o innatismo? Un tema que seguimos sin discernir después de miles de años.

A día de hoy no hay pruebas de que una máquina con más poder de procesamiento pueda aprender igual o mejor que nosotros en todos los aspectos. Ni tampoco hay prueba de lo contrario. Pero creo que veremos cosas que nos sorprenderán mucho y no tardarán demasiado.

rojo_separatista

#30, no es cierto, exiten varios paradigmas dentro de la IA como el aprendizaje no supervisado y el aprendizaje por refuerzo, que están basados en algoritmos que no requieren de una base de conocimiento previa. De hecho es en lo que más esperanzas hay dipositadas ahora mismo.

Cc/ #34

https://es.m.wikipedia.org/wiki/Aprendizaje_no_supervisado

https://es.m.wikipedia.org/wiki/Aprendizaje_por_refuerzo

Acuantavese

#36 Muy bien, dime implementaciones reales de sistemas que funcionen con aprendizaje no supervisado

D

#20 Primero habría que demostrar la existencia de la propia conciencia y probar que es diferente a un cerebro/procesador. Es un tema filosófico muy antiguo. Para los materialistas no hay más que datos y procesos. Tú no pareces ser materialista y está muy bien, pero quién sabe? No podemos más que dar opiniones; yo realmente no tengo ninguna al respecto porque no lo sé.

yemeth

#33 Tampoco es que no sea materialista. No creo que la consciencia sea "sobrenatural" en cuanto que externa a la Naturaleza y/o las leyes que podamos averiguar sobre esta, ni tampoco que la materia sea "mente cristalizada" como apuntarían las antiguas creencias.

Por eso me parecen interesantes desarrollos como los de Penrose (aunque estén muy discutidos) al menos en su dirección; tratar de encontrar en la propia materia qué es lo que constituye los "qualia", qué nos estamos perdiendo. Me interesa más ese "camino del medio" que no deja de ser materialista pero que no finge que el problema no existe.

En lo que estoy de acuerdo es en que solo se pueden dar opiniones; pero precisamente porque hay algo que todavía se nos escapa en todo esto.

rojo_separatista

#11, eso lo dices tu.

s

#11 la I.A. actual sí. aprende no son ecuaciones ni algoritmos específicos para resolver problemas concretos, sino que son redes neuronales de proposito general que son educadas y aprenden hasta afinar cualquier tarea

La diferencia entre nuestro cerebro y las redes neuronales de I.A. aparte de la consciencia, es que una red neuronal educada para una tarea al ser enseñada para que haga otra tarea desaprende la que conocía. Se requieren muchas redes neuronales de forma que aprendan tareas de todo tipo y se integren todas creando una representación de la realidad entre todas donde pongan todo y aprendan todas las tareas como un todo viviendo en la realidad como parte de la misma con ese truco. Es decir que adquieran consciencia para poder tener y mantener multitarea de forma coordinada

Ese sería el siguiente paso

Pero es falso que no aprendan. Realmente lo que está haciendo la actual I.A. es aprender sin ser programada para tareas específicas sino ser educada y aprender a reconocer cosas ya rectificar y desaprender,, de todo. Y algo muy curioso es que cuando se miran tensores (conjuntos de neuronas conectadas entre sí) cuando aprende y no tiene entradas de más información sino que está procesando internamente y esos tensores se muestran en imágenes o lo que sea son claramente representaciones oníricas como el contenido de nuestros sueños, tan colas y extrañas y calcadas a los mismos, al mismo sueño

Con lo que después de siglos o milenios especulando que podrían ser los sueños, las I.A. artificiales basadas en redes neuronales lo han mostrado en toda la cara... Y encima que cuando se las desconecta y deja hacer procesos internos de aprendizaje propios de la red, Dicha red neuronal tiene un desempeño superior que las redes neuronales que no se les ha permitido eso sobre todo ante situaciones nuevas que no estaban tal cual en el aprendizaje.

Vamos que eso son los sueños. Ocurre que en la realidad que representamos y en la que vivimos dentro de nosotros además del yo y las cosas nos presenta lo que sentimos, emociones, deseos etc sobre las cosas y se guardan en la red también creando las motivaciones para el comportamiento y las decisiones

s

#40 En este punto. Nuestros deseos innatos, emociones, sensaciones, sentimientos que son manifestados en relación a algo que se procesa y se enlaza a este genera nuestras motivaciones para nuestra conducta o para nuestras ideas. Un Vulcano no tiene sentido tal cual porque no tendria motivación para hacer esto o lo otro sin emociones ni impulsos que hicieran aparición en esa repersentación de la realidad generada en nuestro neocortex que es donde vivimos y sentimos las cosas como lo real y cuyo proceso conjunto denominamos consciencia

El problema, creo yo y opino yo, es que una máquina, una I.A. artificial requerirá de motivaciones de algún tipo al llegar a un nivel parecido de complejidad y consciencia, para que haga un tipo de acciones u otro y tome decisiones encaminadas a una cosa u otra que luego se fijen a su vez en el aprendizaje de la red neuronal creando su personalidad

En este caso nosotros tenemos las nuestras dadas por la evolución biológica porque funcionaban para transmitir nuestros genes en las situaciones que nos toca vivir... Y ya.

Si la I.A. sirve a una máquina de guerra las motivaciones para tomar unas decisiones sobre otras también deberán estar impresas de antemano y marcar el aprendizaje de la red neuronal, no tendría unas emociones como los humanos o un animal sino otras u otra cosa según la tarea a la que esté destinada, algo así lo podríamos llamar en cierta forma como sentirse feliz o realizado si hay consistencia entre lo establecido, aprendido y las acciones que esté llevando a la práctica.

Por tanto si la I.A. gobierna una máquina de tipo militar esas motivaciones impresas serán de tipo militar y la I.A. tenderá a tener ese tipo de motivación por encima de otras como la cooperación... Es decir entonces es cuando será un peligro para nosotros

Es lo que me parece

D

#7 el cerebro humano es inteligencia artificial para las piedras

D

#12 Y para las hormigas somo dioses que arrasamos civilizaciones a placer. Efectivamente todo es relativo.

D

#14 tenemos que estar preparados para pasar de dioses a hormigas roll

s

#5 Falso. Hace ya tiempo que no es así que es lo que ha generado el actual despegue de la I.A. Eso ya no es cierto. En la actualidad están siendo redes neuronales que aprenden y son educadas, no se les programa que hacer sino que se les enseña que hacer como a una animal o un niño. Aprenden rápido. Han reproducido en algunos juegos humanos los pasos de aprendizaje que se hicieron a lo largo de años por humanos creando ideas en unos meses y han ganado a los maestros humanos en juegos como el go por alfaGo que no es una máquina con algoritmos para jugar al Go sino redes neuronales educadas para aprender a jugar a lo que sea y se le ha enseñado a jugar al Go. Es más dichas redes que aprenden parecen ya más competentes que los algoritmos específicos para juegos concretos muy afinados.

C

#39 ¿Y que crees que son las redes neuronales por dentro? Estudialas pero no de alto nivel (usando TensorFlow), sino al más bajo nivel, el de las ecuaciones diferenciales, derivadas, etc.. y te podrás llevar una sorpresa (y de paso una decepción) cuando sepas que son simple y llanamente regresiones lineales o de dos o más variables independientes (el número de entradas a la red neuronal) y una o varias salidas dependientes (el número de salidas de la red neuronal). Empieza con el perceptrón multicapa.

s

#42
Las redes neuronales son unos algoritmos concretos o bien circuitos impresos. Eso es irrelevante. NO son algoritmos para resolver el problema específico sino que aprenden y son educados para resolver cualquier problema. La afirmación que son cosas que hacen uso de la estadística concreta o son algoritmos para el problema concreto o la afirmación que no aprenden son afirmaciones objetivamente falsas.

da igual lo que sean exactamente y concretamente por dentro. La imagen de funcionamiento de los mismos es objetivamente falsa y no corresponde a la realidad como he indicado
Tu neocortex es una red neuronal

> No hace falta cálculo diferencial por más que pueda ser una herramienta para entender como no le ha hecho falta a la evolución biológica para generar nuestras redes neuronales en el necortex. Y las conozco desde finales de los 80. Lo que hacía falta entonces era capacidad de procesamiento en paralelo y gran cantidad de conocimiento que procesar. ya había anéctotas curiosas entonces


pero las redes neuronales aprenden y son educadas

Se lo que son. Y ya se lo que es el perceptrón y como funciona.

Que no tienes razón con la idea que quieres dar.

El hecho es que APRENDEN y han de ser educadas. Y eso es un hecho. Y el hecho es que lo haces tu con las tuyas. Da igual como funcionen. Pero no se puede decir que como somos procesos físicos rígidos en nuestro cerebro nosotros no podemos aprender

O como las redes neuronales artificiales son físicamente como son no puedan aprender. El hecho es que lo hacen. Así que da igual que algunas sean "gresiones lineales o de dos o más variables independientes" Da igual y no se puede concluir que por tanto no pueden aprender. Es que de hecho lo están haciendo. Así que sean lo que sean algo no se está entendiendo si se niega una relidad objetiva al mirar su funcionamiento. Porque el funcionamiento es real, pero que aprendan y sean educadas y no se les de algoritmos rígidos para cada problema sino que se les enseña a resolver el problema con ejemplos acierto y error es REAL y lo hacen igual de bien o mejor que los humanos

Punto

Si la inteligencia emerge de mucho de eso pues emerge de mucho de eso por más que se cree en almas mágicas. Si es eso y acaba apareciendo pues es eso

no vale la pena darle más vueltas cuando los hechos están ahí

s

#43
por cierto Alpha de google está usando procesadores diseñados específicamente para correr el TensorFlow o "flujo de tensores" denominados TPU (Tensorflow Process Unit)

C

#43 "El hecho es que APRENDEN y han de ser educadas." .... por favor, el tal aprendizaje es el ajuste de pesos que se le da a cada entrada en cada neurona + el peso de la entrada independiente.. y esos pesos son valores reales (positivos o negativos). Si tomas un perceptrón multicapa y lo examina, se dará cuenta que es una ecuación muy, muy, muy larga y lo que hace el proceso de aprendizaje (el algoritmo de backpropagation) es ajustar los coeficientes. El perceptrón multicapa en si es muy rígido, porque solo cambian los pesos, no cambia ni la arquitectura (la capa N solo se comunica con la capa N+1, no puedo comunicar la salida de una neurona de la capa 1 directamente con la entrada de una neurona de la capa 4) y tampoco cambia la función de activación (es la misma en todas la neuronas).

s

#46
Exactamente. Lo mismo que hace tu cerebro con las dentritas y la salida del axón en las neuronas

NI por favor ni leches. ES QUE ES ESO. No es algo programado ex profeso para la tarea. Es una red neuronal y esta aprende y es educada. IMPORTA UNA MIERDA que ese tenga que ser el funcionamiento en este debate porque es que FUNCIONA y aprenden.
Y tanto o mejor que los humanos como he indicado

https://francis.naukas.com/2017/12/09/alpha-go-zero-domina-el-ajedrez/

¿qué de procesos tan sencillos y mecánicos te parezca que no pueda surgir la inteligencia y lo des por hecho es un argumento?

NO. Porque aprenden y surge y muchas de las características de la nuestra más de lo que se podía imaginar

Si es eso pues es eso. Da igual lo mecánico que sea en sus mecanismos más simples. Lo que importa es que el conjunto emerja una inteligencia como la que emerge sin estar específicamente programada sino que aprenda y surja parecido a lo que hacemos nosotros que en el fondo son procesos físicos, mecánicos y químicos en las neuronas por más que luego nos demos de razonar sobre la naturaleza del universo y su destino

no es una ecuación el mismo perceptrón como la gravedad no es una ecuación. Se puede expresar con una ecuación que hace años que vi y cierto es la caña

¿y qué? La gravedad también, procesos de la evolución biológica también se pueden expresar con ecuaciones y la formación de un copo de nieve

¿y qué?

> vale para el perceptrón ¿y qué?

Y la actividad de procesado de los nervios ópticos seguro que se puede expresar en una ecuación

¿y qué?

C

#47 Yo también soy mecanicista, no veo nada mágico, ni místico la conciencia y la inteligencia humanas ni de otros seres vivos. Pero falta mucho por investigar, eso de que de una ecuación fija muy, muy, muy larga (que cambian son los coeficientes) emerja una conciencia o inteligencia (dando a entender que es una propiedad mágica de las ecuaciones... como que no).

No, no vale eso de "es que funciona y con eso estoy contento", no, eso no me contenta a mi, lo importante es: "es que funciona y se porque funciona y puedo controlar como funciona"

s

#48
hey que el perceptron no son las redes profundas de aprendizaje... Eh las cuales SI son cajas negras

Y el perceptrón no es una ecuación. Se puede describir con una ecuación

Eso que lo real se pueda describir con ecuaciones matemáticas según tu como que no. Pero la realidad es que sí. Que si se puede hacer eso. Las matemáticas son lenguaje y la realidad se puede describir mediante lenguaje. El perceptrón en este caso (no toda red neuronal) se puede describir mediante una ecuación compleja pero no es la ecuación como la gravedad no es las ecuaciones de campode Einstein, sino que estas lo describen


En realidad el problema es espistemológico y a que denominamos que

Eso no es cierto. DE nuevo Caes en el mismo error

Las redes neuronales de aprendizaje profundo son cajas negras, no sabes lo que hace en cada momento ni que ni lo puedes controlar pero sí EDUCAR y ENSEÑAR
Como hacemos con animales o con humanos

s

#42 Es decir que es irrelevante lo que sean por dentro porque por fuera (que es lo que importa): https://francis.naukas.com/2017/12/09/alpha-go-zero-domina-el-ajedrez/

d

#3 pues no anda nada desencaminado. El estado del arte del deep learning es puramente empirista, mucha prueba y error. Alguien con las intuiciones adecuadas puede marcar la diferencia entre tener una solución y no tenerla. Si te molesta lo de arte oscuro, pues bueno. Pero es que es así.

D

Y las películas sobre el tema no ayudan...

A

Yo he visto suficientes películas de ciencia ficción sobre inteligencia artificial para saber con toda seguridad que su trabajo será perjudicial para la sociedad.

oraculus_reloaded

Ya lo dicen en Matrix.

C

Así que si:
1. Eres experto en IA
2. Te importa un pimiento la sociedad (te da igual si haces un dron con IA que vuele en pedazos a alguien porque se dió una condición algorítmica)

Entonces.... tendrás curro muy bien pagado para mucho tiempo.

SubeElPan

#1 No sabía que la IA solo servía para armamento. Los soldados son mucho mejores moralmente claro. Sensacionalista se queda corto.

QesnoR

#10 Ignorar el potencial peligro de la IA es de necios... hay un peligro real del mal uso. No hace falta ni bombas ni soldados, un simple algoritmo que consiga empobrecer a un país para que se autodestruya es suficiente. Pongamos un país que todo esté informatizado...hum una IA que desactive la electricidad del país... una IA que suba precios de los productos importados... una IA que no haga rentable tus exportaciones a otros países y ya tienes una venezuela que se autodestruye con dos bandos...

SubeElPan

#23 Deja de ver pelis. Dijeron lo mismo con la electricidad, y con los robots, y con el fuego, y con...

QesnoR

#25 No son pelis ni son paranoias... pero algunos no aprenden ni aunque salga una tragedia...
todo gran avance en la historia de la humanidad ha tenido su lado oscuro desde el uso de lo nuclear hasta la invencion del cuchillo... e ignorar los peligros no te hace mas que un ignorante...

yemeth

Lo entiendo por las armas inteligentes, pero con la automatización el problema no es la IA, es el capitalismo y la necesidad de superar un modo de producción caduco que no funciona para el bien común sino para sostener los privilegios artificiales de unos pocos.

¿En qué tipo de distopía estamos viviendo, para que la idea de que los robots trabajen por nosotros se convierta en algo problemático porque hay unos señores que son dueños de los robots y el resto se quedaría en paro?

Cort

#16 Solo desaparecerían los trabajos repetitivos y de baja cualificación. No por mucho repetirlo va a convertirse en verdad

yemeth

#22 Díselo a la gente que tiene baja cualificación. Habrá un momento en el que tendremos que asumir que o se cambia el modo de producción o estaremos construyendo una sociedad artificialmente desigual en base a una falsa escasez.

Cort

#28 Los aguadores en el siglo XIX también tuvieron que reciclarse cuando se instalaba el agua corriente. Y no hubo que cambiar ningún sistema. Es lo que tiene el progreso.

mmpulido

Pero si esto lleva encima de la mesa desde la película de juegos de guerra... (1983, ya ha llovido)
Al final el Skynet de turno que creen tomará consciencia de sí mismo, se enfadará y ya verás.

Cort

Titular engañoso:

"In AI, 59% of people have experience of working on products that they felt might be harmful for society, compared to 28% of tech workers as a whole. More than a quarter (27%) of those in AI who experienced such a situation quit their jobs as a result, compared to 18% of all tech workers who had this kind of concern. "

helder1

luditas incultos...

D

El progreso no daña la sociedad.
Lo joden los sistemas injustos que no se adaptan al progreso.

l

Bueno, es cierto que será perjudicial para la sociedad, pero para la actual. Sea como sea la aplicación de los desarrollos que se logren gracias a la IA terminarán con la sociedad actual tal y como os conocemos.
Que ese fin terminé siendo para bien o para mal es algo que dependerá más de las políticas que se adopten que de la tecnología en si.