l

Aquí hay un hombre que ahora le toca ir de juzgado en juzgado. Que se pone a berrear un rato. Nada destacable

D

#6 no lo has visto, patetico

l

#7 Claro que lo he visto, y aparte de pegar gritos y no dar ninguna solución a lo que para él es un problema. No dice nada de nada.

l

#11 Hay que tener la mente muy cuadriculada para ver que un referendum binario de sí o no con un resultado de aproximadamente el 50% para sí o para el no, tiene vinculación nula. Estas jodiendo, hagas lo que hagas, a la mitad del pais.

Hay que ser muy zopenco, para primero establecer que en un referendum así iba a ganarse con el 50% +1, segundo visto el resultado no reflexionar un poco.

l

#59 pero segura ahí fusionando hidrógeno y luego helio cuando la tierra haya dejado de existir.

l

#5 Hombre, en realidad dada las infinitas conquistas y reconquistas de la peninsula no hay ninguna región que no tenga su propia historia como reino. Y su propia gastronomía, todo sea dicho.

Tremecen

#8 #11 #16 Efectivamente Cataluña tiene su propia gastronomía, hace años vi una camiseta que representaba muy bien lo que es Cataluña

Receta del Pa amb tomaquet: sobre una buena rebanada de pan payes catalán tostada se extiende un buen aceite de oliva andaluz, se le restringe un ajo manchego, se frota un tomate de los que los castellanos trajeron de América y encima se pone un buen jamón extremeño.

l

Cuando los últimos juegos te piden ya Windows10, y si eres gamer pues mira. O te pasa o no juegas. Como dice #2 estamos un poco secuestrados.

#3 Haya gustado mucho o no, hoy en día para trabajar en el mundillo de creación de videojuegos lo que te piden es DX12, aún se puede hacer algo con DX11, luego las API de Sony, y después OGL donde metemos Vulkan.
Y esto ya es offtopic:

¿ Cual es mejor ? Pues depende, Vulkan trabaja un poco más bajo nivel que DX, Te vale para Windows o para Linux / Android a partir de N. Y DX12, al menos para mi, es más cómoda, y puedes trabajar tanto para PC como para Xbox. En capacidades son similares. Va a depender mucho más de como esten de optimizados los drivers que de la API en si.

l

¿Qué chorrada es esta?

¿Confirmado? Obvio, los elementos a partir del Helio, inclusive, se forman en las estrellas. O al destruirse estas....

D

#8 Algo de litio y algo de berilio se formaron también en el proceso de nucleosíntesis del Big bang, pero no fue en mucha proporción

l

#33 Titanium es un Framework + IDE que desde hace ya tiempo descubrí que fueron creados por el nieto de Abdul Al-Hazred https://es.wikipedia.org/wiki/Abdul_Alhazred su uso y manejo lleva a la locura y cuando haya suficientes Apps creadas con él El Antiguo Que Ahora Es Nuevo se alzará y las manzanas serán más caras y sabrán a ceniza y las ventanas serán azules y los robots dominarán la tierra.

Así está escrito en Java on Rails.

l

Lo malo de esto es si has hecho alguna de esas aplicaciones. Que de golpe me digan que el mercado de las mismas se reduce un 90% no me hace nada de gracia.

l

#205 el problema es que nadie garantiza que el futuro sea mejor que el presente. Quizás en 20.000 años no existimos o estamos descubriendo el fuego.

D

#207 Nadie nos lo garantiza con nuestra civilización.

Vaya manía tenéis de extrapolarlo todo a como lo haríamos nosotros.

l

#208 exactamente lo que he dicho.

l

#203 para ser exactos eso es un enjambre de Dyson. Hay varios modelos teóricos para la misma solución, extraer energía de una estrella. Muchas de ellas como bien dices se caen por su propio peso. Hace falta materiales, que a día de hoy, no podemos sintetizar. Y quizás nunca. O hace falta tal cantidad de materia que haría falta otro sistema solar entero.

l

#61 la atenuación es errática. Y aparte el brillo de la estrella se ha ido apagando con el tiempo.

La opción más plausible sigue siendo que por alguna extraña razón la rodea una nube de escombros. Pero los sistema solares tienen la mala costumbre de estar dentro de un plano, no una esfera.

¿Es una inteligencia? No lo creo. Ahora es, como dice en el video, algo único que no entendemos que puede ser y que quizás desemboque en un nuevo entendimiento de la mecánica estelar. O de la creación de los sistemas solares.

l

#2 Te pongo un ejemplo donde esto puede pasar:

Imagina una gran aplicación millones de lines de código 3 equipos de 20 personas trabajando a la vez, y un caso en el que estas pasando los datos entre las capas de tu aplicación serializados. Al hacer esto null, como objeto se ha transformado en "null". Luego en la siguiente capa lo que tienes es una cadena que pone "null".

¿Qué haces?
por que algunas veces será el mismo deserializador el que diga, vale esto es un null. Y te encuentras con un null quieras o no.
Otras veces tendrás que decidir tu pero no sabes que información tiene la capa anterior.
Puede incluso que lo que te llegues se lo pases al ORM tal cual y este te lo guarde en la BBDD sin intervención.

¿Es solucionable? si obviamente, puedes tener mil soluciones para este problema. Pero en algunos casos sobretodo como haya vudú por parte del framework de la aplicación puedes sudar la gota gorda.

l

#28 Entendemos los algoritmos de deep learning que se usan actualmente, son modelos de redes neuronales, no son exactamente neuronas pero son funciones, o un conjunto de transistores, que se parecen en sus resultados. Construyendo múltiples capas de estas y con terabytes de datos se acaba obteniendo cosas tan interesantes como Siri, la cosa esta de Microsoft: https://www.projectoxford.ai/demo/Emotion , etc.

Es bastante dificil de encontrar una cifra exacta, pero actualmente el sistema más potente es Watson de IBM y en 2013 querían llegar a 10^8 neuronas artificiales.

Entendemos que si conseguimos el suficiente número de estas neuronas y de 'sinapsis' acabará por aflorar una inteligencia. Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo.

p

#43 Si hay algo en lo que coinciden los neurocientíficos y los investigadores (serios) de IA, es que no es cuestión de potencia bruta, sino de cómo se organice el sistema (nuestros cerebros son una prueba de ello).

Acido

#49 Yo creo que es una combinación de ambas cosas.

El cerebro humano tiene alrededor de 10^11 neuronas. Luego está "el cómo" están conectadas (que puede variar un poco dinámicamente), y, por último, el aprendizaje, es decir, los 'pesos' sinápticos, que viene a ser en qué medida influyen en cada neurona las 'aportaciones' de las neurona a las que está conectada. Y he dicho aprendizaje porque dichos pesos es lo que más va cambiando sobre la marcha según el cerebro va experimentando y aprendiendo.

El aprendizaje parece ser que más o menos sabemos hacerlo, el Deep Learning... El número de neuronas artificiales tampoco parece ser mucho problema en el corto plazo. Aunque el cerebro humano tiene todavía muchas más neuronas, mucha más potencia bruta, si uniésemos la potencia de PC's y móviles del mundo superaríamos al cerebro humano y, además, en pocos años (¿20 años?) esperamos que se supere con un sólo superordenador. Prácticamente la única cuestión que queda es la estructura de la red, es decir, "el cómo" se conectan las neuronas. Pero en esto también ha avanzado mucho el Deep Learning, es decir, que el Deep Learning no sólo trata de cómo modificar los pesos de las sinapsis para una estructura de red neuronal artificial dada, sino que define cuál sería una buena estructura en función de unos datos de aprendizaje dados, para poder aprender esos datos de forma rápida y con buena calidad.
Si tenemos en cuenta todo esto, a no ser que se nos hayan escapado ciertos procesos cuánticos que pueden ocurrir en los cerebros humanos, no sería descartable que lleguemos a lograr inteligencias artificiales asombrosas.

Por otro lado, aunque las IA no sean copia exacta de los cerebros humanos, podrían ser igual de buenas o mejores (salvo que alguien demuestre lo contrario). Pondré un ejemplo: un avión no es una copia exacta de un pájaro, sus alas no están formadas por plumas de material tan ligero, pero vuela y consigue volar con unas características mejores en muchos aspectos: es más grande que todos los pájaros conocidos, consigue volar a más altura, vuela más rápido, etc... Seguramente un pájaro es más eficiente en el uso de la energía: come unos granos, bebe un poco de agua y puede volar durante horas. Del mismo modo cabe la posibilidad de que una IA sea más inteligente que un cerebro humano aunque consuma más energía... y esto es más o menos una de las claves del argumento de Matrix , como sugirió #5


cc #43

p

#64 El cómo están conectadas lo es todo. Se sabe que las conexiones son únicas para cada individuo (no varían "sólo un poco") y estas se crean y destruyen a lo largo de la vida. Otro factor de complejidad más a tener en cuenta y que hace más difícil aún si cabe entender el problema.

Acido

#73

"El cómo están conectadas lo es todo. "

No se qué quieres decir con eso...
Yo puedo admitir que ciertas estructuras de conexión serían, digamos, muy inútiles y que por muchas neuronas que tuviesen no serían capaces de conseguir casi nada. En ese sentido la estructura es un aspecto "decisivo" o "lo es todo" como has dicho tú.

Sin embargo, hay demostraciones matemáticas de que ciertas estructuras tienen "suficiente" potencial como para aprender cualquier cosa...

Por ejemplo, una sola neurona artificial (de tipo perceptrón, uno de los modelos más simples) sólo podría separar dos regiones del espacio (o "hiperespacio" si el espacio de entradas tiene muchas dimensiones) mediante un plano (o "hiperplano"). Una neurona es evidente que es muy limitada.
Si tienes una capa de múltiples neuronas, cada una de ellas conectada a las mismas entradas, cada neurona podrá actuar independientemente para producir una salida diferente, en función de sus "pesos" sinápticos... Esto quiere decir que una capa podrá distinguir muchas regiones, una región por neurona, pero cada región delimitada por un plano / hiperplano. Esto supone que aunque en esa capa podrías poner todas las neuronas que quieras, miles de millones si quieres, el funcionamiento de la red estaría muy limitado, sería incapaz de hacer ciertas cosas. Que es lo que dije en el primer párrafo: hay estructuras que aunque tengas muchas neuronas no serían muy capaces, y algunas cosas no las podrían "aprender" nunca.
A partir de 2 o más capas la cosa se empieza a poner interesante y se llega a demostrar que es posible "reconocer" / "separar" cualquier distribución de "puntos" / "datos multidimensionales", por muy complejos que sean. Por ejemplo, para 3 dimensiones la primera capa puede usar 6 planos (6 neuronas de tipo perceptrón) para delimitar un cubo de 3 dimensiones (un hexaedro es una figura delimitada por 6 planos o caras) y uniendo cubos en las siguientes capas, es capaz de "aprender" cualquier cosa, uniendo cubos al estilo "Lego" o "Minecraft", o como una impresión 3D.

Pero hay una conclusión más: diferentes estructuras pueden ser capaces de lograr un mismo objetivo. Es decir, no sólo hay estructuras que son capaces de lograrlo y que si no hay esa estructura concreta es imposible, no, sino que hay unas estructuras capaces de cualquier cosa y otras estructuras también.


'Se sabe que las conexiones son únicas para cada individuo (no varían "sólo un poco") y estas se crean y destruyen a lo largo de la vida.'

El que sean únicas no implica que varíen mucho con el tiempo, que es a lo que yo me refería. Por ejemplo, las huellas dactilares son únicas para cada persona... pero eso no significa que la huella vaya cambiando, que hoy tengas una huella dactilar y mañana tengas otra diferente.
Cuando dije que varían "sólo un poco" me refería a que la organización o estructura varía poco con el tiempo. Creo que se configura o auto-organiza al poco tiempo de nacer el cerebro humano, ya sea en el feto o a los pocos años de vida, y luego apenas cambia.

Además, teniendo en cuenta que hay millones de cerebros que consideramos "inteligentes" / inteligencia de nivel humano... si todos tienen una estructura diferente eso implica que la inteligencia no se alcanza con una sola estructura sino una variedad muy amplia de estructuras. Todos los cerebros tienen un número muy grande de neuronas, aproximadamente el mismo, en torno a 10^11 y se supone que todos tienen unos procesos similares de "entrenamiento" / "aprendizaje", independientemente de la estructura concreta de la red, y de esa forma todos funcionan y tienen inteligencia.
Si lo comparamos con la red Internet, el valor de la red está en función del número de nodos: una WWW con muy pocas páginas web sería poco útil. También el funcionamiento depende de los algoritmos de encaminamiento, de gestión de red, etc... así como los algoritmos de búsqueda y similares. Pero teniendo una red amplia y con buenos algoritmos (TCP/IP, algoritmo PageRank de Google, etc) la estructura creo que no importa mucho, siempre que cumpla unas condiciones, claro.

También hay que tener en cuenta que el Deep Learning supone cambios en la estructura de la red neuronal artificial a partir de los datos, incluso sobre la marcha... Es decir, si el cerebro humano produce cierta reorganización de la estructura como parte del aprendizaje el "cerebro artificial" basado en redes neuronales artificiales con Deep Learning también lo hace.



¿que es posible que se nos hayan escapado muchos detalles importantes? No lo descarto... pero tampoco podría afirmar con total seguridad que con lo que se sabe ahora sea imposible conseguir un nivel de inteligencia similar a la humana.

Y creo que noticias como esta de Google y otros casos de éxito prueban que las estructuras usadas no son malas... vamos, que no debemos ir muy desencaminados ni faltarnos tanto conocimiento imprescindible. Es decir, no hay pruebas de que el conocimiento actual sea insuficiente para lograrlo, pero más bien, las pruebas de éxitos conseguidos hasta ahora parecen indicar lo contrario, que el conocimiento actual podría ser suficiente.

En resumen, me mantengo en la duda, pero me da la impresión de que va por buen camino, tanto por los logros conseguidos como por el esfuerzo y recursos que se dedican a ello.
Y no encuentro mucho motivo para pensar lo contrario.
Hace un tiempo lo veía más difícil y ahora no tanto... aunque también es cierto que no considero que yo tenga suficiente conocimiento a fondo, sobre todo considerando la complejidad del asunto, y quizá me dejé llevar por una impresión falsa o distorsionada del asunto.

p

#119 Estoy hablando de neurociencia. Me parece que fue en una charla TED donde una neuróloga comentaba que las conexiones entre neuronas se desarrollaban de diferentes formas según lo que hiciese la persona y que esa autoorganización condicionaba las capacidades futuras del individuo, pero que la estructura se autoorganizaba continuamente hasta el momento de la muerte. Tiene que ver con la plasticidad, que va disminuyendo a lo largo de la vida, pero siempre existe.

Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.

p

#119 Estoy hablando de neurociencia. Me parece que fue en una charla TED donde una neuróloga comentaba que las conexiones entre neuronas se desarrollaban de diferentes formas según lo que hiciese la persona y que esa autoorganización condicionaba las capacidades futuras del individuo, pero que la estructura se autoorganizaba continuamente hasta el momento de la muerte. Tiene que ver con la plasticidad, que va disminuyendo a lo largo de la vida, pero siempre existe.

Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.

A mí me parece que todos los anuncios sobre supuestos avances en IA son lo mismo una y otra vez. No ha habido ningún avance fundamental desde hace décadas, excepto que ahora se puede usar más potencia y se aplican las mismas piezas con más potencia sin que haya habido nuevas técnicas fundamentales. Las redes neuronales profundas que se usan ahora tienen poco que ver con las reales en el sentido de que sólo resuelven un único problema y tras exponerlas a muchísimos casos (muchos más que los que necesita un animal o persona). Así que es posible que se haya acertado a grandes rasgos en ciertas características, pero desde luego se está lejísimos de hacer algo que pueda resolver problemas de forma general, pueda guardar información genérica y tenga entendimiento de contexto en el sentido más amplio de la palabra. No se tiene ni idea de cómo atacar ese problema.

Los únicos intentos con alguna posibilidad hoy día son los que intentan emular la biología pura y dura para hacer ingeniería inversa (como el de IBM), y aún así no se está avanzando al ritmo esperado.

Acido

#122

"Tiene que ver con la plasticidad, que va disminuyendo a lo largo de la vida, pero siempre existe."

Pues eso... estamos diciendo lo mismo.
Yo he dicho que la autoorganización estructural ocurre fundamentalmente al principio de la vida humana y que luego ocurre pero muy poco. Y tú estás diciendo que va disminuyendo. ¡Pues estamos diciendo lo mismo!!
A no ser que tú quieras decir que la disminución de plasticidad crees que es muy poca, que un señor viejito tiene mucha plasticidad cognitiva ¿estás diciendo eso? Si dices eso entonces no estamos de acuerdo: un niño tiene muchísima plasticidad y un anciano muy muy poca, luego la disminución de plasticidad es grande, no pequeña.
De todas formas, este punto creo que es bastante irrelevante, porque ya expliqué que los modelos artificiales también cambian la estructura de la red neuronal...

"Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles."

En la última parte sí estoy de acuerdo, creo que desconocemos muchos de los detalles... Y, precisamente porque los desconocemos, la conclusión es que no sabemos si esos detalles que desconocemos son algo digamos crucial, que suponga un cambio muy sustancial, o no.
Lo que dices tú es que no conocemos los detalles pero sin conocerlos estás seguro de que suponen un cambio brutal... pues, lo siento, pero no puedo aceptar ese argumento: no puedo aceptar que estés tan seguro de eso.
En cuanto a la complejidad, no se muy bien a qué te refieres. Si te refieres a que las neuronas humanas tienen dentro ADN y muchas otras cosas, pues te respondería que habría que ver si esas muchas otras cosas juegan un papel fundamental o no. Por ejemplo, un pájaro tiene muchísima mayor complejidad que un avión, especialmente si consideramos un avión de papel... ¡¡pero el avión de papel también vuela!! ¿Qué quiere decir este ejemplo? Pues que en el asunto de volar lo fundamental parecen ser cosas como las alas, la forma, el peso y la flexibilidad, pero otras cosas son bastante irrelevantes. El pájaro tiene mucha mayor complejidad: tiene miles de millones de células, cada una con ADN, tiene diferentes "materiales" y partes (plumas, huesos, pico, sangre, etc) pero todo eso parece irrelevante para el hecho de volar. También se teorizó hace tiempo que los "pájaros artificiales" jamás podrían volar, porque todo lo que es más pesado que el aire cae. Y ahí tienes a los aviones, miles de ellos volando, y son más grandes que los pájaros, vuelan más rápido y más alto, y con menos complejidad. Del mismo modo un modelo simplificado como el de las RNA podría hipotéticamente realizar una función inteligente, es decir, "pensar" en lugar de volar... y no me parece que el hecho de que las RNA no sean idénticas a las neuronas naturales implique que sea imposible. Si fuesen idénticas parece razonable pensar que funcionarían, ahora bien, que no lo sean no implica necesariamente que no puedan hacer lo mismo o algo equivalente.
Y así muchas cosas, unas ruedas no se parecen casi en nada a unas piernas, pero un coche corre más rápido que un guepardo.

perico_de_los_palotes

#43 ¿O sea que queremos replicar el hardware de nuesto cerebro para conseguir algo que no corre el mismo software que nuestro cerebro?

saqueador

#43 No, no, no y NO. No os dejéis llevar por el sensacionalismo de este tipo de artículos.

Google sólo ha hecho un programa que recoge datos de una pantalla y aplica algoritmos estadísticos para producir una salida similar.

Otras "IA" a las que la gente atribuye rasgos quasi humanos hacen lo mismo.

En realidad hablamos de sistemas programados para solucionar UN PROBLEMA EN CONCRETO.

Estamos igual de lejos de la Inteligencia artificial que os imagináis algunos como antes de inventarse los ordenadores.

Acido

#43

"Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo."


Un avión tampoco ha tenido los millones de años de evolución que tuvieron los pájaros, pero a pesar de eso vuela, y vuela alto y rápido.
Con esto quiero decir que esos millones de años de evolución no siempre son tan decisivos.
El asunto de las emociones me parece algo clave en el ser humano, pero quizá no sea tan complicado simularlo.