Portada
mis comunidades
otras secciones
#10 La gente se toma las medidas de empatía de una forma errónea. La capacidad empática es la medida de respuesta emocional que la persona tiene a algo, algunas veces medida (cambios faciales, etc) y otras directamente la persona responde lo que siente, no tiene ninguna correlación con lo que la persona hace en consecuencia. Puedes tener una persona estoica que tenga una respuesta empática pequeña pero que esa cantidad sea suficiente para que se decida a ayudar, mientras que otra persona puede tener una respuesta empática grande que hasta la haga llorar pero que no sea suficiente como para que decida ayudar.
#1 muchas gracias por el aporte.
Por si no funciona el enlace de #1 como a mí. Aquí se puede leer
https://archive.ph/2024.03.26-192852/https://www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.html
Dejo por aquí el artículo completo, hay que suscribirse si se entra en la vanguardia pero si se entra desde Google se puede leer entero. Muy recomendable:
https://www.google.com/amp/s/www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.amp.html
#1 muchas gracias por el aporte.
Por si no funciona el enlace de #1 como a mí. Aquí se puede leer
https://archive.ph/2024.03.26-192852/https://www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.html
El historiador, filósofo y escritor israelí Yuval Noah Harari analiza el conflicto actual entre Israel y Palestina, indicando de donde vienen las motivaciones y cómo se debería solucionar. Tenemos poco control sobre las intenciones de los demás, pero deberíamos poder cambiar nuestras propias mentes. Por supuesto, lograr tal cambio es extremadamente difícil. Pero no es imposible. Ya hay numerosos individuos en ambos lados que desean el bien para el otro. Si su número aumenta, eventualmente deberían cambiar las políticas colectivas.
#teahorrounclick
Al final, las evidencias científicas actuales permiten concluir que, al menos con cierta moderación, el consumo habitual de café puede de hecho resultar bastante beneficioso. En el corto plazo, parece que mejora el ánimo, la vigilancia, el aprendizaje y el tipo de reacción. En el largo, podría proteger frente a condiciones del cerebro como el alzhéimer o el párkinson.
No obstante, es importante recordar que el consumo excesivo de cafeína podría provocar ansiedad, temblores, agitación y problemas de sueño, en función entre otras cosas de nuestra sensibilidad a la sustancia.
El Gobierno de EE.UU. aprobó la primera normativa nacional que establece nuevas regulaciones para varios componentes químicos nocivos en el agua potable. Pretende reducir la exposición a sustancias perfluoroalquiladas y polifluoroalquiladas, también conocidas como PFAS o “químicos eternos” asociados a diversas enfermedades, incluido el cáncer. Establece 4 partes por billón (ppb) para PFAS en el agua (antes 70 ppb). Obliga a administraciones estatales y empresas de agua a monitorear 5 tipos de PFAS, y les da 3 años para completar la evaluación.
Cáncer hasta en el agua del grifo. Me pregunto si con la de los pozos ocurrirá lo mismo, aunque en cualquier caso seguro que de los micro plásticos no se libra
#3 Mira los enlaces de #1. Igual que los microplásticos ya están en todas partes.
#4 A partir del año que viene van a intentar reducir su concentración en el agua del grifo.
El año pasado hubo una propuesta de la UE para prohibir el uso de más de 10.000 químicos permanentes pero creo que al final se rajaron.
#3 La verdad que no me queda claro, es lioso como está redactada la noticia. Yo he terminado entiendo que son 14.000 por los casi 6 meses de trabajo, aunque luego dice por 10 horas, en fin...
Paga 14.000 euros por 10 horas de trabajo a un artista que utiliza IA
Malec reveló que su compañía le ha pagado 14.000 euros por cada uno de los meses de trabajo
...asegura que cuentan con un artista principal que es capaz de crear más de 1.000 imágenes con IA en apenas seis meses. Por ello, Malec reveló que su compañía le ha pagado 14.000
¿El artista que ha trabajado, 5 minutos al día, el tiempo de poner un prompt?
En cualquier caso, eso son 2000€ y pico bruto al mes, lo que viene a ser un sueldo más o menos decente en los tiempos que corren si vives en una ciudad grande. Pues ala, ya estamos viendo cómo la IA empieza reemplazar puestos de trabajo...
Ojo, los andaluces tienen mucho campo para trabajar. Será mejor comprar en Marruecos y que estén más aun en la mierda mientras los insultamos por flojos.
Andalucía nos roba a Vascos y Catalanes, esto es evidente. Ellos no trabajan casi nada y tienen un plato de arroz diario para comer que no se merecen. Nosotros somos unas máquinas trabajando, listos y avanzandos, con la mejor industria porque somos listos y avanzados, y sin embargo no vamos todos en Ferrari.
Andalucía ens roba con los subsidios de los flojos.
#5 te lo has buscado tu solito
#12 a mi me gusta que le vaya bien al vecino porque hace tiempo me presto medios con los que me hice rico, pero si le va mal por lo que sea y necesita ayuda le digo que se busque la vida, que no es mi problema.
#17 Atención? Hombre, viendo los votos creo que atención sí.
Lo que no prestan por aquí es ironía.
#14 Los negativos son precisamente porque la gente ha pillado el sarcasmo.
#31 y naranjas.
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
¿Qué te hace humano? Sacar un juego a medio hacer, repleto de fallos y mal diseñado por las prisas de coger pasta.
Si, aún sigo traumatizado con lo que hicieron esta gente. Fui de los que lo compraron día 1 en PS4
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
Han obtenido más información sobre cómo los tardígrados sobreviven en condiciones extremas y han demostrado que las proteínas de las criaturas microscópicas expresadas en las células humanas pueden ralentizar los procesos moleculares. Esto convierte a las proteínas tardígradas en potenciales candidatas en tecnologías centradas en frenar el proceso de envejecimiento https://onlinelibrary.wiley.com/doi/10.1002/pro.4941
Veo granjas de tardígrados en 3...2...1...
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#120 No no los entienden. Solo procesan.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#3 Quizá nunca lo sabremos
#8 la Cibeles
#11 al menos algunos
Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.
Aunque como siempre, todo depende de las definiciones
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#5 Todos tienen consciencia, pero sólo algunos tienen autoconsiencia. Algunos chimpanzes y otros grandes simios, pasan algunos tests de "fase del espejo" al igual que los niños de 3 años. Otras especies como los cánidos o los felinos no pasan los tests de autconciencia, de momento que sepamos, no me sorprenderia que a través de mucha selección artificial/social, algunos collies llegaran a una proto-autoconciencia. También falta experimentar mucho con algunos cefalópodos, los pulpos presentan muchas cosas aun por comprender.
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
PD: Descartes es tu amigo.
#28 Esos tests del espejo están anticuados , por cosas como las que indica #34 . Intentar evaluar la capacidad cognitiva de otras especies, en base a parámetros que utilizamos para medir nuestra propia capacidad, sólo nos permite saber cuánto se pueden parecer, comparativamente, a la especie humana.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más fascinantes en este sentido, y que está arrojando investigaciones con resultados sorprendentes, son los que tienen que ver con las aves. Podría citar casos con los córvidos ya que son algunas de las especies más interesantes, pero con especies más pequeñas, como carboneros y herrerillos, ya se han podido demostrar algunos niveles de lenguaje complejo realmente interesantes.
#37 Estoy de acuerdo en que los tests del espejo están anticuados. Por otra parte, el tema de la autoconsciencia es diferente al tema de la inteligencia. El "problema de la consciencia" peca como ya señalo Chalmers de un dualismo excluyente intrínseco al problema mente-cuerpo. Los trabajos de por ejemplo Georg Northoff creo que dan un paso más allà al plantear un problema mente-mundo. Cuando por ejemplo uno medita y se sabe desde hace miles de años, la dualidad "desaparece", no por ello desapareciendo la inteligencia, sino no habria capacidad de agenciamiento, ni intencionalidad, ni experiencia de flujo, lo que se llama capacidad exteroceptiva en neuropsicología. I cuando "pensamos" o " o "reflexionamos" ( cogito, ergo sum), aparece toda la parte de dualidad, toda nuestra capacidad para pensar en categorías, dualidades, matemáticas, etc. Lo que se llama capacidad interoceptiva. Aquí te dejo una masterclass que lo desarrolla bien:
From brain to mind: A spatiotemporal approach
#60 Claro. Y más que podemos llegar a desgranar. Pero tampoco pretendía establecer aquí un tratado acerca de este tema, por mucho que me interese. Pero por tu último y completo comentario, entonces me sorprende aún más tu imprecisa reducción en tu primer comentario.
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle entendemos por inteligencia) es un tema siempre bastante controvertido, por la inevitable tentación de arrojar una valoración "humano centrista".
En algunos de los estudios que más conozco, por ejemplo, se ha utilizado la escala de CI de Louis Lefebvre, pero esa escala de por si no tiene porque representar los estudios de Chris Templeton acerca del lenguaje del carbonero. ¿porqué? Porque tal vez la importancia del lenguaje para el carbonero sea tan alta, que para nosotros resulte muy difícil comprender cómo de importante para su inteligencia es esa capacidad.
Es un ejemplo obvio pero lo pongo por si acaso: Una persona muda no deja de ser inteligente. Puede ser tan inteligente o más que yo. Eso es algo que como humanos sabemos. Por eso es muy arriesgado intentar trasladar estos parámetros a otras especies.
Ahora no me voy a acordar del nombre, pero hay estudios sorprendentes en esta misma dirección con abejorros, planteándoles una serie de problemas a modo de puzzle, que eran capaces de resolver.
Respecto a un intento de arrojar luz específicamente a las capacidades cognitivas, Herculano-Houzel tiene estudios intentando relacionar la cantidad de neuronas con las capacidades cognitivas.
Es interesante echar un ojo a sus estudios porque determina una forma de medir, cuantitativamente, la capacidad cognitiva, gracias a los resultados del % de neuronas en la corteza cerebral. Aunque como tampoco niegan... es como estar midiendo algo que no sabemos muy bien que es. Pero deja la puerta abierta a ese otro tipo de inteligencias.
Si han podido demostrar que, en los casos de especies que aún podemos llegar a poner a prueba (según las pruebas humanas) esa mayor concentración de neuronas en la corteza cerebral es la que permite unas mayores capacidades cognitivas... y nos encontramos con una especie (de ave por ejemplo) don un % que puede estar triplicando el de algunos mamíferos (como el del elefante) , pero no somos capaces de "entender" sus capacidades... ¿qué nos estaremos perdiendo? ¿qué es lo que no estamos viendo?
Con esto voy a tirar de un clásico, como Carl Sagan, la cuestión que planteaba creo que poniendo como ejemplo una serpiente como un alienígena muy inteligente, del cual, ambos seríamos totalmente inconscientes de la capacidad de inteligencia mútua, por la incapacidad de comunicarnos entre nosotros.
No digo que los estudiosos que tú planteas no sean útiles. Son cruciales. Pero es posible que estemos como humanos, bloqueados por la propia asíntota de que no podemos dejar de ser humanos cuando intentamos entender las capacidades de otras especies, y sólo podemos sorprendernos cuando se dan esas circunstancias que permiten un nexo comparativo entre diferentes formas de ser inteligente.
Llevamos con esta matraca desde Aristóteles con su scala naturae y en realidad, tampoco hemos avanzado mucho
Agradezco mucho tu comentario. Da gusto leer algo así.
#79 Muy buena reflexión. Le daré unas buenas vueltas a tu punto de vista y consultaré las referencias. Muy intersante los estudios de Herculano-Houzel. Y Aún más cuando metemos el lenguaje en la problemática. Muy de acuerdo con el problema de la "scala naturae" Aristotélica.
Si, es un gusto debatir así contigo. :)))
#178 Si los trabajos de Northoff, LeDoux o Pankseep, te parecen al mismo nivel que la mística de Jung...Ojo, el trabajo de Flake no és malo, pero de ahí a esperar que a través de la computación y la matemática puedan decir el "cómo" estamos a un buen trecho, es decir, no podemos ni simular por donde irá una hormiga a través de una mesa.
#5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.
#5 ¿A qué te refieres cuando hablas de animales (¿Estás excuyendo a los Homo sapiens de tu definición de 'animales'?)
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes
Pues pasa más o menos lo mismo que con las redes neuronales biológicas: sabemos que hacen cosas asombrosas hasta tal punto de que emerge consciencia, pero no entendemos exactamente cómo lo hacen. Por eso pienso que eso que llamamos consciencia acabará emergiendo en una IA sin haberlo previsto.
#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
#64 Si, y no... y razón no te falta, pero veamos.
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por tanto interfieren en dichas funciones, y en un cerebro completamente formado y adulto es muy poco probable que la maleabilidad funcional del propio cerebro, pueda compensar según que daños, obviamente resultará en fallas muy posiblemente letales.
No lo planteo en esos términos, sino en lo que comenta #52 como autoconciencia... y es ahi donde, obviamente, el mejor candidato será el cerebro, pero aún sigue siendo un misterio dicha autopercepción, en qué magnitud otras especies pueden estar experimentándola, cómo se mide y localiza dicha autopercepción, y cuando suceda en una IA, seremos capaces de reconocerla? O siquiera podemos empíricamente demostrar, que es imposible que eso suceda en una IA porque hay una causa o premisa que los organismos vivos si tenemos y las IA no?
Es a eso a lo que me refiero, y para nada digo que sea imposible que esté en el cerebro, pero también es cierto que estamos lejísimos aún de comprender cómo funciona el mismo, ni siquiera para la gran mayoría de sus funciones básicas, y menos aún en cuanto a lo que se refiere a la autopercepción. Qué elementos confinan un "yo"? cuantos yoes puede haber? Un organismo como el nuestro, que a su vez, contiene infinidad de organismos, cuantos "yoes" alberga? unos encapsulan a otros? hay transferencia o incluso consciencia de esos yoes entre ellos? Dudo que sea algo tan simple como plantearlo como un mero sistema mecánico que responde a impulsos... o quizás si sea posible y simplemente me resisto a creerlo.
#10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.
#10 wtf. Por esa regla de 3 el 99,9% de las especies del planeta estarían extintas.
#103 puede parecer que #10 lo mismo habla a largo plazo, pero no tiene ningún sentido tampoco porque hay especies muchísimo más viejas que el ser humano, mucho más básicas y sin ningún tipo de conciencia que siguen existiendo y seguramente seguirán existiendo despues de que el ser humano se haya extinguido
#2 correcto. Totalmente de acuerdo. La eacala hace al fenomeno. La misma neurona simple y predecible provoca a gran escala consciencia.
#2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y ocurre lo mismo, un hemisferio justifica que él tomó ciertas decisiones en base a la información que tiene (y que puede ser diferente del otro hemisferio).
Algunas personas no tienen una "voz interior" en su mente, y otras tienen diferntes grados de visualización mental. Si te digo que imagines una manzana, muchas personas pueden imaginar una manzana realista en su mente, otros solo una "caricatura", y algunas personas ni eso.
Sin embargo, sabemos que tenemos "consciencia" simplemente porque nosotros la tenemos, y asumimos que otras personas también porque describen fenómenos similares, pero con una máquina no tenemos dicha certeza...
#2 Mi problema con las teorías de la conciencia emergente en IA es que parece un parche para tapar lo que no sabemos todavía peor que la "materia oscura" de la que tiran los físicos cuando no les salen las cuentas.
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
#25, yo tampoco lo veo, lo que sí que veo es que habrá IAs que hablarán de forma indistinguible a si tuvieran conciencia de verdad y como hasta ahora no podemos falsear fidedignamente que un ente vivo con cerebro tenga conciencia tampoco lo podremos hacer con estas IAs. Pero repito, creo que desconocemos demasiado poco sobre cómo emerge la conciencia en entes biológicos como para pensar que desarrollando IAs muy inteligentes a la hora de resolver problemas, va a emerger sin más.
#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#25 quizas falta hardware para darle la chispa al firmware que cree al Frankestein.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
Segunda sentencia del TSJA contraria al plan urbanístico del Cabezo Mundaka. "La sentencia determina que el Ayuntamiento de Huelva ha incumplido la obligación de redactar un Plan Especial de Protección del Bien de Interés Cultural “Zona Arqueológica de Huelva”, dice Ecologistas. La organización ecologista recuerda que, además, está visto para sentencia en el TSJA un tercer recurso interpuesto por Huelva Te Mira sobre el plan urbanístico. Ambas asociaciones trabajan de forma coordinada para salvar los cabezos de la especulación,
El historiador, filósofo y escritor israelí Yuval Noah Harari analiza el conflicto actual entre Israel y Palestina, indicando de donde vienen las motivaciones y cómo se debería solucionar. Tenemos poco control sobre las intenciones de los demás, pero deberíamos poder cambiar nuestras propias mentes. Por supuesto, lograr tal cambio es extremadamente difícil. Pero no es imposible. Ya hay numerosos individuos en ambos lados que desean el bien para el otro. Si su número aumenta, eventualmente deberían cambiar las políticas colectivas.
La gente que reservó las Vision Pro de Apple ya han recibido su pedido y comienzan a ser vista usándolas mientras pasean por la calle o viajan en metro. ¿Estamos ante el sucesor del teléfono móvil?
El equipo de Unity anuncia que va a dar marcha atrás en las medidas publicadas sobre el nuevo modelo de negocio que plantean implementar.
La cantante Grimes pide a sus fans que sigan la tendencia musical de la inteligencia artificial y hagan temas con su voz: "Dividiré el 50% de los derechos"
Habla sobre las neuronas de concepto, un tipo de neurona que sólo se encuentra en los seres humanos y que es capaz de responder ante un concepto concreto. Además trata la implicación que pueden tener en la educación y la conciencia, y da su opinión sobre si una IA podría llegar a ser autoconsciente.
Utilizando la técnica de IA machine learning para entrenar al algoritmo, éste logra medir la sensibilidad de las células a cada fármaco de manera separada, obteniendo así la mejor combinación entre ellos.
Análisis sobre los juegos inspirados en guerras, como llegan a usarse como propaganda o reclutar personal. También se habla del juego Six Days in Fallujah que refleja el ataque real que sufrió Fallujah y el cual fue cancelado por ser demasiado duro. ¿Hasta donde llega el límite?
Una película biográfica sobre Michael Jackson está siendo preparada por el productor galardonado con el Oscar de “Bohemian Rhapsody” (“Bohemian Rhapsody, la historia de Freddie Mercury”), Graham King, y el guionista de “Gladiator” (“Gladiador”), John Logan. Lionsgate se encargará de la distribución mundial del filme, dijo el lunes el presidente del estudio Joe Drake.
Unity ofrecerá así a los desarrolladores un impresionante animador facial basado en machine learning. ¡Las expresiones faciales que salen en el vídeo son realmente sorprendentes!
Microsoft cancela la patente del chatbot basado en difuntos por ser una idea perturbadora.
CD Project ha emitido un comunicado disculpándose del resultado de Cyberpunk. Ya están trabajando en parches y las versiones de PS4 y Xbox One no serán estables hasta el próximo mes de Febrero. También hacen un llamamiento a quienes quieran devolver sus copias, con un plazo de 7 días.
Buenas comunidad! Os dejo por aquí el primer video lyric de mi proyecto musical Exonation, además también está disponible en todas las plataformas digitales como Spotify el primer EP 'Initializing', que se ha estrenado hoy mismo. La cuarentena me ayudó a acabarlo, espero que lo disfrutéis a los que os mole el rollo Industrial Metal, y a los que no, también Gracias y saludos!
Han aparecido carteles colgados en las puertas de urgencias del summa, avisando de su clausura atribuida al ministerio de sanidad. Los responsables del summa han comunicado que no se ha dado la orden de colgar dichos carteles, y que probablemente lo haya hecho un particular.
Huelva, después de tres días sin nuevos casos de Covid-19, ha vuelto registrar 7 contagios y 1 fallecido. Esto demuestra que todavía no se puede bajar la guardia.
El Gobierno inyectará 70 millones de euros en la industria de la tecnología y del videojuego, incluyendo la inteligencia artificial.
La OCDE sitúa a España en el puesto número 8 en el número de tests realizados, por delante de Alemania.
La policía nacional advierte de la creación de 1 millón y medio de cuentas falsas en redes sociales para difundir bulos sobre el COVID-19
Pues partiendo de que la mujer suele tener más capacidad empática, tiene sentido.
#10 La gente se toma las medidas de empatía de una forma errónea. La capacidad empática es la medida de respuesta emocional que la persona tiene a algo, algunas veces medida (cambios faciales, etc) y otras directamente la persona responde lo que siente, no tiene ninguna correlación con lo que la persona hace en consecuencia. Puedes tener una persona estoica que tenga una respuesta empática pequeña pero que esa cantidad sea suficiente para que se decida a ayudar, mientras que otra persona puede tener una respuesta empática grande que hasta la haga llorar pero que no sea suficiente como para que decida ayudar.
Dejo por aquí el artículo completo, hay que suscribirse si se entra en la vanguardia pero si se entra desde Google se puede leer entero. Muy recomendable:
https://www.google.com/amp/s/www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.amp.html
#1 muchas gracias por el aporte.
Por si no funciona el enlace de #1 como a mí. Aquí se puede leer
https://archive.ph/2024.03.26-192852/https://www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.html
Cáncer hasta en el agua del grifo. Me pregunto si con la de los pozos ocurrirá lo mismo, aunque en cualquier caso seguro que de los micro plásticos no se libra
#3 Mira los enlaces de #1. Igual que los microplásticos ya están en todas partes.
#4 A partir del año que viene van a intentar reducir su concentración en el agua del grifo.
El año pasado hubo una propuesta de la UE para prohibir el uso de más de 10.000 químicos permanentes pero creo que al final se rajaron.
#3 La verdad que no me queda claro, es lioso como está redactada la noticia. Yo he terminado entiendo que son 14.000 por los casi 6 meses de trabajo, aunque luego dice por 10 horas, en fin...
Paga 14.000 euros por 10 horas de trabajo a un artista que utiliza IA
Malec reveló que su compañía le ha pagado 14.000 euros por cada uno de los meses de trabajo
...asegura que cuentan con un artista principal que es capaz de crear más de 1.000 imágenes con IA en apenas seis meses. Por ello, Malec reveló que su compañía le ha pagado 14.000
¿El artista que ha trabajado, 5 minutos al día, el tiempo de poner un prompt?
En cualquier caso, eso son 2000€ y pico bruto al mes, lo que viene a ser un sueldo más o menos decente en los tiempos que corren si vives en una ciudad grande. Pues ala, ya estamos viendo cómo la IA empieza reemplazar puestos de trabajo...
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
¿Qué te hace humano? Sacar un juego a medio hacer, repleto de fallos y mal diseñado por las prisas de coger pasta.
Si, aún sigo traumatizado con lo que hicieron esta gente. Fui de los que lo compraron día 1 en PS4
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
Veo granjas de tardígrados en 3...2...1...
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#120 No no los entienden. Solo procesan.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#3 Quizá nunca lo sabremos
#8 la Cibeles
#11 al menos algunos
Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.
Aunque como siempre, todo depende de las definiciones
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#5 Todos tienen consciencia, pero sólo algunos tienen autoconsiencia. Algunos chimpanzes y otros grandes simios, pasan algunos tests de "fase del espejo" al igual que los niños de 3 años. Otras especies como los cánidos o los felinos no pasan los tests de autconciencia, de momento que sepamos, no me sorprenderia que a través de mucha selección artificial/social, algunos collies llegaran a una proto-autoconciencia. También falta experimentar mucho con algunos cefalópodos, los pulpos presentan muchas cosas aun por comprender.
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
PD: Descartes es tu amigo.
#28 Esos tests del espejo están anticuados , por cosas como las que indica #34 . Intentar evaluar la capacidad cognitiva de otras especies, en base a parámetros que utilizamos para medir nuestra propia capacidad, sólo nos permite saber cuánto se pueden parecer, comparativamente, a la especie humana.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más fascinantes en este sentido, y que está arrojando investigaciones con resultados sorprendentes, son los que tienen que ver con las aves. Podría citar casos con los córvidos ya que son algunas de las especies más interesantes, pero con especies más pequeñas, como carboneros y herrerillos, ya se han podido demostrar algunos niveles de lenguaje complejo realmente interesantes.
#37 Estoy de acuerdo en que los tests del espejo están anticuados. Por otra parte, el tema de la autoconsciencia es diferente al tema de la inteligencia. El "problema de la consciencia" peca como ya señalo Chalmers de un dualismo excluyente intrínseco al problema mente-cuerpo. Los trabajos de por ejemplo Georg Northoff creo que dan un paso más allà al plantear un problema mente-mundo. Cuando por ejemplo uno medita y se sabe desde hace miles de años, la dualidad "desaparece", no por ello desapareciendo la inteligencia, sino no habria capacidad de agenciamiento, ni intencionalidad, ni experiencia de flujo, lo que se llama capacidad exteroceptiva en neuropsicología. I cuando "pensamos" o " o "reflexionamos" ( cogito, ergo sum), aparece toda la parte de dualidad, toda nuestra capacidad para pensar en categorías, dualidades, matemáticas, etc. Lo que se llama capacidad interoceptiva. Aquí te dejo una masterclass que lo desarrolla bien:
From brain to mind: A spatiotemporal approach
#60 Claro. Y más que podemos llegar a desgranar. Pero tampoco pretendía establecer aquí un tratado acerca de este tema, por mucho que me interese. Pero por tu último y completo comentario, entonces me sorprende aún más tu imprecisa reducción en tu primer comentario.
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle entendemos por inteligencia) es un tema siempre bastante controvertido, por la inevitable tentación de arrojar una valoración "humano centrista".
En algunos de los estudios que más conozco, por ejemplo, se ha utilizado la escala de CI de Louis Lefebvre, pero esa escala de por si no tiene porque representar los estudios de Chris Templeton acerca del lenguaje del carbonero. ¿porqué? Porque tal vez la importancia del lenguaje para el carbonero sea tan alta, que para nosotros resulte muy difícil comprender cómo de importante para su inteligencia es esa capacidad.
Es un ejemplo obvio pero lo pongo por si acaso: Una persona muda no deja de ser inteligente. Puede ser tan inteligente o más que yo. Eso es algo que como humanos sabemos. Por eso es muy arriesgado intentar trasladar estos parámetros a otras especies.
Ahora no me voy a acordar del nombre, pero hay estudios sorprendentes en esta misma dirección con abejorros, planteándoles una serie de problemas a modo de puzzle, que eran capaces de resolver.
Respecto a un intento de arrojar luz específicamente a las capacidades cognitivas, Herculano-Houzel tiene estudios intentando relacionar la cantidad de neuronas con las capacidades cognitivas.
Es interesante echar un ojo a sus estudios porque determina una forma de medir, cuantitativamente, la capacidad cognitiva, gracias a los resultados del % de neuronas en la corteza cerebral. Aunque como tampoco niegan... es como estar midiendo algo que no sabemos muy bien que es. Pero deja la puerta abierta a ese otro tipo de inteligencias.
Si han podido demostrar que, en los casos de especies que aún podemos llegar a poner a prueba (según las pruebas humanas) esa mayor concentración de neuronas en la corteza cerebral es la que permite unas mayores capacidades cognitivas... y nos encontramos con una especie (de ave por ejemplo) don un % que puede estar triplicando el de algunos mamíferos (como el del elefante) , pero no somos capaces de "entender" sus capacidades... ¿qué nos estaremos perdiendo? ¿qué es lo que no estamos viendo?
Con esto voy a tirar de un clásico, como Carl Sagan, la cuestión que planteaba creo que poniendo como ejemplo una serpiente como un alienígena muy inteligente, del cual, ambos seríamos totalmente inconscientes de la capacidad de inteligencia mútua, por la incapacidad de comunicarnos entre nosotros.
No digo que los estudiosos que tú planteas no sean útiles. Son cruciales. Pero es posible que estemos como humanos, bloqueados por la propia asíntota de que no podemos dejar de ser humanos cuando intentamos entender las capacidades de otras especies, y sólo podemos sorprendernos cuando se dan esas circunstancias que permiten un nexo comparativo entre diferentes formas de ser inteligente.
Llevamos con esta matraca desde Aristóteles con su scala naturae y en realidad, tampoco hemos avanzado mucho
Agradezco mucho tu comentario. Da gusto leer algo así.
#79 Muy buena reflexión. Le daré unas buenas vueltas a tu punto de vista y consultaré las referencias. Muy intersante los estudios de Herculano-Houzel. Y Aún más cuando metemos el lenguaje en la problemática. Muy de acuerdo con el problema de la "scala naturae" Aristotélica.
Si, es un gusto debatir así contigo. :)))
#178 Si los trabajos de Northoff, LeDoux o Pankseep, te parecen al mismo nivel que la mística de Jung...Ojo, el trabajo de Flake no és malo, pero de ahí a esperar que a través de la computación y la matemática puedan decir el "cómo" estamos a un buen trecho, es decir, no podemos ni simular por donde irá una hormiga a través de una mesa.
#5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.
#5 ¿A qué te refieres cuando hablas de animales (¿Estás excuyendo a los Homo sapiens de tu definición de 'animales'?)
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
Pues pasa más o menos lo mismo que con las redes neuronales biológicas: sabemos que hacen cosas asombrosas hasta tal punto de que emerge consciencia, pero no entendemos exactamente cómo lo hacen. Por eso pienso que eso que llamamos consciencia acabará emergiendo en una IA sin haberlo previsto.
#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
#64 Si, y no... y razón no te falta, pero veamos.
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por tanto interfieren en dichas funciones, y en un cerebro completamente formado y adulto es muy poco probable que la maleabilidad funcional del propio cerebro, pueda compensar según que daños, obviamente resultará en fallas muy posiblemente letales.
No lo planteo en esos términos, sino en lo que comenta #52 como autoconciencia... y es ahi donde, obviamente, el mejor candidato será el cerebro, pero aún sigue siendo un misterio dicha autopercepción, en qué magnitud otras especies pueden estar experimentándola, cómo se mide y localiza dicha autopercepción, y cuando suceda en una IA, seremos capaces de reconocerla? O siquiera podemos empíricamente demostrar, que es imposible que eso suceda en una IA porque hay una causa o premisa que los organismos vivos si tenemos y las IA no?
Es a eso a lo que me refiero, y para nada digo que sea imposible que esté en el cerebro, pero también es cierto que estamos lejísimos aún de comprender cómo funciona el mismo, ni siquiera para la gran mayoría de sus funciones básicas, y menos aún en cuanto a lo que se refiere a la autopercepción. Qué elementos confinan un "yo"? cuantos yoes puede haber? Un organismo como el nuestro, que a su vez, contiene infinidad de organismos, cuantos "yoes" alberga? unos encapsulan a otros? hay transferencia o incluso consciencia de esos yoes entre ellos? Dudo que sea algo tan simple como plantearlo como un mero sistema mecánico que responde a impulsos... o quizás si sea posible y simplemente me resisto a creerlo.
#10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.
#10 wtf. Por esa regla de 3 el 99,9% de las especies del planeta estarían extintas.
#103 puede parecer que #10 lo mismo habla a largo plazo, pero no tiene ningún sentido tampoco porque hay especies muchísimo más viejas que el ser humano, mucho más básicas y sin ningún tipo de conciencia que siguen existiendo y seguramente seguirán existiendo despues de que el ser humano se haya extinguido
#2 correcto. Totalmente de acuerdo. La eacala hace al fenomeno. La misma neurona simple y predecible provoca a gran escala consciencia.
#2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y ocurre lo mismo, un hemisferio justifica que él tomó ciertas decisiones en base a la información que tiene (y que puede ser diferente del otro hemisferio).
Algunas personas no tienen una "voz interior" en su mente, y otras tienen diferntes grados de visualización mental. Si te digo que imagines una manzana, muchas personas pueden imaginar una manzana realista en su mente, otros solo una "caricatura", y algunas personas ni eso.
Sin embargo, sabemos que tenemos "consciencia" simplemente porque nosotros la tenemos, y asumimos que otras personas también porque describen fenómenos similares, pero con una máquina no tenemos dicha certeza...
#2 Mi problema con las teorías de la conciencia emergente en IA es que parece un parche para tapar lo que no sabemos todavía peor que la "materia oscura" de la que tiran los físicos cuando no les salen las cuentas.
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
#25, yo tampoco lo veo, lo que sí que veo es que habrá IAs que hablarán de forma indistinguible a si tuvieran conciencia de verdad y como hasta ahora no podemos falsear fidedignamente que un ente vivo con cerebro tenga conciencia tampoco lo podremos hacer con estas IAs. Pero repito, creo que desconocemos demasiado poco sobre cómo emerge la conciencia en entes biológicos como para pensar que desarrollando IAs muy inteligentes a la hora de resolver problemas, va a emerger sin más.
#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#25 quizas falta hardware para darle la chispa al firmware que cree al Frankestein.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
Tiene pinta de que tarde o temprano acabará saliendo. Una de las pocas zonas naturales que tenemos en pleno corazón de Huelva y están deseando infectarla, menuda plaga estamos hechos...
#3 La naturaleza está repleta de casos así de curiosos. Se me viene uno a la mente que lo leí en el Origen de las especies de C. Darwin de una planta, que creo que era un tipo de amapola o campanilla (no recuerdo bien), y tenía un sistema que hacia el insecto coleóptero que venía de turno a llevarse su néctar, caía a través de la flor, mojando las alas del insecto haciendo que tuviera que arrastrase para salir por otro lado y se impregnaban las alas con polen. Una maravilla
#7 Si la intención me parece genial, lo que viendo la trayectoria de los Teslas con los defectos que se dan, cómo responden a los defectos como empresa o la prepotencia de Musk, sencillamente no me da confianza que con el NeuraLink pueda acabar uno peor de cómo estaba.
#8 Los defectos de los Tesla son iguales que los del resto con la diferencia que que Tesla tiene muchos enemigos (la industria europea del automóvil) al igual que las firmas chinas.
Los taxistas que usan Teslas normalmente repiten.
#3 Obvio, es infinitamente más fiable Microsoft con todos los años de experiencia y recorrido que llevan que el zumbao éste. Para mí, lo único que merece la pena de Musk es lo que ha conseguido con SpaceX.
Cada vez me gusta menos Musk, parece que quiere el control del mundo. La verdad es que espero que cuando salga el NeuraLink se coma una mierda bien grande, porque este tío cada vez es menos fiable...
#4 El NeuraLink como otros tantos proyectos parecidos en todo el mundo consigue que gente con una mierda de vida pueda volver a hacer cosas cotidianas.
#8 Los defectos de los Tesla son iguales que los del resto con la diferencia que que Tesla tiene muchos enemigos (la industria europea del automóvil) al igual que las firmas chinas.
Los taxistas que usan Teslas normalmente repiten.
#8 Está claro que va haber saturación, siempre mandada a generar por un ser humano que quiere dinero. Cómo bien dice #12 habrá que usar IA para discriminar en futuras búsquedas.
En cualquier caso, al final quién decide si un producto es o no válido, es un ser humano, y visto que el reggaeton nunca muere, no me extraña que acabe petándolo música generada por IA en un futuro próximo...
#42 Te entiendo...es bastante impotente la situación
#30 Las sociedades del neolítico se preocupaban en comer y protegerse de los depredadores, obvio que murieran más. Tenían otros problemas.
Con 18 tienes que haber pasado experiencias de haberte muerto por alguna razon como para que sepas que morirte conlleva mucho sufrimiento.
Bueno, en la sociedad actual, las experiencias personales pueden variar muchísimo de unos a otros. Por eso no es válido decir sabes que te las tienes que comer, ese es el principal problema, porque hay algunas que son indigeribles y te acaban atormentando toda la vida, incluso haciendo que atormentes a otros.
Desde mi punto de vista, aquí faltan dos cosas:
1 - Más que sabido ya, la falta de psicólogos y psiquiatras públicos. De nada sirven citas cada 1 o 2 meses con sesiones de 20-30 minutos, que no, es completamente inútil. Las sesiones deben de ser al menos de 1 hora y, dependiendo del caso, de 1 vez a la semana a 1 al mes. Además, el match profesional-paciente es fundamental.
2 - La educación emocional. Nos enseñan con 12 años a poner condones en las escuelas, pero nada de intentar descifrar que nos mueve por dentro, porqué nos podemos sentir mal en determinadas circunstancias y como lidiar con ello. Parece tabú hablar de frustraciones ante un rechazo, desilusiones o anhelos, entre otras tantas cosas, para aprender a manejarse bien.
Hay que aceptar que la sociedad moderna tiene problemas y retos nuevos que debe abordar cuanto antes.
#19 Quizas deban de educar a la gente en que se van a morir, ... y que lo mejor que te puede pasar es morirte sin sufrir en un universo sin ningun sentido, donde existe el sufrimiento.
O lo que pasa es que la gente se monta religiones para dar sentido a ese sinsentido. Y luego hay que gente que se aprovecha de ello para montar sistemas jerarquicos de poder en esas religiones.
La sociedad moderna no tiene poblemas comparada con las sociedades del neolitico donde la gente moria mucho mas.
"porqué nos podemos sentir mal en determinadas circunstancias y como lidiar con ello. Parece tabú hablar de frustraciones ante un rechazo, desilusiones o anhelos, entre otras tantas cosas, para aprender a manejarse bien." Esto me suena a que no han puesto limites y forzado a lidiar con las frustraciones a estos individuos/as. De hecho no entiendo la frase... con 12 anios tienes que haber tenido unas cuantas bofetadas de realidad como para que sepas que con 18 eres un ente independiente que no le puedes estar dando por culo a tus padres economicamente y que puedes ir a una guerra si las hay. Con 18 tienes que haber pasado experiencias de haberte muerto por alguna razon como para que sepas que morirte conlleva mucho sufrimiento. Es decir, tienes que tener experiencia con el dolor fisico extremo en algun momento. Sentirte mal es normal y tener frustraciones es normal, y sabes que te las tienes que comer.
#30 Las sociedades del neolítico se preocupaban en comer y protegerse de los depredadores, obvio que murieran más. Tenían otros problemas.
Con 18 tienes que haber pasado experiencias de haberte muerto por alguna razon como para que sepas que morirte conlleva mucho sufrimiento.
Bueno, en la sociedad actual, las experiencias personales pueden variar muchísimo de unos a otros. Por eso no es válido decir sabes que te las tienes que comer, ese es el principal problema, porque hay algunas que son indigeribles y te acaban atormentando toda la vida, incluso haciendo que atormentes a otros.
#19 coincido.
Pues partiendo de que la mujer suele tener más capacidad empática, tiene sentido.
#10 La gente se toma las medidas de empatía de una forma errónea. La capacidad empática es la medida de respuesta emocional que la persona tiene a algo, algunas veces medida (cambios faciales, etc) y otras directamente la persona responde lo que siente, no tiene ninguna correlación con lo que la persona hace en consecuencia. Puedes tener una persona estoica que tenga una respuesta empática pequeña pero que esa cantidad sea suficiente para que se decida a ayudar, mientras que otra persona puede tener una respuesta empática grande que hasta la haga llorar pero que no sea suficiente como para que decida ayudar.
#1 muchas gracias por el aporte.
Por si no funciona el enlace de #1 como a mí. Aquí se puede leer
https://archive.ph/2024.03.26-192852/https://www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.html
Dejo por aquí el artículo completo, hay que suscribirse si se entra en la vanguardia pero si se entra desde Google se puede leer entero. Muy recomendable:
https://www.google.com/amp/s/www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.amp.html
#1 muchas gracias por el aporte.
Por si no funciona el enlace de #1 como a mí. Aquí se puede leer
https://archive.ph/2024.03.26-192852/https://www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.html
El historiador, filósofo y escritor israelí Yuval Noah Harari analiza el conflicto actual entre Israel y Palestina, indicando de donde vienen las motivaciones y cómo se debería solucionar. Tenemos poco control sobre las intenciones de los demás, pero deberíamos poder cambiar nuestras propias mentes. Por supuesto, lograr tal cambio es extremadamente difícil. Pero no es imposible. Ya hay numerosos individuos en ambos lados que desean el bien para el otro. Si su número aumenta, eventualmente deberían cambiar las políticas colectivas.
#teahorrounclick
Al final, las evidencias científicas actuales permiten concluir que, al menos con cierta moderación, el consumo habitual de café puede de hecho resultar bastante beneficioso. En el corto plazo, parece que mejora el ánimo, la vigilancia, el aprendizaje y el tipo de reacción. En el largo, podría proteger frente a condiciones del cerebro como el alzhéimer o el párkinson.
No obstante, es importante recordar que el consumo excesivo de cafeína podría provocar ansiedad, temblores, agitación y problemas de sueño, en función entre otras cosas de nuestra sensibilidad a la sustancia.
El Gobierno de EE.UU. aprobó la primera normativa nacional que establece nuevas regulaciones para varios componentes químicos nocivos en el agua potable. Pretende reducir la exposición a sustancias perfluoroalquiladas y polifluoroalquiladas, también conocidas como PFAS o “químicos eternos” asociados a diversas enfermedades, incluido el cáncer. Establece 4 partes por billón (ppb) para PFAS en el agua (antes 70 ppb). Obliga a administraciones estatales y empresas de agua a monitorear 5 tipos de PFAS, y les da 3 años para completar la evaluación.
Cáncer hasta en el agua del grifo. Me pregunto si con la de los pozos ocurrirá lo mismo, aunque en cualquier caso seguro que de los micro plásticos no se libra
#3 Mira los enlaces de #1. Igual que los microplásticos ya están en todas partes.
#4 A partir del año que viene van a intentar reducir su concentración en el agua del grifo.
El año pasado hubo una propuesta de la UE para prohibir el uso de más de 10.000 químicos permanentes pero creo que al final se rajaron.
#3 La verdad que no me queda claro, es lioso como está redactada la noticia. Yo he terminado entiendo que son 14.000 por los casi 6 meses de trabajo, aunque luego dice por 10 horas, en fin...
Paga 14.000 euros por 10 horas de trabajo a un artista que utiliza IA
Malec reveló que su compañía le ha pagado 14.000 euros por cada uno de los meses de trabajo
...asegura que cuentan con un artista principal que es capaz de crear más de 1.000 imágenes con IA en apenas seis meses. Por ello, Malec reveló que su compañía le ha pagado 14.000
¿El artista que ha trabajado, 5 minutos al día, el tiempo de poner un prompt?
En cualquier caso, eso son 2000€ y pico bruto al mes, lo que viene a ser un sueldo más o menos decente en los tiempos que corren si vives en una ciudad grande. Pues ala, ya estamos viendo cómo la IA empieza reemplazar puestos de trabajo...
Ojo, los andaluces tienen mucho campo para trabajar. Será mejor comprar en Marruecos y que estén más aun en la mierda mientras los insultamos por flojos.
Andalucía nos roba a Vascos y Catalanes, esto es evidente. Ellos no trabajan casi nada y tienen un plato de arroz diario para comer que no se merecen. Nosotros somos unas máquinas trabajando, listos y avanzandos, con la mejor industria porque somos listos y avanzados, y sin embargo no vamos todos en Ferrari.
Andalucía ens roba con los subsidios de los flojos.
#5 te lo has buscado tu solito
#12 a mi me gusta que le vaya bien al vecino porque hace tiempo me presto medios con los que me hice rico, pero si le va mal por lo que sea y necesita ayuda le digo que se busque la vida, que no es mi problema.
#17 Atención? Hombre, viendo los votos creo que atención sí.
Lo que no prestan por aquí es ironía.
#14 Los negativos son precisamente porque la gente ha pillado el sarcasmo.
#31 y naranjas.
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
¿Qué te hace humano? Sacar un juego a medio hacer, repleto de fallos y mal diseñado por las prisas de coger pasta.
Si, aún sigo traumatizado con lo que hicieron esta gente. Fui de los que lo compraron día 1 en PS4
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
Han obtenido más información sobre cómo los tardígrados sobreviven en condiciones extremas y han demostrado que las proteínas de las criaturas microscópicas expresadas en las células humanas pueden ralentizar los procesos moleculares. Esto convierte a las proteínas tardígradas en potenciales candidatas en tecnologías centradas en frenar el proceso de envejecimiento https://onlinelibrary.wiley.com/doi/10.1002/pro.4941
Veo granjas de tardígrados en 3...2...1...
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#120 No no los entienden. Solo procesan.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#3 Quizá nunca lo sabremos
#8 la Cibeles
#11 al menos algunos
Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.
Aunque como siempre, todo depende de las definiciones
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#5 Todos tienen consciencia, pero sólo algunos tienen autoconsiencia. Algunos chimpanzes y otros grandes simios, pasan algunos tests de "fase del espejo" al igual que los niños de 3 años. Otras especies como los cánidos o los felinos no pasan los tests de autconciencia, de momento que sepamos, no me sorprenderia que a través de mucha selección artificial/social, algunos collies llegaran a una proto-autoconciencia. También falta experimentar mucho con algunos cefalópodos, los pulpos presentan muchas cosas aun por comprender.
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
PD: Descartes es tu amigo.
#28 Esos tests del espejo están anticuados , por cosas como las que indica #34 . Intentar evaluar la capacidad cognitiva de otras especies, en base a parámetros que utilizamos para medir nuestra propia capacidad, sólo nos permite saber cuánto se pueden parecer, comparativamente, a la especie humana.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más fascinantes en este sentido, y que está arrojando investigaciones con resultados sorprendentes, son los que tienen que ver con las aves. Podría citar casos con los córvidos ya que son algunas de las especies más interesantes, pero con especies más pequeñas, como carboneros y herrerillos, ya se han podido demostrar algunos niveles de lenguaje complejo realmente interesantes.
#37 Estoy de acuerdo en que los tests del espejo están anticuados. Por otra parte, el tema de la autoconsciencia es diferente al tema de la inteligencia. El "problema de la consciencia" peca como ya señalo Chalmers de un dualismo excluyente intrínseco al problema mente-cuerpo. Los trabajos de por ejemplo Georg Northoff creo que dan un paso más allà al plantear un problema mente-mundo. Cuando por ejemplo uno medita y se sabe desde hace miles de años, la dualidad "desaparece", no por ello desapareciendo la inteligencia, sino no habria capacidad de agenciamiento, ni intencionalidad, ni experiencia de flujo, lo que se llama capacidad exteroceptiva en neuropsicología. I cuando "pensamos" o " o "reflexionamos" ( cogito, ergo sum), aparece toda la parte de dualidad, toda nuestra capacidad para pensar en categorías, dualidades, matemáticas, etc. Lo que se llama capacidad interoceptiva. Aquí te dejo una masterclass que lo desarrolla bien:
From brain to mind: A spatiotemporal approach
#60 Claro. Y más que podemos llegar a desgranar. Pero tampoco pretendía establecer aquí un tratado acerca de este tema, por mucho que me interese. Pero por tu último y completo comentario, entonces me sorprende aún más tu imprecisa reducción en tu primer comentario.
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle entendemos por inteligencia) es un tema siempre bastante controvertido, por la inevitable tentación de arrojar una valoración "humano centrista".
En algunos de los estudios que más conozco, por ejemplo, se ha utilizado la escala de CI de Louis Lefebvre, pero esa escala de por si no tiene porque representar los estudios de Chris Templeton acerca del lenguaje del carbonero. ¿porqué? Porque tal vez la importancia del lenguaje para el carbonero sea tan alta, que para nosotros resulte muy difícil comprender cómo de importante para su inteligencia es esa capacidad.
Es un ejemplo obvio pero lo pongo por si acaso: Una persona muda no deja de ser inteligente. Puede ser tan inteligente o más que yo. Eso es algo que como humanos sabemos. Por eso es muy arriesgado intentar trasladar estos parámetros a otras especies.
Ahora no me voy a acordar del nombre, pero hay estudios sorprendentes en esta misma dirección con abejorros, planteándoles una serie de problemas a modo de puzzle, que eran capaces de resolver.
Respecto a un intento de arrojar luz específicamente a las capacidades cognitivas, Herculano-Houzel tiene estudios intentando relacionar la cantidad de neuronas con las capacidades cognitivas.
Es interesante echar un ojo a sus estudios porque determina una forma de medir, cuantitativamente, la capacidad cognitiva, gracias a los resultados del % de neuronas en la corteza cerebral. Aunque como tampoco niegan... es como estar midiendo algo que no sabemos muy bien que es. Pero deja la puerta abierta a ese otro tipo de inteligencias.
Si han podido demostrar que, en los casos de especies que aún podemos llegar a poner a prueba (según las pruebas humanas) esa mayor concentración de neuronas en la corteza cerebral es la que permite unas mayores capacidades cognitivas... y nos encontramos con una especie (de ave por ejemplo) don un % que puede estar triplicando el de algunos mamíferos (como el del elefante) , pero no somos capaces de "entender" sus capacidades... ¿qué nos estaremos perdiendo? ¿qué es lo que no estamos viendo?
Con esto voy a tirar de un clásico, como Carl Sagan, la cuestión que planteaba creo que poniendo como ejemplo una serpiente como un alienígena muy inteligente, del cual, ambos seríamos totalmente inconscientes de la capacidad de inteligencia mútua, por la incapacidad de comunicarnos entre nosotros.
No digo que los estudiosos que tú planteas no sean útiles. Son cruciales. Pero es posible que estemos como humanos, bloqueados por la propia asíntota de que no podemos dejar de ser humanos cuando intentamos entender las capacidades de otras especies, y sólo podemos sorprendernos cuando se dan esas circunstancias que permiten un nexo comparativo entre diferentes formas de ser inteligente.
Llevamos con esta matraca desde Aristóteles con su scala naturae y en realidad, tampoco hemos avanzado mucho
Agradezco mucho tu comentario. Da gusto leer algo así.
#79 Muy buena reflexión. Le daré unas buenas vueltas a tu punto de vista y consultaré las referencias. Muy intersante los estudios de Herculano-Houzel. Y Aún más cuando metemos el lenguaje en la problemática. Muy de acuerdo con el problema de la "scala naturae" Aristotélica.
Si, es un gusto debatir así contigo. :)))
#178 Si los trabajos de Northoff, LeDoux o Pankseep, te parecen al mismo nivel que la mística de Jung...Ojo, el trabajo de Flake no és malo, pero de ahí a esperar que a través de la computación y la matemática puedan decir el "cómo" estamos a un buen trecho, es decir, no podemos ni simular por donde irá una hormiga a través de una mesa.
#5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.
#5 ¿A qué te refieres cuando hablas de animales (¿Estás excuyendo a los Homo sapiens de tu definición de 'animales'?)
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes
Pues pasa más o menos lo mismo que con las redes neuronales biológicas: sabemos que hacen cosas asombrosas hasta tal punto de que emerge consciencia, pero no entendemos exactamente cómo lo hacen. Por eso pienso que eso que llamamos consciencia acabará emergiendo en una IA sin haberlo previsto.
#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
#64 Si, y no... y razón no te falta, pero veamos.
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por tanto interfieren en dichas funciones, y en un cerebro completamente formado y adulto es muy poco probable que la maleabilidad funcional del propio cerebro, pueda compensar según que daños, obviamente resultará en fallas muy posiblemente letales.
No lo planteo en esos términos, sino en lo que comenta #52 como autoconciencia... y es ahi donde, obviamente, el mejor candidato será el cerebro, pero aún sigue siendo un misterio dicha autopercepción, en qué magnitud otras especies pueden estar experimentándola, cómo se mide y localiza dicha autopercepción, y cuando suceda en una IA, seremos capaces de reconocerla? O siquiera podemos empíricamente demostrar, que es imposible que eso suceda en una IA porque hay una causa o premisa que los organismos vivos si tenemos y las IA no?
Es a eso a lo que me refiero, y para nada digo que sea imposible que esté en el cerebro, pero también es cierto que estamos lejísimos aún de comprender cómo funciona el mismo, ni siquiera para la gran mayoría de sus funciones básicas, y menos aún en cuanto a lo que se refiere a la autopercepción. Qué elementos confinan un "yo"? cuantos yoes puede haber? Un organismo como el nuestro, que a su vez, contiene infinidad de organismos, cuantos "yoes" alberga? unos encapsulan a otros? hay transferencia o incluso consciencia de esos yoes entre ellos? Dudo que sea algo tan simple como plantearlo como un mero sistema mecánico que responde a impulsos... o quizás si sea posible y simplemente me resisto a creerlo.
#10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.
#10 wtf. Por esa regla de 3 el 99,9% de las especies del planeta estarían extintas.
#103 puede parecer que #10 lo mismo habla a largo plazo, pero no tiene ningún sentido tampoco porque hay especies muchísimo más viejas que el ser humano, mucho más básicas y sin ningún tipo de conciencia que siguen existiendo y seguramente seguirán existiendo despues de que el ser humano se haya extinguido
#2 correcto. Totalmente de acuerdo. La eacala hace al fenomeno. La misma neurona simple y predecible provoca a gran escala consciencia.
#2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y ocurre lo mismo, un hemisferio justifica que él tomó ciertas decisiones en base a la información que tiene (y que puede ser diferente del otro hemisferio).
Algunas personas no tienen una "voz interior" en su mente, y otras tienen diferntes grados de visualización mental. Si te digo que imagines una manzana, muchas personas pueden imaginar una manzana realista en su mente, otros solo una "caricatura", y algunas personas ni eso.
Sin embargo, sabemos que tenemos "consciencia" simplemente porque nosotros la tenemos, y asumimos que otras personas también porque describen fenómenos similares, pero con una máquina no tenemos dicha certeza...
#2 Mi problema con las teorías de la conciencia emergente en IA es que parece un parche para tapar lo que no sabemos todavía peor que la "materia oscura" de la que tiran los físicos cuando no les salen las cuentas.
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
#25, yo tampoco lo veo, lo que sí que veo es que habrá IAs que hablarán de forma indistinguible a si tuvieran conciencia de verdad y como hasta ahora no podemos falsear fidedignamente que un ente vivo con cerebro tenga conciencia tampoco lo podremos hacer con estas IAs. Pero repito, creo que desconocemos demasiado poco sobre cómo emerge la conciencia en entes biológicos como para pensar que desarrollando IAs muy inteligentes a la hora de resolver problemas, va a emerger sin más.
#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#25 quizas falta hardware para darle la chispa al firmware que cree al Frankestein.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
Segunda sentencia del TSJA contraria al plan urbanístico del Cabezo Mundaka. "La sentencia determina que el Ayuntamiento de Huelva ha incumplido la obligación de redactar un Plan Especial de Protección del Bien de Interés Cultural “Zona Arqueológica de Huelva”, dice Ecologistas. La organización ecologista recuerda que, además, está visto para sentencia en el TSJA un tercer recurso interpuesto por Huelva Te Mira sobre el plan urbanístico. Ambas asociaciones trabajan de forma coordinada para salvar los cabezos de la especulación,
Que digo yo, con todo el tema de los sentimientos encontrados con el turismo en la Palma por el volcán. ¿Porqué no se incentiva y las empresas beneficiadas destinan un porcentaje directamente a la gente afectada para reconstruir sus casas?
Pues eso, que no he salido hoy y tengo más tiempo para pensar
Pues partiendo de que la mujer suele tener más capacidad empática, tiene sentido.