LotSinAzufre

Ojo, los andaluces tienen mucho campo para trabajar. Será mejor comprar en Marruecos y que estén más aun en la mierda mientras los insultamos por flojos.

Andalucía nos roba a Vascos y Catalanes, esto es evidente. Ellos no trabajan casi nada y tienen un plato de arroz diario para comer que no se merecen. Nosotros somos unas máquinas trabajando, listos y avanzandos, con la mejor industria porque somos listos y avanzados, y sin embargo no vamos todos en Ferrari.

Andalucía ens roba con los subsidios de los flojos.

Maximilian

#5 te lo has buscado tu solito

manbobi

#5 A los vascos y navarros nos parece genial que les vaya bien a todos, para algo tenemos nuestras propias haciendas.

LotSinAzufre

#12 a mi me gusta que le vaya bien al vecino porque hace tiempo me presto medios con los que me hice rico, pero si le va mal por lo que sea y necesita ayuda le digo que se busque la vida, que no es mi problema.

manbobi

#15 A ti no te presta nadie nada, ni atención y no me extraña

LotSinAzufre

#17 Atención? Hombre, viendo los votos creo que atención sí.

Lo que no prestan por aquí es ironía.

M

#5 Perdónales, en meneame a muchos les cuesta pillar el sarcasmo.

#14 Los negativos son precisamente porque la gente ha pillado el sarcasmo.

manbobi

#26 A algunos hay que explicárselo todo...

M

#26 Pues si han pillado el sarcasmo, entonces, están tomándoselo bastante a mala leche.

Pero bueno, allá cada uno con sus fantasmas

Ne0

#5 Para eso tenemos el arrozal mas grande de la península, para que tu también comas arroz.

LotSinAzufre

#31 y naranjas.

ErMijita

#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.

Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.

ErMijita

¿Qué te hace humano? Sacar un juego a medio hacer, repleto de fallos y mal diseñado por las prisas de coger pasta.

Si, aún sigo traumatizado con lo que hicieron esta gente. Fui de los que lo compraron día 1 en PS4 wall

arturios

#6 "errare humanum est", al final lo arreglaron bastante y jugarlo ha sido entretenido.

ErMijita

#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.

Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.

ErMijita

#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.

¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.

De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.

¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?

Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria

Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.

sauron34_1

#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro

Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.

ErMijita

#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.

#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.

c

#135 Pruebo a hacerle preguntas que un niño de 7 años responde con lógica y ChatGPT es incapaz de hacerlo.

No "entiende" nada. "Gato" es un patrón y existen programas que pintan en AsCIi desde.hace.eones.

S

#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.

En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.

I

#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.

ErMijita

#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.

#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.

I

#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.

El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.

ErMijita

#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.

#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.

c

#135 Pruebo a hacerle preguntas que un niño de 7 años responde con lógica y ChatGPT es incapaz de hacerlo.

No "entiende" nada. "Gato" es un patrón y existen programas que pintan en AsCIi desde.hace.eones.

S

#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.

En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.

I

#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.

c

#120 No no los entienden. Solo procesan.

si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.

Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".

No, no hay cambios en su fusiología.

ErMijita

#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.

Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.

No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.

Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.

sauron34_1

#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor

ErMijita

#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.

¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.

De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.

¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?

Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria

Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.

sauron34_1

#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro

Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.

ErMijita

#7 #2 Precisamente lo digo por eso, la consciencia probablemente se de por un proceso natural de la unión de un número de neuronas.

D

#19 Habría que ver cuál es el mecanismo, y también el por qué. Desde una perspectiva física, parece completamente innecesario que los organismos tengan consciencia además de sus conexiones neuronales.

d

#19 Eso no tiene ninguna clase de sentido.

ErMijita

#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.

sauron34_1

#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.

x

#4 los animales tienen inteligencia sin conciencia

D

#5 ¿Fuente?

#8 la Cibeles

d

#5 Los animales son perfectamente conscientes. No creo que sea necesario razonar esto. Lo considero muy evidente.

hasta_los_cojones

#11 al menos algunos

Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.

Aunque como siempre, todo depende de las definiciones

ErMijita

#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.

sauron34_1

#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.

B.Vallejo

#5 Todos tienen consciencia, pero sólo algunos tienen autoconsiencia. Algunos chimpanzes y otros grandes simios, pasan algunos tests de "fase del espejo" al igual que los niños de 3 años. Otras especies como los cánidos o los felinos no pasan los tests de autconciencia, de momento que sepamos, no me sorprenderia que a través de mucha selección artificial/social, algunos collies llegaran a una proto-autoconciencia. También falta experimentar mucho con algunos cefalópodos, los pulpos presentan muchas cosas aun por comprender.

-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.

PD: Descartes es tu amigo.

ummon

#28 Un cánido jamás va a pasar el test del espejo por una sencilla razón: Su sentido del olfato es muy superior al nuestro y esta tan integrado con su percepción que no pasa un teste que esta pensado para seres que su sentido principal es la vista.

Tuatara

#28 Esos tests del espejo están anticuados , por cosas como las que indica #34 . Intentar evaluar la capacidad cognitiva de otras especies, en base a parámetros que utilizamos para medir nuestra propia capacidad, sólo nos permite saber cuánto se pueden parecer, comparativamente, a la especie humana.

A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más fascinantes en este sentido, y que está arrojando investigaciones con resultados sorprendentes, son los que tienen que ver con las aves. Podría citar casos con los córvidos ya que son algunas de las especies más interesantes, pero con especies más pequeñas, como carboneros y herrerillos, ya se han podido demostrar algunos niveles de lenguaje complejo realmente interesantes.

B.Vallejo

#37 Estoy de acuerdo en que los tests del espejo están anticuados. Por otra parte, el tema de la autoconsciencia es diferente al tema de la inteligencia. El "problema de la consciencia" peca como ya señalo Chalmers de un dualismo excluyente intrínseco al problema mente-cuerpo. Los trabajos de por ejemplo Georg Northoff creo que dan un paso más allà al plantear un problema mente-mundo. Cuando por ejemplo uno medita y se sabe desde hace miles de años, la dualidad "desaparece", no por ello desapareciendo la inteligencia, sino no habria capacidad de agenciamiento, ni intencionalidad, ni experiencia de flujo, lo que se llama capacidad exteroceptiva en neuropsicología. I cuando "pensamos" o " o "reflexionamos" ( cogito, ergo sum), aparece toda la parte de dualidad, toda nuestra capacidad para pensar en categorías, dualidades, matemáticas, etc. Lo que se llama capacidad interoceptiva. Aquí te dejo una masterclass que lo desarrolla bien:

From brain to mind: A spatiotemporal approach



Los trabajos de Joseph LeDoux, sobretodo estos últimos dos años que por abreviación no voy a desarrollar, van bastante en la línea de lo que desarrollas en el que cognición, inteligencia i consciencia, están intrínsecamente conectados (abogando porqué el problema duro de la consciencia no se puede resolver) peró aún no sabemos, como por ejemplo la tabla de instintos de Panksepp (Neurociencia afectiva) que asignan unos neurotransmisores y neuromoduadores a una capacidades afectivas, de aprendizaje e intelectivas, que tenemos todos los mamíferos, se conectan con la consciencia. Pero "más o menos" si la inteligencia. A saber, afectos y capacidad de discriminación segun circunstancias (inteligencia)

-Búsqueda/ sistema de espectativas
-Rabia/Agresividad
-Miedo/Ansiedad
-Deseo/Sexualidad
-Cuidado/Educación
-Pánico/Separación
-Juego/Alegría

Cómo de ello sale nuestra capacidad de auto-consciencia reflexiva, sigue siendo un puto misterio. Considerando el emergentismo un ad-hoc, claro esta. He de ir a currar lo siento, me encantaria desarrollarlo más. Pero me encantaria que me pudieras pasar algunos links o libros sobre los trabajos con animalicos, sería fenomenal, es un tema muy fascinante.

Muchas gracias, :)))).

Tuatara

#60 Claro. Y más que podemos llegar a desgranar. Pero tampoco pretendía establecer aquí un tratado acerca de este tema, por mucho que me interese. Pero por tu último y completo comentario, entonces me sorprende aún más tu imprecisa reducción en tu primer comentario.
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle entendemos por inteligencia) es un tema siempre bastante controvertido, por la inevitable tentación de arrojar una valoración "humano centrista".
En algunos de los estudios que más conozco, por ejemplo, se ha utilizado la escala de CI de Louis Lefebvre, pero esa escala de por si no tiene porque representar los estudios de Chris Templeton acerca del lenguaje del carbonero. ¿porqué? Porque tal vez la importancia del lenguaje para el carbonero sea tan alta, que para nosotros resulte muy difícil comprender cómo de importante para su inteligencia es esa capacidad.
Es un ejemplo obvio pero lo pongo por si acaso: Una persona muda no deja de ser inteligente. Puede ser tan inteligente o más que yo. Eso es algo que como humanos sabemos. Por eso es muy arriesgado intentar trasladar estos parámetros a otras especies.
Ahora no me voy a acordar del nombre, pero hay estudios sorprendentes en esta misma dirección con abejorros, planteándoles una serie de problemas a modo de puzzle, que eran capaces de resolver.
Respecto a un intento de arrojar luz específicamente a las capacidades cognitivas, Herculano-Houzel tiene estudios intentando relacionar la cantidad de neuronas con las capacidades cognitivas.
Es interesante echar un ojo a sus estudios porque determina una forma de medir, cuantitativamente, la capacidad cognitiva, gracias a los resultados del % de neuronas en la corteza cerebral. Aunque como tampoco niegan... es como estar midiendo algo que no sabemos muy bien que es. Pero deja la puerta abierta a ese otro tipo de inteligencias.
Si han podido demostrar que, en los casos de especies que aún podemos llegar a poner a prueba (según las pruebas humanas) esa mayor concentración de neuronas en la corteza cerebral es la que permite unas mayores capacidades cognitivas... y nos encontramos con una especie (de ave por ejemplo) don un % que puede estar triplicando el de algunos mamíferos (como el del elefante) , pero no somos capaces de "entender" sus capacidades... ¿qué nos estaremos perdiendo? ¿qué es lo que no estamos viendo?
Con esto voy a tirar de un clásico, como Carl Sagan, la cuestión que planteaba creo que poniendo como ejemplo una serpiente como un alienígena muy inteligente, del cual, ambos seríamos totalmente inconscientes de la capacidad de inteligencia mútua, por la incapacidad de comunicarnos entre nosotros.

No digo que los estudiosos que tú planteas no sean útiles. Son cruciales. Pero es posible que estemos como humanos, bloqueados por la propia asíntota de que no podemos dejar de ser humanos cuando intentamos entender las capacidades de otras especies, y sólo podemos sorprendernos cuando se dan esas circunstancias que permiten un nexo comparativo entre diferentes formas de ser inteligente.

Llevamos con esta matraca desde Aristóteles con su scala naturae y en realidad, tampoco hemos avanzado mucho


Agradezco mucho tu comentario. Da gusto leer algo así.

B.Vallejo

#79 Muy buena reflexión. Le daré unas buenas vueltas a tu punto de vista y consultaré las referencias. Muy intersante los estudios de Herculano-Houzel. Y Aún más cuando metemos el lenguaje en la problemática. Muy de acuerdo con el problema de la "scala naturae" Aristotélica.

Si, es un gusto debatir así contigo. :)))

a

#60 Eso suena a vendehumos sociológico tipo Carl Jung. Me frío más de The Computational Beauty of Nature y como reglas simples generan sistemas complejos.

B.Vallejo

#178 Si los trabajos de Northoff, LeDoux o Pankseep, te parecen al mismo nivel que la mística de Jung...Ojo, el trabajo de Flake no és malo, pero de ahí a esperar que a través de la computación y la matemática puedan decir el "cómo" estamos a un buen trecho, es decir, no podemos ni simular por donde irá una hormiga a través de una mesa.

sauron34_1

#34 #37 iba a comentar justo esto. Está tan anticuado el test del espejo que hasta en Netflix hay un documental que explica lo que estáis diciendo.

crycom

#28 Los cuervos lo pasan.

B.Vallejo

#44 Tienes toda la razón. Gracias por recordarlo.

C

#28 Descartes era tan sólo un fanático religioso que lo escondía bajo capas y capas de razonamientos abstractos, además de un torturador de animales.

B.Vallejo

#81 Eso es un Ad-Hominem de manual.

Pandacolorido

#5 #28 #80 Las esponjas son animales, solo os lo recuerdo.

troll_hdlgp

#5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.

#5 ¿A qué te refieres cuando hablas de animales (¿Estás excuyendo a los Homo sapiens de tu definición de 'animales'?)

¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?

x

#80 con animal me refería a no humano, y con conciencia a conciencia plena.

a

#5 Difícil decir eso de cuervos, ballenas, pulpos, simios superiores...

m

#5 como tu pero quitando bastante inteligencia.

ErMijita

Pues pasa más o menos lo mismo que con las redes neuronales biológicas: sabemos que hacen cosas asombrosas hasta tal punto de que emerge consciencia, pero no entendemos exactamente cómo lo hacen. Por eso pienso que eso que llamamos consciencia acabará emergiendo en una IA sin haberlo previsto.

x

#2 o no

ErMijita

#3 Quizá nunca lo sabremos

D

#2 Lo de que "emerge" conciencia es una teoría, pero no hay ninguna evidencia de esa "emergencia". La consciencia podría ser simplemente una propiedad de la realidad. No existe ninguna realidad conocida fuera del ámbito de una consciencia.

ErMijita

#7 #2 Precisamente lo digo por eso, la consciencia probablemente se de por un proceso natural de la unión de un número de neuronas.

D

#19 Habría que ver cuál es el mecanismo, y también el por qué. Desde una perspectiva física, parece completamente innecesario que los organismos tengan consciencia además de sus conexiones neuronales.

d

#19 Eso no tiene ninguna clase de sentido.

L

#7 solipsismo?

apetor

#2 #25 #35 #38 #43 #7 ... Conciencia y consciencia si, otra cosa es autoconsciencia o consciencia del Yo y demas. Que eso ya tiene pinta de ser algo limitado a pocos animales.

M

#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.

Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.

Edheo

#64 Si, y no... y razón no te falta, pero veamos.

El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.

Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.

Las lesiones, también por tanto interfieren en dichas funciones, y en un cerebro completamente formado y adulto es muy poco probable que la maleabilidad funcional del propio cerebro, pueda compensar según que daños, obviamente resultará en fallas muy posiblemente letales.

No lo planteo en esos términos, sino en lo que comenta #52 como autoconciencia... y es ahi donde, obviamente, el mejor candidato será el cerebro, pero aún sigue siendo un misterio dicha autopercepción, en qué magnitud otras especies pueden estar experimentándola, cómo se mide y localiza dicha autopercepción, y cuando suceda en una IA, seremos capaces de reconocerla? O siquiera podemos empíricamente demostrar, que es imposible que eso suceda en una IA porque hay una causa o premisa que los organismos vivos si tenemos y las IA no?

Es a eso a lo que me refiero, y para nada digo que sea imposible que esté en el cerebro, pero también es cierto que estamos lejísimos aún de comprender cómo funciona el mismo, ni siquiera para la gran mayoría de sus funciones básicas, y menos aún en cuanto a lo que se refiere a la autopercepción. Qué elementos confinan un "yo"? cuantos yoes puede haber? Un organismo como el nuestro, que a su vez, contiene infinidad de organismos, cuantos "yoes" alberga? unos encapsulan a otros? hay transferencia o incluso consciencia de esos yoes entre ellos? Dudo que sea algo tan simple como plantearlo como un mero sistema mecánico que responde a impulsos... o quizás si sea posible y simplemente me resisto a creerlo.

D

#52 ¿Una araña no tiene consciencia?

a

#52 Una pista: retroalimentación.

d

#7 Joder con Kant.

d

#2 No tiene por qué. La consciencia es un resultado de la evolución que es necesario para sobrevivir. SI no tienes consciencia se te comen y no dejas descendencia.

No hay ningún motivo por la que deba "surgir" sólo porque sí.

MisturaFina

#10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.

I

#10 ¿Estás diciendo que una bacteria tiene consciencia? ¿o una lechuga? ¿O no la tienen porque hay otro ser vivo que se las comen? ¿Un pollo o una vaca tienen consciencia?

I

#154 según #10 si se te comen eres un inconsciente

#10 wtf. Por esa regla de 3 el 99,9% de las especies del planeta estarían extintas.

#103 puede parecer que #10 lo mismo habla a largo plazo, pero no tiene ningún sentido tampoco porque hay especies muchísimo más viejas que el ser humano, mucho más básicas y sin ningún tipo de conciencia que siguen existiendo y seguramente seguirán existiendo despues de que el ser humano se haya extinguido

MisturaFina

#2 correcto. Totalmente de acuerdo. La eacala hace al fenomeno. La misma neurona simple y predecible provoca a gran escala consciencia.

d

#15 Para nada. La gran mayoría de funciones cerebrales son inconscientes.

S

#2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.

En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y ocurre lo mismo, un hemisferio justifica que él tomó ciertas decisiones en base a la información que tiene (y que puede ser diferente del otro hemisferio).

Algunas personas no tienen una "voz interior" en su mente, y otras tienen diferntes grados de visualización mental. Si te digo que imagines una manzana, muchas personas pueden imaginar una manzana realista en su mente, otros solo una "caricatura", y algunas personas ni eso.

Sin embargo, sabemos que tenemos "consciencia" simplemente porque nosotros la tenemos, y asumimos que otras personas también porque describen fenómenos similares, pero con una máquina no tenemos dicha certeza...

d

#22 Es interesante eso de inventar excusas para justificar decisiones tomadas por otro lado. Todos los creyentes lo hacen, sin excepción.

yemeth

#2 Mi problema con las teorías de la conciencia emergente en IA es que parece un parche para tapar lo que no sabemos todavía peor que la "materia oscura" de la que tiran los físicos cuando no les salen las cuentas.

Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.

Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.

Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.

Edheo

#25 Bueno, realmente, el qué es la consciencia.. es algo que ni empírica, ni científicamente, ha tenido ninguna explicación aún plausible, constatable... ni tan siquiera hay rotundidad demostrable de si la misma radica en el cerebro, en el caso de los humanos.

#25, yo tampoco lo veo, lo que sí que veo es que habrá IAs que hablarán de forma indistinguible a si tuvieran conciencia de verdad y como hasta ahora no podemos falsear fidedignamente que un ente vivo con cerebro tenga conciencia tampoco lo podremos hacer con estas IAs. Pero repito, creo que desconocemos demasiado poco sobre cómo emerge la conciencia en entes biológicos como para pensar que desarrollando IAs muy inteligentes a la hora de resolver problemas, va a emerger sin más.

sauron34_1

#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.

ErMijita

#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.

Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.

No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.

Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.

a

#88 >porque se puede reprogramar a sí mismo

Existen programas que se reprogramasn así mismos desde la época del Spectrum.

En cualquier máquina de Turing puedes reescribir la cinta.

caramelosanto

#25 quizas falta hardware para darle la chispa al firmware que cree al Frankestein.

m

#25 No entiendo por qué no, si puede entender el exterior puede entender su propio funcionamiento y existencia, es decir ser consciente.

d

#2 La consciencia no "emerge". Es una función cerebral predeterminada biológicamente, con sus zonas dedicadas en el cerebro.

c

#2 Y como va a hacerlo si no cambia fisiológicamente o si los cambios son específicos y pensados?

ErMijita

#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.

#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.

I

#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.

Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.

p

#2 tanto racionalismo científico moderno y al final desembocáis en lo mismo que el oscurantismo religioso lol

la historia es cíclica

senador

#2 ... y que, tarde o temprano, se nos acabará yendo de las manos.

ErMijita

Tiene pinta de que tarde o temprano acabará saliendo. Una de las pocas zonas naturales que tenemos en pleno corazón de Huelva y están deseando infectarla, menuda plaga estamos hechos...

ChatGPT

"Se baraja una muerte voluntaria"

SUICIDIO


Putos eufemismos

PaulDurden

#3 Sí, menudos huevos tiene el redactor...

ErMijita

#3 La naturaleza está repleta de casos así de curiosos. Se me viene uno a la mente que lo leí en el Origen de las especies de C. Darwin de una planta, que creo que era un tipo de amapola o campanilla (no recuerdo bien), y tenía un sistema que hacia el insecto coleóptero que venía de turno a llevarse su néctar, caía a través de la flor, mojando las alas del insecto haciendo que tuviera que arrastrase para salir por otro lado y se impregnaban las alas con polen. Una maravilla

ErMijita

#7 Si la intención me parece genial, lo que viendo la trayectoria de los Teslas con los defectos que se dan, cómo responden a los defectos como empresa o la prepotencia de Musk, sencillamente no me da confianza que con el NeuraLink pueda acabar uno peor de cómo estaba.

flyingclown

#8 Los defectos de los Tesla son iguales que los del resto con la diferencia que  que Tesla tiene muchos enemigos  (la industria europea del automóvil) al igual que las firmas chinas.
Los taxistas que usan Teslas normalmente repiten.

ErMijita

#3 Obvio, es infinitamente más fiable Microsoft con todos los años de experiencia y recorrido que llevan que el zumbao éste. Para mí, lo único que merece la pena de Musk es lo que ha conseguido con SpaceX.

Suigetsu

#5 Obvio, es infinitamente más fiable Microsoft
Hace 10 años en meneame te banean por decir esto. lol lol

ErMijita

Cada vez me gusta menos Musk, parece que quiere el control del mundo. La verdad es que espero que cuando salga el NeuraLink se coma una mierda bien grande, porque este tío cada vez es menos fiable...

flyingclown

#4 El NeuraLink como otros tantos proyectos parecidos en todo el mundo consigue que gente con una mierda de vida pueda volver a hacer cosas cotidianas. 

ErMijita

#7 Si la intención me parece genial, lo que viendo la trayectoria de los Teslas con los defectos que se dan, cómo responden a los defectos como empresa o la prepotencia de Musk, sencillamente no me da confianza que con el NeuraLink pueda acabar uno peor de cómo estaba.

flyingclown

#8 Los defectos de los Tesla son iguales que los del resto con la diferencia que  que Tesla tiene muchos enemigos  (la industria europea del automóvil) al igual que las firmas chinas.
Los taxistas que usan Teslas normalmente repiten.

ErMijita

#8 Está claro que va haber saturación, siempre mandada a generar por un ser humano que quiere dinero. Cómo bien dice #12 habrá que usar IA para discriminar en futuras búsquedas.

En cualquier caso, al final quién decide si un producto es o no válido, es un ser humano, y visto que el reggaeton nunca muere, no me extraña que acabe petándolo música generada por IA en un futuro próximo...

ErMijita

#42 Te entiendo...es bastante impotente la situación

ErMijita

#30 Las sociedades del neolítico se preocupaban en comer y protegerse de los depredadores, obvio que murieran más. Tenían otros problemas.

Con 18 tienes que haber pasado experiencias de haberte muerto por alguna razon como para que sepas que morirte conlleva mucho sufrimiento.

Bueno, en la sociedad actual, las experiencias personales pueden variar muchísimo de unos a otros. Por eso no es válido decir sabes que te las tienes que comer, ese es el principal problema, porque hay algunas que son indigeribles y te acaban atormentando toda la vida, incluso haciendo que atormentes a otros.

ErMijita

Desde mi punto de vista, aquí faltan dos cosas:

1 - Más que sabido ya, la falta de psicólogos y psiquiatras públicos. De nada sirven citas cada 1 o 2 meses con sesiones de 20-30 minutos, que no, es completamente inútil. Las sesiones deben de ser al menos de 1 hora y, dependiendo del caso, de 1 vez a la semana a 1 al mes. Además, el match profesional-paciente es fundamental.

2 - La educación emocional. Nos enseñan con 12 años a poner condones en las escuelas, pero nada de intentar descifrar que nos mueve por dentro, porqué nos podemos sentir mal en determinadas circunstancias y como lidiar con ello. Parece tabú hablar de frustraciones ante un rechazo, desilusiones o anhelos, entre otras tantas cosas, para aprender a manejarse bien.

Hay que aceptar que la sociedad moderna tiene problemas y retos nuevos que debe abordar cuanto antes.

Polarin

#19 Quizas deban de educar a la gente en que se van a morir, ... y que lo mejor que te puede pasar es morirte sin sufrir en un universo sin ningun sentido, donde existe el sufrimiento.
O lo que pasa es que la gente se monta religiones  para dar sentido a ese sinsentido. Y luego hay que gente que se aprovecha de ello para montar sistemas jerarquicos de poder en esas religiones. 
La sociedad moderna no tiene poblemas comparada con las sociedades del neolitico donde la gente moria mucho mas. 
"porqué nos podemos sentir mal en determinadas circunstancias y como lidiar con ello. Parece tabú hablar de frustraciones ante un rechazo, desilusiones o anhelos, entre otras tantas cosas, para aprender a manejarse bien."  Esto me suena a que no han puesto limites y forzado a lidiar con las frustraciones a estos individuos/as. De hecho no entiendo la frase... con 12 anios tienes que haber tenido unas cuantas bofetadas de realidad como para que sepas que con 18 eres un ente independiente que no le puedes estar dando por culo a tus padres economicamente y que puedes ir a una guerra si las hay. Con 18 tienes que haber pasado experiencias de haberte muerto por alguna razon como para que sepas que morirte conlleva mucho sufrimiento. Es decir, tienes que tener experiencia con el dolor fisico extremo en algun momento. Sentirte mal es normal y tener frustraciones es normal, y sabes que te las tienes que comer. 
 
 
 

ErMijita

#30 Las sociedades del neolítico se preocupaban en comer y protegerse de los depredadores, obvio que murieran más. Tenían otros problemas.

Con 18 tienes que haber pasado experiencias de haberte muerto por alguna razon como para que sepas que morirte conlleva mucho sufrimiento.

Bueno, en la sociedad actual, las experiencias personales pueden variar muchísimo de unos a otros. Por eso no es válido decir sabes que te las tienes que comer, ese es el principal problema, porque hay algunas que son indigeribles y te acaban atormentando toda la vida, incluso haciendo que atormentes a otros.

Sendas_de_Vida

#19 coincido.