edición general
kaotan

kaotan

En menéame desde diciembre de 2019

9,94 Karma
1.401 Ranking
1 Enviadas
1 Publicadas
3.734 Comentarios
0 Notas

¿Cuál es la verdadera causa de la debacle militar de Assad en Siria? [34]

  1. #33 Yo me movía por una calle paralela.

El nuevo modelo de ChatGPT intentó no apagarse a si mismo y después "mintió" sobre haberlo intentado [ENG] [249]

  1. #246 No logro acceder a ese paper, pero por la descripción de SciAm es un ejercicio en paralelismo masivo.
  1. #243 Una red neuronal es un invento funcional. Es funcional en el mismo sentido que una hoja de cálculo (ponle Excel). Hay unas celdas donde metes unos datos y luego hay otras celdas cuyo valor depende de los datos introducidos (como p. ej. sumarlos), y luego hay otras celdas que dependen de las anteriores y así vas haciendo hasta que aparece el gráfico que necesitas para tu presentación.

    Eso es todo en un invento funcional. No existe nada parecido a la consciencia, ni a la selección natural. Sí que es parecido a un código procedural, pues también se puede hacer lo mismo con algo procedural, pero es hasta ahí.

    La complejidad no es un factor relevante para este razonamiento.
  1. #241 No podemos analizar el comportamiento de una neurona porque es un autómata con estado.
  1. #221 Ese es el test edulcorado. Lo que el sarasa de Turing propuso es si a través de un chat es o no posible que una máquina sepa si el del otro lado es un hombre o una mujer.
  1. #224 No hay neuronas digitales, principalmente porque al no saber como funciona una neurona no sabemos qué replicar.
  1. #218 Claro que hay donde guardarlos, son las neuronas. Sabemos que es ahí porque no hay otro sitio que considerar.

    Eso de que están en "las conexiones" es una tontería que no voy ni a comentar. Ya lo hice una vez y hasta eso es excesivo.
  1. #215 Están los dos puntos de vista.

    Si lo miras por dentro, no tienen ningún lugar donde guardar conceptos. No es algo opcional, deberían estar si va a haber razonamiento

    Si lo miras desde fuera, ves el comportamiento.
    apple.slashdot.org/story/24/10/13/2145256/study-done-by-apple-ai-scien
  1. #212 Yo estoy en el otro lado, en compañía de Spinoza, Shroedinger, Einstein, ... y una tan Sabine de youtube que lleva la llamita del tema.
  1. #183 Los LLM actuales no tienen ninguna capacidad de pensamiento racional. Puedes buscar el último informe de Apple sobre esto.
  1. #207 Por lo que recuerdo, sacas una conclusión que no se sostiene por solamente ese experimento. Una interpretación alternativa es que la realidad es más compleja y le da la vuelta varias veces a lo que sucede en ese experimiento.

    estamos aquí en offtopic
  1. #191 No podemos entrar en este tema aquí. Es una discusión demasiado compleja. En un hilo específico sí que entraría al trapo.

    Sólo diré que hay quién usa cualquier cosa, lo que sea, para defender el libre albedrío, como por ejemplo Penrose y sus microtúbulos
    en.wikipedia.org/wiki/Orchestrated_objective_reduction

    Esto que hacen, se debe explicar dentro de la psicología.
  1. #68 A las preguntas les sigue una respuesta. Hasta una IA sabe eso. :-D
  1. #149 Sin nuevos inputs seguirá respondiendo con los mismos errores.
  1. #89 Corre por ahí la idea de que una IA puede distinguir la foto de un perro de la de un gato gracias a su entrenamiento, que consiste en mirar muchas fotos de perros y de gatos.

    Esto no va así. Hay un humano que a cada foto le pega una etiqueta que dice "perro" o dice "gato".

    Una IA necesita miles y miles de fotos de gatos, en cada postura posible, debidamente etiquetadas, para poder identificar a un gato. Un bebé humano puede hacerlo incluso mejor a partir de unos pocos ejemplos, porque el bebé los liga al concepto de gato y usa eso. Una IA no puede hacer lo que el humano.
  1. #94 Eso ya lo discutimos en otra ocasión, y no estoy de acuerdo con esa interpretación de los datos.
  1. #80 Respuesta corta: NO.

    Una red neuronal es un invento que no tiene nada que ver con un cerebro.

    Es cierto que el tipo que lo inventó DIJO que se había INSPIRADO en las conexiones del cerebro, que es algo muy distinto que copiar las conexiones del cerebro. En realidad no tiene nada que ver una cosa con la otra.

    Fue más que nada hacer marketing.

    Pero lo principal que hay que entender es que un cerebro tiene neuronas, que es donde se hace el procesado de la información. Una red neuronal no tiene neuronas.
  1. #91 ChatGPT se come tanta energía que eso es un problema por sí mismo. Es una solución muy a base de fuerza bruta.
  1. #95 Sorrillo empezó a discutirme cosas de mecánica cuántica hace años. Al principio decía cosas sensatas y poco a poc fue liándose más y más mezclandolo todo viniera a cuento o no. Ahora está en una fase de creerse cosas. Pero la base científica la tiene.
  1. #44 Así funciona el entrenamiento de una red neuronal, pero lo que te están diciendo es un símil con un programa de ordenador normal y corriente.
  1. #93 Me gustan los comentarios razonados en este hilo.
  1. #53 Tu definición de cerebro es excesivamente amplia.
  1. #144 Una neurona posee memoria.
  1. #109 El determinismo es algo innegable y sus consecuencias son inevitables.
  1. #96 No lo podemos saber ya que desconocemos como funciona una neurona por dentro. Pero sí que sabemos que una neurona está relacionada con un concepto, o con muy pocos conceptos. Una red neuronal no maneja conceptos.
« anterior1

menéame