Errores en un nuevo sistema para configurar los grupos retrasan la docencia en varias facultades y dejan a 400 alumnos afectados por el solapamiento de clases
#10 Nativos digitales que no saben ni que componentes tiene el ordenador. Nativos digitales que no saben imprimir un word, porque nunca han usado algo que conectase con una impresora. O que te dicen, sin sonrojarse, que los ordenadores nuevos estan wapos pero que habria que quitar esas cajas negras que tienen al lado (sí, confunden pantalla con ordenador).
#2 literalmente. No solo alguien no sabe usar la herramienta, sino que ni se han molestado en revisar el resultado. Ni cosas tan básicas como que no puedes meter 160 personas en una clase de 90...
En fin, habría sido muchísimo más fácil hacer el reparto y asignación con un algoritmo normalito, hasta configurable en Excel con un simple SOLVER, que usar IA...
#1 Yo esto nunca lo he entendido.
Es una noticia de mierda. Es falsa. Busca engañar al lector. ¿ Y la compartes ? ¿ Por qué compartir basura ? ¿ Nos gusta vivir en un mundo rodeados de basura ?
#1 Pues no sé, a mi me parece una cagada en tiempo y recursos. Primero, por lo que se lee es una implantación de un sistema propio, con lo cual lo han tenido que entrenar y alimentarlo de datos, que no salen del aire precisamente ni tampoco son pocos si quieres un resultado medio decente. A saber como lo han hecho. Pero es que encima seguro que un algoritmo pensado por un humano lo habría hecho mejor y con menor coste. La parte mas pesada no es mas que establecer una serie de reglas y establecer su prioridad de aplicación, que es donde está el meollo. Es trabajo de humanos mas que de IA.
La frase que mas uso en el curro es que cada herramienta para cada tarea, que lo de martillos para tornillos no va muy bien.
#16 No paro de repetirlo, no hay necesidad ni es recomendable usar IA para algo que lo resuelve mejor un algoritmo. Por consumo de recursos, por fiabilidad, por todo...
Si quieres, usa IA para que te ayude a configurar ese algoritmo, y usa IA para una interfaz en lenguaje natural de los inputs. Pero una vez con los datos, es preferible que un algoritmo puro haga todo el reparto de alumnos, horarios y aulas.
#1 Pues yo dudo que se haya utilizado la IA para generar este caos.
La propia noticia habla en varias ocasiones de «el algoritmo» y un algoritmo no es necesariamente IA.
Tiene toda la pinta de que han intentado automatizar un proceso (que no es sencillo) y nadie ha comprobado si lo que hacía «el algoritmo» era correcto o una metida de pata descomunal.
Pero hoy, con el comodín de la IA nadie tiene la culpa de nada.
#31 me huelo lo mismo... Últimamente se ha puesto de moda llamar a cualquier cosa automatizada programaticamente como "automátizado por IA" y es evidentemente algoritmia de toda la vida de dios
He visto anunciadas herramientas de estas que te "organizan la agenda de la forma más eficiente". Creo que lo único que hacen es pasarle un query a algún LLM para que responda lo que le dé la gana.
El uso de IA tiene un coste grande que pasa por la ncecesidad de revisar, y en su caso corregir, las salidas que dé.
#12 Realmente, la realización de horarios, con gestión de aulas, alumnos, materias y profes, etc no es un problema sencillo. No existe un algoritmo determinista que lo resuelva. Existen aproximaciones iterativas, algoritmos genéticos y otros métodos. Pero no son deterministas.
#12 estas cosas se deben hacer usando el software correspondiente en cada caso, el problema es que hoy en día todo se lo pasan al LLM de turno... Como si realmente supiera lo que hace
#21 En primer lugar, no has definido nada. Sólo has desplazado la pregunta de "qué es el razonamiento" a "qué es la consciencia", sin definir ninguna.
En segundo lugar, no es cierto. Existen animales con grados muy diferentes de metacognición y autoconsciencia reflexiva que exhiben a su vez capacidades muy desiguales de razonamiento causal, espacial y manipulativo. También existen sistemas de lógica formal.
#36 Aunque esa no es tu afirmación original, sino una versión más fuerte, tampoco es cierto. Los sistemas de lógica formal y prueba automática de teoremas lo hacen y no son conscientes.
También hay una gran cantidad de sistemas orientados a (por ejemplo) jugar al ajedrez o evaluar el plegado de proteínas mediante el desarrollo de estrategias nuevas mediante en entornos definidos por reglas y objetivos.
#43 Tampoco lo hacen muchos humanos...
Existen una gran cantidad de sistemas que funcionan como agentes hasta cierto punto autónomos. Algunos muy sencillos, con metas autoimpuestas o emergentes, en sus contextos reducidos.
Aunque creí que estábamos hablando de razonamiento lógico, no de agencia. Claro que no lo has definido y te limitas a ir poniendo condiciones cada vez más restrictivas para lo que tú consideras que es "razonar". Empezamos con que un sistema de inteligencia artificial no es capaz de razonar pero ahora tiene que exhibir agencia y consciencia (condiciones, por cierto, que no se exigen siquiera a toda forma de razonamiento humano).
Conoces la falacia del patio y mota?
#37 "Los sistemas de lógica formal y prueba automática de teoremas lo hacen y no son conscientes."
Que hacen, razonar ?
Esos sistemas sirven para ejecutan razonamiento, pero no ejercen razonamiento por si mismos.
La diferencia es sutil, pero fundamental:
- Ejecutar razonamiento = aplicar reglas lógicas a símbolos (proceso sintáctico).
- Ejercer razonamiento = pensar de forma intencional y autónoma (proceso cognitivo consciente).
Te lo repito, para ejercer razonamiento deliberado o abstacto, se requiere de consciencia, algo de lo que carecen las IAs
Puedes seguir haciendo malabares tanto rato como quieras
#46 La consciencia no tiene nada que ver con el razonamiento. Ahora bien, en los humanos sí, ya que el razonamiento es siempre consciente. Pero si nos salimos de eso, son cosas no relacionadas.
#56 Es que no es quién niega algo el que debe aportar las pruebas. Si tú ves que consciencia y razonamiento van ligados, dí el porqué. No le pidas a los demás que prueben lo que tú dices.
#48 Y tiene razón (aunque es incompleto, los LLMs actuales tienen cierta capacidad para razonar en un sentido formal). Pero tú has definido "ejercer razonamiento" (signifique lo que signifique eso) como "pensar conscientemente". Al margen de que ahí existe una petición de principio, ahora te estás contradiciendo.
#55"los LLMs actuales tienen cierta capacidad para razonar en un sentido formal"
Disfrutalo: www.reddit.com/r/antiai/comments/1m2yy0m/if_you_need_any_more_evidence
Es solo un ejemplo, pero hay cientos de ellos que evidencian lo erronea que es tu creencia
Luego puedes continuar con esta lectura:
#57 Y si me mandas una publicación académica en lugar de dos opiniones, que las hay por docenas sino cientos? El preprint de los tíos de Apple ya ha sido superado. Se han propuesto explicaciones plausibles alternativas y fallas (más relacionadas con la conclusión que con el fenómeno en sí, que no deja de ser muy interesante).
Y ya te he dicho que eso no es una definición. Sólo es inventarte dos términos para decir que hay formas de razonamiento que no son zaonamiento de verdad y desplazar el… » ver todo el comentario
#58"Sólo es inventarte dos términos para decir que hay formas de razonamiento que no son zaonamiento de verdad y desplazar el problema de la definición de razonamiento"
Quieres terminos academicos ? En serio no eres capaz de distinguir por ti mismo ambos conceptos ?
Que no seas capaz de entender algo no significa que yo me lo este inventando
#59 Tu tesis inicial fue “las IA no razonan”. Ahora aceptas que “ejecutar razonamiento" es equivalente a "razonamiento computacional"... No va de dialéctica, sino de explicarse con consistencia y claridad. Yo me limité a indicar al principio que, sin un criterio falsable que no has proporcionado, tu afirmación no significa nada.
#60 Cuando he afirmado que “las IA no razonan” he dado por asumido que todo el mundo entemdia que hablaba de ejercer razonamiento deliberado o abstracto. Para apreciar razonamineto computacional no necesitas ni una IA, puedes encontrarlo hasta en la implementacion de PacMan.
Ejecutar razonamiento (computacional, logico o sintactico), no es equivalente a ejercer razonamiento deliberado o abstracto (deliberativo, intencional, metacognitivo).
Que parte no entiendes ? (por favor no me hagas volver a exponer las diferencias)
#63"El razonamiento es una capacidad para la que se requiere consciencia, algo de lo que carecen las IAs." (en #21).
Lo entiendo, aunque esté expresado pobremente y de forma ambigua, pero no dejas de mover la portería.
#64 Espero que las ultimas clarificaciones que he proporcionado, eliminen esa ambigüedad.
Y no, no he movido la porteria, he añadido un marco conceptual, que por lo visto requerias para entender lo que afirmaba
Ahi lo tienes: Para ejercer (que no ejecutar) razonamiento deliberado o abstracto, (que no computacional o logico) se requiere consciencia, algo de lo que carecen las IAs. Por lo tanto las IAs no ejercen razonamiento.
El dia que las IAs posean consciencia, la cosa cambiará, pero hoy por hoy, es lo que es.
#65 Existen gran cantidad de agentes autónomos que mantienen cierta autonomía, pueden fijarse metas, elaborar sus propios curricula, planificar, ejecutar y retroceder y autoevaluarse y no poseen consciencia.
#68 Y aun asi no ejercen razonamiento, pues para ello se requiere de ... consciencia.
Una IA puede aplicar reglas lógicas, inferir conclusiones, tomar decisiones con base en datos, e incluso descubrir patrones.
Eso es lo que llamamos razonamiento computacional o inferencia algorítmica: (manipular representaciones como símbolos, números o vectores, siguiendo reglas definidas).
Las IAs ejecutan razonamiento (no lo ejercen): aplica un proceso formal, pero sin comprender su contenido.
#69 Sigues repitiendo que "ejercer razonamiento" (terminología ad hoc) es razonar conscientemente apelando a la experiencia subjetiva. Eso es tautológico y circular, pero sigues sin darme un criterio de falsabilidad (e.g. alguna característica observable).
"Comprender su contenido" tampoco es un criterio práctico. En primer lugar, una parte sustancial de los procesos cognitivos humanos suceden sin acceso consciente. En segundo lugar, de esto no puedes estar seguro y necesitaría otro criterio de falsabilidad.
Yo creo que algunos sistemas "sí comprenden el contenido" en cierto grado. Puede que sea una cuestión semántica, pero (otra vez) sin definiciones, cualquier discusión carece de sentido.
#70"Sigues repitiendo que "ejercer razonamiento" (terminología ad hoc)"
Sigo repitiendolo, porque ya te he establecido el marco conceptual y semantico del termino, con parametros y referencias tecnicas y academicas...que te deberian permitir entender a que me refiero (y tu sigues atacando a la forma antes que al fondo... algo me dice que, intencinoadamente)
"Yo creo que algunos sistemas sí comprenden el contenido en cierto grado" La amplia mayoría… » ver todo el comentario
#9 No dicen que nos vayan a esclavizar. Dicen que alguna, en el sitio equivocado, va a entender mal una orden y van a empezar una matanza. Que objetivamente es mucho mas plausible, viendo quienes están quedando para dirigir occidente...
#11 Es un autocompletar, con una base de datos gigante. Cuando en la base de datos del autocompletar metes tablas de multiplicar hasta el 100.000x100.000, de repente el autocompletar sabe multiplicar. Cuando metes toda la wikipedia, de repente sabe completar la frase "¿quien fue Rasputín?". No son inteligentes. Son rápidas buscando patrones. Si eso lo sabes combinar con preguntas adecuadas, herramientas para que repita la pregunta con distintos textos, cinta americana y plegarias, de… » ver todo el comentario
Si es que los LLM son útiles en algunos casos, pero sus casos de uso integrados en otros sistemas son algo bastante experimental aún. Porque no son de fiar, entre otras cosas. O sea, tú no puedes predecir cuál va a ser la respuesta a un prompt determinado, tienes que probarlo a ver, pero si pudieras probar todos los casos de todas las variables entonces ya no necesitas un LLM para nada, ya es un árbol de decisión concreto. Pruebas un prompt con algunos casos y te tienes que fiar, y luego… » ver todo el comentario
Hacer horarios en centros educativos es un castigo de Dios. Quien lo probó, lo sabe. No es de extrañar, por tanto, que el responsable de realizar horarios venda su alma a cualquier herramienta que le prometa la recompensa eterna de que estos se hagan solos tras introducirles unos pocos datos.
#14 le hacen un encargo por el que le pagan y el se lo pasa a la ia y lo entrega como si lo hubiera hecho el sin haberlo revisado. con ese nivel de incompetencia llegara a jefe.
#13 uses el mecanismo que uses, el error es no tener un mecanismo para validar el resultado. En este caso hubiera sido hasta sencillo validar que el resultado cumplía las restricciones.
#71No has establecido nada porque tu definición es circular.
No es verdad, la cantidad de evidencia de cognición e inferencia sin acceso consciente es masiva en ciencia cognitiva.
Detrás del "yo creo" lo que hay es el reconocimiento honesto de que la evidencia de la que dispongo es anecdótica, no sistemática, es una opinión y no es relevante para mi objeción, sólo una nota marginal.
Me he limitado a pedir alguna evidencia, criterio o definición de tu afirmación. Has dado 0.
Yo no quiero pensar nada, me he limitado a exponer por qué tu afirmación es lógicamente incoherente.
He trabajado en redes neuronales desde el 98 y por ahí más o menos en aprendizaje clásico, creo que la moda no me va a afectar demasiado en ese aspecto.
La culpa será de la señora de la limpieza que pasaba por allí.
En fin, habría sido muchísimo más fácil hacer el reparto y asignación con un algoritmo normalito, hasta configurable en Excel con un simple SOLVER, que usar IA...
Si tiene un cociente del 120 y gana olimpiadas de programación y de matemáticas!!
Es una noticia de mierda. Es falsa. Busca engañar al lector. ¿ Y la compartes ? ¿ Por qué compartir basura ? ¿ Nos gusta vivir en un mundo rodeados de basura ?
La frase que mas uso en el curro es que cada herramienta para cada tarea, que lo de martillos para tornillos no va muy bien.
Si quieres, usa IA para que te ayude a configurar ese algoritmo, y usa IA para una interfaz en lenguaje natural de los inputs. Pero una vez con los datos, es preferible que un algoritmo puro haga todo el reparto de alumnos, horarios y aulas.
La propia noticia habla en varias ocasiones de «el algoritmo» y un algoritmo no es necesariamente IA.
Tiene toda la pinta de que han intentado automatizar un proceso (que no es sencillo) y nadie ha comprobado si lo que hacía «el algoritmo» era correcto o una metida de pata descomunal.
Pero hoy, con el comodín de la IA nadie tiene la culpa de nada.
Cuadrar un horario es una tarea ardua, pero sencilla...
El uso de IA tiene un coste grande que pasa por la ncecesidad de revisar, y en su caso corregir, las salidas que dé.
Si una persona puede, por qué una IA no es apropiada?
Por eso la IA deberia poder hacerlo sin absolutamente ningún problema
En segundo lugar, no es cierto. Existen animales con grados muy diferentes de metacognición y autoconsciencia reflexiva que exhiben a su vez capacidades muy desiguales de razonamiento causal, espacial y manipulativo. También existen sistemas de lógica formal.
Para el razonamiento deliberado o abstracto, se requiere de concsciencia.
También hay una gran cantidad de sistemas orientados a (por ejemplo) jugar al ajedrez o evaluar el plegado de proteínas mediante el desarrollo de estrategias nuevas mediante en entornos definidos por reglas y objetivos.
Existen una gran cantidad de sistemas que funcionan como agentes hasta cierto punto autónomos. Algunos muy sencillos, con metas autoimpuestas o emergentes, en sus contextos reducidos.
Aunque creí que estábamos hablando de razonamiento lógico, no de agencia. Claro que no lo has definido y te limitas a ir poniendo condiciones cada vez más restrictivas para lo que tú consideras que es "razonar". Empezamos con que un sistema de inteligencia artificial no es capaz de razonar pero ahora tiene que exhibir agencia y consciencia (condiciones, por cierto, que no se exigen siquiera a toda forma de razonamiento humano).
Conoces la falacia del patio y mota?
Que hacen, razonar ?
Esos sistemas sirven para ejecutan razonamiento, pero no ejercen razonamiento por si mismos.
La diferencia es sutil, pero fundamental:
- Ejecutar razonamiento = aplicar reglas lógicas a símbolos (proceso sintáctico).
- Ejercer razonamiento = pensar de forma intencional y autónoma (proceso cognitivo consciente).
Te lo repito, para ejercer razonamiento deliberado o abstacto, se requiere de consciencia, algo de lo que carecen las IAs
Puedes seguir haciendo malabares tanto rato como quieras
Disfrutalo:
www.reddit.com/r/antiai/comments/1m2yy0m/if_you_need_any_more_evidence
Es solo un ejemplo, pero hay cientos de ellos que evidencian lo erronea que es tu creencia
Luego puedes continuar con esta lectura:
LLMs don’t do formal reasoning - and that is a HUGE problem
garymarcus.substack.com/p/llms-dont-do-formal-reasoning-and
"tú has definido
… » ver todo el comentario
Y ya te he dicho que eso no es una definición. Sólo es inventarte dos términos para decir que hay formas de razonamiento que no son zaonamiento de verdad y desplazar el… » ver todo el comentario
Quieres terminos academicos ? En serio no eres capaz de distinguir por ti mismo ambos conceptos ?
Que no seas capaz de entender algo no significa que yo me lo este inventando
Anda toma, bien masticadito:
- Ejecutar razonamiento: Razonamiento computacional, inferencia sintáctica, procesamiento lógico formal
- Ejercer razonamiento: Razonamiento deliberativo, razonamiento intencional, metacognición
Espero que tengas algo mas que pura dialectica
Ejecutar razonamiento (computacional, logico o sintactico), no es equivalente a ejercer razonamiento deliberado o abstracto (deliberativo, intencional, metacognitivo).
Que parte no entiendes ? (por favor no me hagas volver a exponer las diferencias)
Lo entiendo, aunque esté expresado pobremente y de forma ambigua, pero no dejas de mover la portería.
Y no, no he movido la porteria, he añadido un marco conceptual, que por lo visto requerias para entender lo que afirmaba
Ahi lo tienes:
Para ejercer (que no ejecutar) razonamiento deliberado o abstracto, (que no computacional o logico) se requiere consciencia, algo de lo que carecen las IAs. Por lo tanto las IAs no ejercen razonamiento.
El dia que las IAs posean consciencia, la cosa cambiará, pero hoy por hoy, es lo que es.
Una IA puede aplicar reglas lógicas, inferir conclusiones, tomar decisiones con base en datos, e incluso descubrir patrones.
Eso es lo que llamamos razonamiento computacional o inferencia algorítmica: (manipular representaciones como símbolos, números o vectores, siguiendo reglas definidas).
Las IAs ejecutan razonamiento (no lo ejercen): aplica un proceso formal, pero sin comprender su contenido.
"Comprender su contenido" tampoco es un criterio práctico. En primer lugar, una parte sustancial de los procesos cognitivos humanos suceden sin acceso consciente. En segundo lugar, de esto no puedes estar seguro y necesitaría otro criterio de falsabilidad.
Yo creo que algunos sistemas "sí comprenden el contenido" en cierto grado. Puede que sea una cuestión semántica, pero (otra vez) sin definiciones, cualquier discusión carece de sentido.
Sigo repitiendolo, porque ya te he establecido el marco conceptual y semantico del termino, con parametros y referencias tecnicas y academicas...que te deberian permitir entender a que me refiero (y tu sigues atacando a la forma antes que al fondo... algo me dice que, intencinoadamente)
"Yo creo que algunos sistemas sí comprenden el contenido en cierto grado"
La amplia mayoría… » ver todo el comentario
Esto contrasta con los anuncios apocalípticos de que nos van a esclavizar dentro de meses. No sé cómo.
Especialmente aquellos que consisten en usar ias
No es verdad, la cantidad de evidencia de cognición e inferencia sin acceso consciente es masiva en ciencia cognitiva.
Detrás del "yo creo" lo que hay es el reconocimiento honesto de que la evidencia de la que dispongo es anecdótica, no sistemática, es una opinión y no es relevante para mi objeción, sólo una nota marginal.
Me he limitado a pedir alguna evidencia, criterio o definición de tu afirmación. Has dado 0.
Yo no quiero pensar nada, me he limitado a exponer por qué tu afirmación es lógicamente incoherente.
He trabajado en redes neuronales desde el 98 y por ahí más o menos en aprendizaje clásico, creo que la moda no me va a afectar demasiado en ese aspecto.