edición general
142 meneos
1083 clics
La inteligencia artificial arma un lío en la Universidad de Oviedo (y lo hace dos veces): aulas saturadas, asignaturas en el mismo horario...

La inteligencia artificial arma un lío en la Universidad de Oviedo (y lo hace dos veces): aulas saturadas, asignaturas en el mismo horario...

Errores en un nuevo sistema para configurar los grupos retrasan la docencia en varias facultades y dejan a 400 alumnos afectados por el solapamiento de clases

| etiquetas: inteligencia , artificial , arma , universidad , oviedo , aulas , saturadas
Comentarios destacados:                  
#1 y el responsable es la IA o el que la ha usado para eso para ahorrarse tiempo?
y el responsable es la IA o el que la ha usado para eso para ahorrarse tiempo?
#1 Y la ha usado mal y no ha revisado los datos


La culpa será de la señora de la limpieza que pasaba por allí.
#2 No... la culpa es del informático...
#3 ¿Informático? ¿había algún informático por allí?
#4 Hoy en día cualquiera que enciende un ordenador es el informático.
#6 la mayoría son ya nativos digitales xD
#10 Nativos digitales de tiktok y spotify. Y para de contar.
#10 Nativos digitales que no saben ni que componentes tiene el ordenador. Nativos digitales que no saben imprimir un word, porque nunca han usado algo que conectase con una impresora. O que te dicen, sin sonrojarse, que los ordenadores nuevos estan wapos pero que habria que quitar esas cajas negras que tienen al lado (sí, confunden pantalla con ordenador).
#30 La mayorí de los que conducimos un coche no sabemos ni cambiar el aceite
#4 No. Lo despidieron porque tienen la IA xD
#2 literalmente. No solo alguien no sabe usar la herramienta, sino que ni se han molestado en revisar el resultado. Ni cosas tan básicas como que no puedes meter 160 personas en una clase de 90...

En fin, habría sido muchísimo más fácil hacer el reparto y asignación con un algoritmo normalito, hasta configurable en Excel con un simple SOLVER, que usar IA...
#17 Pero la IA no sabe que 160 personas no caben en un aula de 60 ?
#41 Una vez me costó 6 intentos que GPT "entendiera" que una persona que ha nacido antes que otra es más joven.
#53 primera notícia.
#2 Por qué va a revisar algo que le dice alguien más inteligente que él ?

Si tiene un cociente del 120 y gana olimpiadas de programación y de matemáticas!!
#1 Yo esto nunca lo he entendido.
Es una noticia de mierda. Es falsa. Busca engañar al lector. ¿ Y la compartes ? ¿ Por qué compartir basura ? ¿ Nos gusta vivir en un mundo rodeados de basura ?
#1 Pues no sé, a mi me parece una cagada en tiempo y recursos. Primero, por lo que se lee es una implantación de un sistema propio, con lo cual lo han tenido que entrenar y alimentarlo de datos, que no salen del aire precisamente ni tampoco son pocos si quieres un resultado medio decente. A saber como lo han hecho. Pero es que encima seguro que un algoritmo pensado por un humano lo habría hecho mejor y con menor coste. La parte mas pesada no es mas que establecer una serie de reglas y establecer su prioridad de aplicación, que es donde está el meollo. Es trabajo de humanos mas que de IA.
La frase que mas uso en el curro es que cada herramienta para cada tarea, que lo de martillos para tornillos no va muy bien.
#16 No paro de repetirlo, no hay necesidad ni es recomendable usar IA para algo que lo resuelve mejor un algoritmo. Por consumo de recursos, por fiabilidad, por todo...
Si quieres, usa IA para que te ayude a configurar ese algoritmo, y usa IA para una interfaz en lenguaje natural de los inputs. Pero una vez con los datos, es preferible que un algoritmo puro haga todo el reparto de alumnos, horarios y aulas.
#16 Igual usaron ChatGPT. El de pago seguro que lo clava..:troll:
#1 Pues yo dudo que se haya utilizado la IA para generar este caos.
La propia noticia habla en varias ocasiones de «el algoritmo» y un algoritmo no es necesariamente IA.
Tiene toda la pinta de que han intentado automatizar un proceso (que no es sencillo) y nadie ha comprobado si lo que hacía «el algoritmo» era correcto o una metida de pata descomunal.
Pero hoy, con el comodín de la IA nadie tiene la culpa de nada.
#31 me huelo lo mismo... Últimamente se ha puesto de moda llamar a cualquier cosa automatizada programaticamente como "automátizado por IA" y es evidentemente algoritmia de toda la vida de dios
#1 Hombre, la IA, que para eso es inteligente.

Cuadrar un horario es una tarea ardua, pero sencilla...
He visto anunciadas herramientas de estas que te "organizan la agenda de la forma más eficiente". Creo que lo único que hacen es pasarle un query a algún LLM para que responda lo que le dé la gana.

El uso de IA tiene un coste grande que pasa por la ncecesidad de revisar, y en su caso corregir, las salidas que dé.
Asignar clases y cursos es un proceso totalmente deterministico. Ahora echarle la culpa a la IA es el comodín para tirar balones fuera.
#12 Realmente, la realización de horarios, con gestión de aulas, alumnos, materias y profes, etc no es un problema sencillo. No existe un algoritmo determinista que lo resuelva. Existen aproximaciones iterativas, algoritmos genéticos y otros métodos. Pero no son deterministas.
#18 Tienes toda la razón.
#12 estas cosas se deben hacer usando el software correspondiente en cada caso, el problema es que hoy en día todo se lo pasan al LLM de turno... Como si realmente supiera lo que hace :palm:
#22 O a mano. Como se hacia antes.

Si una persona puede, por qué una IA no es apropiada?
#12 Coño!!

Por eso la IA deberia poder hacerlo sin absolutamente ningún problema
#44 ¿Cómo lo va a hacer bien la IA si es indeterminista?
#12 La comprobación, sí. La optimización tiene más gracia.
#15 El razonamiento es una capacidad para la que se requiere consciencia, algo de lo que carecen las IAs.
#21 En primer lugar, no has definido nada. Sólo has desplazado la pregunta de "qué es el razonamiento" a "qué es la consciencia", sin definir ninguna.
En segundo lugar, no es cierto. Existen animales con grados muy diferentes de metacognición y autoconsciencia reflexiva que exhiben a su vez capacidades muy desiguales de razonamiento causal, espacial y manipulativo. También existen sistemas de lógica formal.
#26 no es cierto el que ?
Para el razonamiento deliberado o abstracto, se requiere de concsciencia.
#36 Aunque esa no es tu afirmación original, sino una versión más fuerte, tampoco es cierto. Los sistemas de lógica formal y prueba automática de teoremas lo hacen y no son conscientes.
También hay una gran cantidad de sistemas orientados a (por ejemplo) jugar al ajedrez o evaluar el plegado de proteínas mediante el desarrollo de estrategias nuevas mediante en entornos definidos por reglas y objetivos.
#37 No. No lo hacen. No cogen un dia de buena mañana y deciden "bueno, hoy voy a comprobar este teorema..."
#43 Tampoco lo hacen muchos humanos...
Existen una gran cantidad de sistemas que funcionan como agentes hasta cierto punto autónomos. Algunos muy sencillos, con metas autoimpuestas o emergentes, en sus contextos reducidos.
Aunque creí que estábamos hablando de razonamiento lógico, no de agencia. Claro que no lo has definido y te limitas a ir poniendo condiciones cada vez más restrictivas para lo que tú consideras que es "razonar". Empezamos con que un sistema de inteligencia artificial no es capaz de razonar pero ahora tiene que exhibir agencia y consciencia (condiciones, por cierto, que no se exigen siquiera a toda forma de razonamiento humano).
Conoces la falacia del patio y mota?
#37 "Los sistemas de lógica formal y prueba automática de teoremas lo hacen y no son conscientes."
Que hacen, razonar ? xD
Esos sistemas sirven para ejecutan razonamiento, pero no ejercen razonamiento por si mismos.
La diferencia es sutil, pero fundamental:
- Ejecutar razonamiento = aplicar reglas lógicas a símbolos (proceso sintáctico).
- Ejercer razonamiento = pensar de forma intencional y autónoma (proceso cognitivo consciente).

Te lo repito, para ejercer razonamiento deliberado o abstacto, se requiere de consciencia, algo de lo que carecen las IAs
Puedes seguir haciendo malabares tanto rato como quieras
#46 La consciencia no tiene nada que ver con el razonamiento. Ahora bien, en los humanos sí, ya que el razonamiento es siempre consciente. Pero si nos salimos de eso, son cosas no relacionadas.
#50 Me has convencido con tus grandes argumentos y desarrollo
#56 Es que no es quién niega algo el que debe aportar las pruebas. Si tú ves que consciencia y razonamiento van ligados, dí el porqué. No le pidas a los demás que prueben lo que tú dices.
#48 Y tiene razón (aunque es incompleto, los LLMs actuales tienen cierta capacidad para razonar en un sentido formal). Pero tú has definido "ejercer razonamiento" (signifique lo que signifique eso) como "pensar conscientemente". Al margen de que ahí existe una petición de principio, ahora te estás contradiciendo.
#55 "los LLMs actuales tienen cierta capacidad para razonar en un sentido formal"
Disfrutalo:
www.reddit.com/r/antiai/comments/1m2yy0m/if_you_need_any_more_evidence
Es solo un ejemplo, pero hay cientos de ellos que evidencian lo erronea que es tu creencia
Luego puedes continuar con esta lectura:

LLMs don’t do formal reasoning - and that is a HUGE problem
garymarcus.substack.com/p/llms-dont-do-formal-reasoning-and

"tú has definido

…   » ver todo el comentario
#57 Y si me mandas una publicación académica en lugar de dos opiniones, que las hay por docenas sino cientos? El preprint de los tíos de Apple ya ha sido superado. Se han propuesto explicaciones plausibles alternativas y fallas (más relacionadas con la conclusión que con el fenómeno en sí, que no deja de ser muy interesante).
Y ya te he dicho que eso no es una definición. Sólo es inventarte dos términos para decir que hay formas de razonamiento que no son zaonamiento de verdad y desplazar el…   » ver todo el comentario
#58 "Sólo es inventarte dos términos para decir que hay formas de razonamiento que no son zaonamiento de verdad y desplazar el problema de la definición de razonamiento"
Quieres terminos academicos ? En serio no eres capaz de distinguir por ti mismo ambos conceptos ?
Que no seas capaz de entender algo no significa que yo me lo este inventando

Anda toma, bien masticadito:
- Ejecutar razonamiento: Razonamiento computacional, inferencia sintáctica, procesamiento lógico formal
- Ejercer razonamiento: Razonamiento deliberativo, razonamiento intencional, metacognición

Espero que tengas algo mas que pura dialectica
#59 Tu tesis inicial fue “las IA no razonan”. Ahora aceptas que “ejecutar razonamiento" es equivalente a "razonamiento computacional"... No va de dialéctica, sino de explicarse con consistencia y claridad. Yo me limité a indicar al principio que, sin un criterio falsable que no has proporcionado, tu afirmación no significa nada.
#60 Cuando he afirmado que “las IA no razonan” he dado por asumido que todo el mundo entemdia que hablaba de ejercer razonamiento deliberado o abstracto. Para apreciar razonamineto computacional no necesitas ni una IA, puedes encontrarlo hasta en la implementacion de PacMan.

Ejecutar razonamiento (computacional, logico o sintactico), no es equivalente a ejercer razonamiento deliberado o abstracto (deliberativo, intencional, metacognitivo).

Que parte no entiendes ? (por favor no me hagas volver a exponer las diferencias)
#63 "El razonamiento es una capacidad para la que se requiere consciencia, algo de lo que carecen las IAs." (en #21).
Lo entiendo, aunque esté expresado pobremente y de forma ambigua, pero no dejas de mover la portería.
#64 Espero que las ultimas clarificaciones que he proporcionado, eliminen esa ambigüedad.
Y no, no he movido la porteria, he añadido un marco conceptual, que por lo visto requerias para entender lo que afirmaba

Ahi lo tienes:
Para ejercer (que no ejecutar) razonamiento deliberado o abstracto, (que no computacional o logico) se requiere consciencia, algo de lo que carecen las IAs. Por lo tanto las IAs no ejercen razonamiento.

El dia que las IAs posean consciencia, la cosa cambiará, pero hoy por hoy, es lo que es.
#65 Existen gran cantidad de agentes autónomos que mantienen cierta autonomía, pueden fijarse metas, elaborar sus propios curricula, planificar, ejecutar y retroceder y autoevaluarse y no poseen consciencia.
#68 Y aun asi no ejercen razonamiento, pues para ello se requiere de ... consciencia.

Una IA puede aplicar reglas lógicas, inferir conclusiones, tomar decisiones con base en datos, e incluso descubrir patrones.
Eso es lo que llamamos razonamiento computacional o inferencia algorítmica: (manipular representaciones como símbolos, números o vectores, siguiendo reglas definidas).

Las IAs ejecutan razonamiento (no lo ejercen): aplica un proceso formal, pero sin comprender su contenido.
#69 Sigues repitiendo que "ejercer razonamiento" (terminología ad hoc) es razonar conscientemente apelando a la experiencia subjetiva. Eso es tautológico y circular, pero sigues sin darme un criterio de falsabilidad (e.g. alguna característica observable).
"Comprender su contenido" tampoco es un criterio práctico. En primer lugar, una parte sustancial de los procesos cognitivos humanos suceden sin acceso consciente. En segundo lugar, de esto no puedes estar seguro y necesitaría otro criterio de falsabilidad.
Yo creo que algunos sistemas "sí comprenden el contenido" en cierto grado. Puede que sea una cuestión semántica, pero (otra vez) sin definiciones, cualquier discusión carece de sentido.
#70 "Sigues repitiendo que "ejercer razonamiento" (terminología ad hoc)"
Sigo repitiendolo, porque ya te he establecido el marco conceptual y semantico del termino, con parametros y referencias tecnicas y academicas...que te deberian permitir entender a que me refiero (y tu sigues atacando a la forma antes que al fondo... algo me dice que, intencinoadamente)

"Yo creo que algunos sistemas sí comprenden el contenido en cierto grado"
La amplia mayoría…   » ver todo el comentario
#21 No es cierto que para razonar se necesite consciencia. Hay máquinas que razonan, pero no son redes neuronales.
Pues no es muy inteligente.
#5 Una IA no tiene ninguna capacidad de razonamiento. Ninguna es cero.

Esto contrasta con los anuncios apocalípticos de que nos van a esclavizar dentro de meses. No sé cómo.
#9 Si no defines lo que significa "capacidad de razonamiento", tu afirmación puede ser cualquier cosa entre imprecisa y errónea.
#9 No dicen que nos vayan a esclavizar. Dicen que alguna, en el sitio equivocado, va a entender mal una orden y van a empezar una matanza. Que objetivamente es mucho mas plausible, viendo quienes están quedando para dirigir occidente...
#9 Necesitan dinero de los inversores para que la rueda siga girando, y eso implica promesas grandilocuentes.
#5 es más artificial que inteligente xD
#11 Es un autocompletar, con una base de datos gigante. Cuando en la base de datos del autocompletar metes tablas de multiplicar hasta el 100.000x100.000, de repente el autocompletar sabe multiplicar. Cuando metes toda la wikipedia, de repente sabe completar la frase "¿quien fue Rasputín?". No son inteligentes. Son rápidas buscando patrones. Si eso lo sabes combinar con preguntas adecuadas, herramientas para que repita la pregunta con distintos textos, cinta americana y plegarias, de…   » ver todo el comentario
"Inteligencia es lo que usas cuando no sabes qué hacer." (Jean Piaget.)
Está bien usar una IA para hacer este tipo de tarea, pero tienes que supervisar el resultado.
Si es que los LLM son útiles en algunos casos, pero sus casos de uso integrados en otros sistemas son algo bastante experimental aún. Porque no son de fiar, entre otras cosas. O sea, tú no puedes predecir cuál va a ser la respuesta a un prompt determinado, tienes que probarlo a ver, pero si pudieras probar todos los casos de todas las variables entonces ya no necesitas un LLM para nada, ya es un árbol de decisión concreto. Pruebas un prompt con algunos casos y te tienes que fiar, y luego…   » ver todo el comentario
La ia nos hará perder millones de trabajos!!! :ffu:

Especialmente aquellos que consisten en usar ias :troll:
Hacer horarios en centros educativos es un castigo de Dios. Quien lo probó, lo sabe. No es de extrañar, por tanto, que el responsable de realizar horarios venda su alma a cualquier herramienta que le prometa la recompensa eterna de que estos se hagan solos tras introducirles unos pocos datos.
#14 le hacen un encargo por el que le pagan y el se lo pasa a la ia y lo entrega como si lo hubiera hecho el sin haberlo revisado. con ese nivel de incompetencia llegara a jefe.
Hacía falta usar IA para esto? Es el típico caso de cuando se escoje la herramienta equivocada.
#13 uses el mecanismo que uses, el error es no tener un mecanismo para validar el resultado. En este caso hubiera sido hasta sencillo validar que el resultado cumplía las restricciones.
#71No has establecido nada porque tu definición es circular.
No es verdad, la cantidad de evidencia de cognición e inferencia sin acceso consciente es masiva en ciencia cognitiva.
Detrás del "yo creo" lo que hay es el reconocimiento honesto de que la evidencia de la que dispongo es anecdótica, no sistemática, es una opinión y no es relevante para mi objeción, sólo una nota marginal.
Me he limitado a pedir alguna evidencia, criterio o definición de tu afirmación. Has dado 0.
Yo no quiero pensar nada, me he limitado a exponer por qué tu afirmación es lógicamente incoherente.
He trabajado en redes neuronales desde el 98 y por ahí más o menos en aprendizaje clásico, creo que la moda no me va a afectar demasiado en ese aspecto.
Parece que los requisitos básicos no fueron resueltos. No se yo si en ese proceso hay IA o es IH (Inteligencia Humana) mal aplicada.

menéame