edición general
rojo_separatista

rojo_separatista

En menéame desde abril de 2007

15,10 Karma
181 Ranking
1.402 Enviadas
130 Publicadas
33K Comentarios
56 Notas

Un tipo comía un sándwich en el parque cuando le llegó un email de su IA [73]

  1. #72, sí, pero cada año va avanzando y desde otoño del año pasado he visto una aceleración así que no me sorprendería que este año si pudiesen resolver todos los problemas.
  1. #70, pero no son preguntas tan sencillas como buscar un dato concreto, son mucho más difíciles.

    En cuanto a las IMO ya consiguieron el año pasado estar entre los resultados de los estudiantes que ganaron la medalla de oro, pero todavía pueden mejorarlos si son capaces de responder bien todas las preguntas, sobre ARC-AGI es cierto que no he visto resultados todavía y pueden ser interesantes y respecto a FrointerMath es donde más vamos a ver este año si los modelos van camino a superar el intelecto humano porque son preguntas abiertas matemáticas y algunas representan contribuciones mayores dentro del campo, si se logra resolver solo una de las del Tier superior durante este año, creo que realmente estamos a las puertas de algo muy grande, pero estoy seguro de qui si eso pasa, habrá gente que todavía seguirá siendo escéptica, porque llegados a este punto, nada va a cambiar la opinión de algunos.
  1. #68, el Humanity Last Exam no es un benchmark de programación y también lo ha reventado. Es imposible que se haya sobreentrenado con este benchmark porque es privado.

    De hecho ha reventado todos los benchmarks, decir que no vale nada porque iguala los modelos anteriores que ya eran muy buenos en un benchmark saturado me parece querer agarrarse a un clavo ardiente.

    Respecto a la AGI es un debate que me da mucha pereza porque hasta que no nos pongamos de acuerdo en lo que es, podemos seguir moviendo la portería ad infinitum y decir que todavía no es verdadera inteligencia, pero hace 20 años cualquiera de los modelos frontera que tenemos hoy hubiese sido calificado de AGI. Ya te digo, es un debate que considero irrelevante y me interesa poco, me interesa más ver como a cada iteración siguen mejorando las capacidades de los modelos a pesar de que cuando salió chatGPT no había pocos que decían que los LLM eran loros estocásticos que no tenían recorrido.
  1. #60, cómo que no? En el SWE bench han dado un salto cualitativo en capacidades.
  1. #33, te dejas la noticia mensual de que ahora sí, la burbuja de la IA va a explotar y apareceremos como si nada en 2019 donde cualquier herramienta de IA dejará de existir y seguir mejorando. En el fondo el problema es que muchos no paran de confundir deseos con realidad.
  1. #30, al contrario, llevamos escuchando cuñaos desde hace 4 años diciendo que esto no tenía recorrido, que la IA había llegado a su tope teórico. Primero con los 6 dedos de Dall-e y luego con los fallos tontos que hacía chatGPT o con que la IA no puede hacer nada original porque hace un pastiche de lo que ha visto antes, el tiempo ha dejado en ridículo a todos y cada uno de ellos, apostar contra la IA hasta ahora siempre ha salido mal y a pesar de eso aún están aquí, sacando pecho y sin rectificar un milímetro.
  1. #9, al proximo envío sobre las consecuencias alocalípticas del cambio climático, di también que es sensacionalista.

Los compañeros de Sam Altman dicen que apenas sabe programar y que no comprende los conceptos básicos del Machine Learning [EN] [108]

  1. #90, tranquilo, que te has explicado perfectamente, has dicho que el CEO no tiene que saber nada de como se hacen las cosas en su empresa y yo no estoy de acuerdo. No es ningún drama, así, que dejemoslo aquí.
  1. #87, tu mismo te contradices cuando dices que el CTO tiene que explicarselo, además de que no todas las empresas tienen CTO.
  1. #80, has dicho que no tienen que saber nada.

Universidades chinas eliminan/reestructuran las carreras de fotografía y artes [15]

  1. Los chinos van a tope con la IA y la robótica bajo la dirección de un Partido Comunista liderado por gente brillante mientras aquí entre negacionistas y tecnofeudalistas vamos por el despeñadero.

Los compañeros de Sam Altman dicen que apenas sabe programar y que no comprende los conceptos básicos del Machine Learning [EN] [108]

  1. #76, si el CEO está completamente desconectado de los aspectos técnicos e ignora las recomendaciones del equipo técnico es imposible que tenga una visión realista de los límites y alcance del proyecto que dirige. He vivido en mis propias carnes el fracaso de una empresa con mucho potencial solo por eso.

Pedro Sánchez exige incluir a Líbano en el alto el fuego y ataca a Netanyahu por 'su intolerable desprecio por la vida y el derecho internacional' [61]

  1. #6, dejad de decir la chorrada del premio Nobel de la Paz, primero porque no le darán por mucha ilu que os haga y segundo porque este premio está totalmente desprestigiado. Te recuerdo que actualmente el que posee dicho galardón es Donald Trump.

Los compañeros de Sam Altman dicen que apenas sabe programar y que no comprende los conceptos básicos del Machine Learning [EN] [108]

  1. #42, yo creo que hasta cierto punto. He conocido casos en los que la desconección es tal que hacen que todo el proyecto fracase.

Irán suspende el paso de petroleros por el estrecho de Ormuz tras los ataques contra el Líbano, según un medio local [61]

  1. El valor que están demostrando los iranís en este conflicto no deja de impresionarme, para ellos lo fácil era negociar la paz con Trump y quejarse con la boca pequeña de lo que hacen en el Líbano.

Los compañeros de Sam Altman dicen que apenas sabe programar y que no comprende los conceptos básicos del Machine Learning [EN] [108]

  1. #6, el problema, no se si es el caso, es cuando un CEO toma decisiones sin tener cuenta las recomendaciones técnicas de quienes sí conocen el problema.
  1. Como la mayoría de CEOs que no tienen ni idea de los aspectos técnicos de los proyectos sobre los que toman decisiones clave.

Claude Mythos es un modelo de IA tan potente que da miedo. Así que Anthropic ha decidido que no vas a poder usarlo [24]

  1. #23, justo al principio de esta charla, en el segundo 14: "if you sleep well toonight, you may not have understood this lecture". :roll:

    www.youtube.com/watch?v=IkdziSLYzHw
  1. #20, como dijo Geoffrey Hinton, premio Nobel de física por sus contribuciones fundamentales en el campo del aprendizaje automático: "Si puedes dormir bien, probablemente no has entendido nada de la era de la IA".

    Este tuit que ha publicado #6, explica bastante bien por qué esto es importante más allá del hype: x.com/XMihura/status/2041625566244434261
  1. #17, que Gemini encuentre un bug en el código que ha hecho paquito el chocolatero para fernando el de la ferreteria es una cosa, que un nuevo modelo encuentre vulnerabilidades que llevaban allí 20 años en proyectos de código abiertos colaborados por miles de desarrolladores y utilizado en cientos de miles de proyectos es otro nivel. Pero nahh, esto no significa nada, esto hype para inversores que del que solo escapan mentes privilegiadas como la tuya.
  1. #14, por qué me hablas del modelo Gemini en este envío?

    Vamos, que el nuevo modelo de Anthropic haya encontrado vulnerabilidades que lleveban allí 20 años en algunos de los softwares más utilizados del mundo no merece ningún comentario.
  1. #7, ¿Sobre las vulnerabilidades encontradas por el modelo algunas ya reconocidas públicamente y parcheadas algo que decir?

    x.com/FFmpeg/status/2041595801483264002

    ¡No mires arriba!
  1. #2, ha encontrado varios bugs de día cero en software puntero y por eso están actuando responsablemente. Pero sigamos con la cantinela que todo es hype y mentira para engañar a los inversores y que no hay nada de sustancia detrás que esto vende más.
  1. No deja de ser irónico que después de los últimos años escuchando que la IA funciona fatal y que hay que invertir más tiempo arreglando sus chapuzas que haciéndolo de cero, que llegados al segundo trimestre de 2026 tengamos una IA que está encontrando montones de vulnerabilidades de seguridad en software puntero.

La IA no añadió nada al crecimiento económico en 2025 en EEUU [EN] [80]

  1. #79, yo te digo que competir con costes contra las máquinas, siempre sale mal. Por supuesto que debemos supervisar lo que hacen. Pero tal vez no hace falta trabajar 8 horas al día. Quizás baste con 4 horas, 4 días a la semana o incluso menos.
« anterior1

menéame