#18, por lo que explicas me parece que tú debes ser de la vieja escuela, has debido trabajar desde hace tiempo con sistemas expertos basados en reglas rígidas que hacían el sistema robusto y comprensible y te has visto completamente superado por la IA generativa y el modelo conexionista y de ahí tu incapacidad de poner en valor lo que se ha logrado estos últimos 10 años y ver todo el potencial que tiene esta tecnología.
Desde lo técnico te aseguro que es perfectamente plausible que aparezcan sistemas capaces de automatizar la búsqueda de vulnerabilidades dentro del código. Ni siquiera hace falta que sean más inteligentes que las personas, pero las IAs no se cansan, no se aburren, ni se despistan, por eso pueden explorar cientos de miles de líneas de código y descubrir fallos donde nadie antes se había dado cuenta y esto es un peligro real en el mundo en que vivimos.
Precisamente pienso que se necesita cierto grado de ignorancia técnica para no darse cuenta de que lo que explican es técnicamente posible.
#18, te he pasado trabajos que demuestran que hay LLMs capaces de resolver conjeturas matemáticas y te empeñas en decir que "por diseño no pueden", te he pedido un solo ejemplo de qué demuestra que algo sea inteligente y me respondes con una vaguedad y luego dices que esto aplica a nivel de especie, no de individuo. En fin...
#16, que poca confianza tienes en lo que haces. Curiosamente yo me dedico desde hace más de 15 años a la IA, primero a nivel académico y de investigación fundamental con más de 30 papers publicados y desde hace unos años en la industria y precisamente por eso me parece de una cuñadez superlativa no saber poner en valor los avances que se han logrado en este campo. Y también precisamente porque conozco esta tecnología, me parece totalmente plausible que el poder automatizar la detección de vulnerabilidades de seguridad en el código es un peligro.
La verdad es que no se que clase de humo te dedicas a vender tú, pero te aseguro que nosotros estamos logrando cosas que eran imposibles hace unos pocos años.
#13, si claro, el argumento de que todo es publicidad sustentada sobre humo para engañar a los accionistas ingenuos pero que a los más listos de aquí no se la cuela nadie es fácil de vender, pero me parece que atendiendonos a los hechos no se sustenta.
No se en qué punto de la partida me perdí tanto, para que que haya IAs capaces hablar como una persona, componer canciones, hacer cualquier clase de dibujo y realizar tareas tan complejas como resolver problemas matemáticos abiertos, hacer nueva física o diseñar circuitos integrados se haya normalizado tanto, como para que haya quienes pueden pensar que todo esto se sustenta en la nada y que esta tecnología todavía no ha demostrado reiteradamente que es capaz de empujar reiteradamente la frontera de lo que considerábamos que un software es capaz de hacer.
La verdad es que me parece hasta grotesco la incapacidad de poner en valor lo que se está logrando por parte de algunos.
#11, pero argumentar que como en el pasado dijeron X y luego pasó Y sin ir más allá, como haces tú y #2, me parece muy pobre.
Pensé que habíamos aprendido algo de cuando con el COVID, los genios del lugar hacían referencia a lo que pasó con la gripe porcina antes sin fijarse en que los datos eran cualitativamente distintos. Pero veo que el ser humano es incorregible.
#2, si Mythos tiene la capacidad de cambiar el mundo la mitad de lo que hizo la familia de modelis GPT la verdad es que da bastante miedo pensar donde podemos llegar.
#1, si los de Jaen y los de Extremadura, votan lo que votan, lo lógico y coherente sería que no esperaran ni un centavo ni de los catalanes, ni de nadie, que le pidan a los señoritos.
#1, #2, es normal que la tecnología permita hacer más con menos. Lo que deberíamos es reclamar una mejor forma de repartir el trabajo y la riqueza, no negar que la máquina de vapor existe.
#18, así es, donde digo rentar quiero decir alquilar.
A mi deepseek siempre me ha dado resultados mucho peores que los modelos de frontera, pero es verdad que no he tenido oportunidad de utilizar ningún agente de programación que funcione con ella. El problema es que estoy muy acostumbrado a los modelos de Google y Antropic y volver atrás sabiendo que hay problemas técnicos que ta están solucionados solo porque es una alternativa libre, me costaría demasiado.
#9, en los bebchmarks está a unos pocos meses vista de los mejores modelos. De ahí a inferir que ha perdido definitivamente la carrera, no se yo... Si ese es el caso, no quiero ni imaginar donde estamos los Europeos.
#10, será gratis, pero ninguno de los que estamos aquí tenemos en casa una máquina remotamente capaz de ejecutarlo. Así que de un modo u otro toca rentar un servicio y pagar por tokens.
Es una gran noticia porque es el modelo abierto más potente que tenemos pero está por detrás de los mejores modelos.
#18, hay tanta ansia porque realmente es útil. Lo artificial sería que hicieramos como que no existiese una tecnología que nos permite hacer más trabajando menos. Aquí el problema no es la IA sino las relaciones se producción.
#26, quien no me lee eres tú, yo te digo que basta con ver que si lo que antes me costaba 2 semanas hoy lo hago en media hora, va a tener algún impacto. Pretender que las reglas de juego no han cambiado es de una ceguera superlativa.
Y mucho tendrían que subir el precio por token para aproximarse a lo que cuesta el token humano, así, que sí, no niego que no estén haciendo dumping para crear una necesidad, pero principalmente es para traccionar la aceleración en el desarrollo de los modelos que no paran de mejorar.
Respecto a la AGI, dime lo que es y te diré si es posible o no, perdernos en entelequias inconcretas es muy fácil si estás dispuesto a mover la portería ad infinitum, porque basta con empeñarse que cualquier pueda hacer una IA no es una AGI para poder mantener esta afirmación el tiempo que se quiera.
Y sí. Sam Altman y Amodei tienen un conflicto de intereses entre lo que venden y lo que dicen, pero no menos que los desarrolladores que se ganan la vida escribiendo software y dicen que la IA es un bluf. Yo diría que todavía está más sesgado el segundo grupo, porque mientras Amodei y Altman tienen suficiente dinero como para vivir 1000 vidas si se retiran ahora, para los demás su sustento depende de que sigan siendo útiles en lo que hacen.
#25, da igual que tu no uses stack overflow, la evidencia anecdótica sirve para muy poco, lo cierto es que antes d la IA stack overflow tenía más de 300.000 visitas mensuales y a día de hoy no llega a 5000 porque la IA está escribiendo casi todo el código.
#7, si evita perder tiempo está eliminando trabajo. Decir que todo es un bluf es de una ceguera difícil de cuantificar. Para todo lo demás, las visita a stackoberflow hablan por si mismas más de lo que un comentario en meneame puede hacerlo. La gente no utiliza stack overflow, no porque la IA le resuelva las dudas, sino porque directamente hace su trabajo.
#22, yo sinceramente, este discurso de que la IA no aumenta la productividad lo suficiente para que pueda explicar por si misma la necesidad de contar con menos gente para hacer lo mismo. Lo veo con mis propios ojos, lo que me costaría horas, me cuesta minutos y no hablo de líneas de código, sino de features completas algunas bastante intrincadas.
La prueba del algodón de que no es ninguna excusa, es que todas estas rondas de despidos se están dando en empresas que están batiendo record de beneficios, no es una necesidad imperiosa de reducir costes, ni de que la demanda de sus productos esté bajando.
Pienso que aunque entendible como mecanismo primario de defensa, el negacionismo de la realidad jamás puede resultar en nada positivo a quien lo practica. Es como quien después de un diagnóstico médico que no le gusta decide ignorarlo.
Yo creo que la solución está en redefinir el contrato social, repensar nuestra relación con el trabajo y en última instancia derrocar el sistema capitalista.
Quienes piensen que hay otro camino para seguir igual que antes se van a estrellar.
#15, no es solo líneas, si se mide por bugs en el software, documentación y organización del código y KPIs bien diseñados, el software hecho por IA ya es superior al hecho por humanos.
Desde lo técnico te aseguro que es perfectamente plausible que aparezcan sistemas capaces de automatizar la búsqueda de vulnerabilidades dentro del código. Ni siquiera hace falta que sean más inteligentes que las personas, pero las IAs no se cansan, no se aburren, ni se despistan, por eso pueden explorar cientos de miles de líneas de código y descubrir fallos donde nadie antes se había dado cuenta y esto es un peligro real en el mundo en que vivimos.
Precisamente pienso que se necesita cierto grado de ignorancia técnica para no darse cuenta de que lo que explican es técnicamente posible.