h

#148 Ah, entiendo, y tienes razón, pero piensa que hay casos de uso donde nadie está dispuesto a pagar el pack completo de seguridad. A lo mejor sí pagarían por el cinturón y el airbag, pero el pitido que avisa de un coche en rumbo de colisión les sobra. Y lo de "unsafe" no me vale, porque el pitido lo eliminas, pero pagaste por él igualmente. Pero estoy de acuerdo, a favor de las medidas de seguridad, es sólo que C++ me parece que las ofrece de manera más gradual.

h

#146 leaks varios en general...

uff, vaya indeseables, vamos a ir al infierno de cabeza

h

#7 El propio Biden en el despacho oval ahora mismo bajandose el compilador de Rust

Blackmoon

#142 lol Yo no le veo ni atándose los cordones, el pobre sí que debe tener problemas de memoria.

h

#146 leaks varios en general...

uff, vaya indeseables, vamos a ir al infierno de cabeza

h

#59 Me parece una muy dudosa analogía. Según dices, Rust es la solución a los "accidentes" de programación, ¿Cual es la solución a los accidentes de tráfico?

D

#141 En ningún momento he dicho que Rust (u otro lenguaje memory-safe) sea la solución a los accidentes de programación, si no que mitiga y previene muchos de ellos. Igual que los elementos de seguridad activa y pasiva de un coche no son la solución a los accidentes de tráfico.

Sólo apuntaba que ese razonamiento lleva a la conclusión de que no merece la pena invertir en herramientas más seguras, porque el problema son los malos conductores/programadores (que casualmente siempre son otros y no uno mismo).

h

#148 Ah, entiendo, y tienes razón, pero piensa que hay casos de uso donde nadie está dispuesto a pagar el pack completo de seguridad. A lo mejor sí pagarían por el cinturón y el airbag, pero el pitido que avisa de un coche en rumbo de colisión les sobra. Y lo de "unsafe" no me vale, porque el pitido lo eliminas, pero pagaste por él igualmente. Pero estoy de acuerdo, a favor de las medidas de seguridad, es sólo que C++ me parece que las ofrece de manera más gradual.

D

#141 Bueno, realmente no he dicho nada, sólo parafraseado al usuario anterior aplicándolo a otro ámbito, pero ya te he revelado mi línea de pensamiento.

Así que ese "según dices" es una proyección tuya. Sin acritud, solo por aclarar.

h

#87 Aprender es una maravilla y se puede hacer toda la vida, pero el sistema actual nos hace asociar "aprender" con "debilidad", es todo lo contrario.

Polarin

#87 #90 #124 #138

Es que a los mayores de 40 no nos han prohibido todavia volver a la universidad.

Y ademas ahora existe Internet y puedes sacarte una carrera en universidades en otro continente.

En mi caso estoy intentando una segunda carrera en Ciencia de Datos y estoy pegandome con las asignaturas de matematicas porque hace mas 25 anios que me hice las de la carrera.

Soy mas bien calvo, que cuando empece usabamos el Turbo Pascal y el Turbo C, y OWL era un adelanto de la polla en vez de programar windows con la API en C a pelo,... y teniendo que cargar las entradas de las dll mirando los segmentos de memoria porque era win32 y en mi memoria de persono mayor me acuerdo de que habia un pollo bien montado con los puntos de entrada de las dll si tenias win32 en vez de 16 bits... pero hace mucho de eso.

h

#59 Pierde toda esperanza tío, nadie te escucha

M

#152 No en mi casa tampoco, pero les quiero igual

h

#59 Es que es complicado decir qué es mejor, pero hay cosas en las que no hay dudas, me explico: donde vivo, a veces, para ir a trabajar o de compras tengo que coger un ferry que tarda unos 20 minutos. Llevan la tele puesta para los pasajeros (sin sonido, porque el ruido del motor del barco no deja oir nada). Hacia la mitad del trayecto, el barco está a unos 2/3 km de la costa más cercana y la señal del TDT llega justa. Bueno, pues se pasa de ver dpm, a verse pixelada ligeramente, a congelarse trozos de la imagen y finalmente a congelarse la imagen entera... con la analógica, habría una "lluvia" intensa, pero sigues sabiendo lo que pasa, aunque claro, también hay que decir que antes de la TDT el barco no llevaba tele, así que...

s

#64 Eso sí que es cierto, en analógico la señal se degrada gradualmente (tiene mucha redundancia), mientras que en digital, al principio la corrección de errores evita la degradación, pero llegado un punto, falla totalmente, y pierdes macrobloques enteros (16x16 pixels).

h

#28 Para mi esa es la cuestión, siempre he creído que el "ruido" de la tx analógica es más "amable" para el ojo humano... y para ver cualquier mierda aleatoria no me hace falta 4k. Espero cambiar de opinión con los años, porque no hay vuelta atrás

s

#52 También hay que tener en cuenta que la calidad de emisión de la TDT ha mejorado mucho estos años, porque cuando empezaron a emitir era bastante mala, sobre todo en directos. Puede que por eso tengas el recuerdo de que la emisión analógica era "mejor".

h

#59 Es que es complicado decir qué es mejor, pero hay cosas en las que no hay dudas, me explico: donde vivo, a veces, para ir a trabajar o de compras tengo que coger un ferry que tarda unos 20 minutos. Llevan la tele puesta para los pasajeros (sin sonido, porque el ruido del motor del barco no deja oir nada). Hacia la mitad del trayecto, el barco está a unos 2/3 km de la costa más cercana y la señal del TDT llega justa. Bueno, pues se pasa de ver dpm, a verse pixelada ligeramente, a congelarse trozos de la imagen y finalmente a congelarse la imagen entera... con la analógica, habría una "lluvia" intensa, pero sigues sabiendo lo que pasa, aunque claro, también hay que decir que antes de la TDT el barco no llevaba tele, así que...

s

#64 Eso sí que es cierto, en analógico la señal se degrada gradualmente (tiene mucha redundancia), mientras que en digital, al principio la corrección de errores evita la degradación, pero llegado un punto, falla totalmente, y pierdes macrobloques enteros (16x16 pixels).

h

#31 No vale la pena, hay que dejar algo a la imaginación...

h

#18 Lo que teníais que haberle dicho es "sí, ya está afinado a 442hz, nosotros no queremos otra cosa"... y echaros unas risas viendo el concierto

thalonius

#26 Yo le haría un test a ciegas, a ver si es capaz de diferenciar un piano a 440 de 442, porque si saca el afinador para comprobar su requisito, entonces veo más postureo que verdadera intención.

Ya pasó con los violines, se hicieron audiciones a ciegas entre Stradivarius originales y violines de fibra y quedaban ahí igualados.

Que sí, que hay gente con oído absoluto y todo lo que quieras, pero por cada uno de esos, hay cien haciendo tonterías de postureo.

h

#75 porque quiere decir que hay inútiles que quitan el puesto a otra gente que lo haría mejor

Joer, pues si te parece poco... La verdad se acaba imponiendo, así tarde 1000 años, pero la gente se muere antes lol

Cualquier científico con un mínimo de competencia y experiencia en un área sabe lo que es relevante de verdad y lo que es basura.

¿Quieres decir que los que hacen peer review no llegan a "científico con un mínimo de competencia y experiencia"? No sé si me está tranquilizando mucho tu comentario, la verdad...

Al-Khwarizmi

#96 ¿Quieres decir que los que hacen peer review no llegan a "científico con un mínimo de competencia y experiencia"? No sé si me está tranquilizando mucho tu comentario, la verdad...

Tampoco van por ahí los tiros. Sencillamente, un artículo basura probablemente se envíe a una revista que publica constantemente basura. La gente que se presta a revisar para revistas así ya sabe a lo que va: a poner el listón bien bajo y dejar pasar los artículos porque "hoy por ti, mañana por mí". Si por casualidad un revisor honrado y exigente cae en una revista así, probablemente no le hagan mucho caso (he visto casos de revistas de ésas recibiendo comentarios que dejan un paper a la altura del betún y aceptándolo igual... pista: muchas de ellas son revistas que cobran por publicar) y no lo llamen otra vez.

Vamos, que no es que los revisores que dejan pasar la basura no sepan distinguirla, es que la dejan pasar porque ellos mismos viven de generar basura y les interesa que se siga generando. Es un quid pro quo.

h

#45 #43 Menos mal que hay gente como vosotros... si fuera por mi, vallaba la zona hasta que secase el hormigón

h

No entiendo el gráfico de la reconstrucción 3D. El texto dice que iba escorado a estribor, pero en las imágenes está escorado a babor. Seguramente sea sólo un fallo del periodista.

l

#14 Si entras ek Google y pides información sobre este caso te aparecen noticias en todos los medios.

h

#86 Sí, saber si un "ruido" tiene estructura y por lo tanto no es ruido, es casi un debate filosófico (insertar aquí la viñeta de xkcd y el vídeo de Veritasum, p ej.), pero diría que si pretendemos que esas máquinas nos sean útiles en tareas que antes hacían los humanos, tendrán que ser capaz de interpretar el "ruido" de la misma forma que un humano. Y entonces ya no estamos hablando de ruido en general, sino del que los humanos creen que es ruido.

h

#62 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo.: No hace falta, con poner un contraejemplo sería suficiente.

Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio.: Totalmente de acuerdo, han llegado para quedarse, como las calculadoras. No es mi intención contradecir eso, veo el futuro como simbiosis entre las dos "inteligencias" y ninguna va a sustituir a la otra. Es cierto que a nivel personal sí que me inquieta el uso que se está haciendo de este "megahype" que hay en torno a la AI para atraer inversión, denigrar las profesiones técnicas y pronosticar el apocalipsis laboral, pero he intentado no reflejarlo en mis comentarios en esta noticia, y mucho menos en la entradilla, lo cual sería microblogging.

Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.: Esto se repite mucho, pero no va a empezar a ser verdad. Un coche también tiene cuatro extremidades y no es un humano. En general, todo ese argumento de "todos nos equivocamos" y por eso "somos bastante parecidos" es falaz (non distributio medii).

el titular no lo veo correcto: ¿La diferencia es ese "siempre" que tú añades? La estabilidad es una propiedad del algoritmo, no de los datos de entrada... cuando un sistema no es BIBO se entiende que su salida puede estar acotada para algunas entrada, pero no para todas. Ese "siempre", siempre está implícito. Para un medio generalista como este, podría estar de acuerdo, pero me parece un debate semántico en el que no estoy muy interesado. Creo que se entiende perfectamente, pero si consigues que algún admin lo cambie, yo no tengo problema (aunque creo que no me quedaban más caracteres libres para la entradilla...).

ACEC

#73 Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Tienes razón en eso, es porque no me había leído el artículo. Esto es menéame...

h

#44 Ya te digo que entiendo perfectamente, sólo vengo a añadir que tu anécdota no desmiente la noticia.

Con tiempo desde luego, incluso viajaremos a las estrellas.

ACEC

#49 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo. Lo que vengo a decir es que a los humanos se nos engaña igualmente. Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que? Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio. Y no estamos hablando de cuando "viajemos a las estrellas", estamos hablando de hoy o de dentro de unos pocos meses o años. Si quieres resultados matemáticamente perfectos una IA no es el camino, para eso están los algoritmos deterministas y las calculadoras. Las IA tienen margen de error, se equivocan, igual que nos equivocamos los humanos. Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.

Por otro lado, el titular no lo veo correcto. Es mucho más acertado el subtitular: "Investigadores de la Universidad de Copenhague se han convertido en los primeros del mundo en demostrar matemáticamente que, más allá de los problemas sencillos, es imposible desarrollar algoritmos para la IA que sean siempre estables."

h

#62 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo.: No hace falta, con poner un contraejemplo sería suficiente.

Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio.: Totalmente de acuerdo, han llegado para quedarse, como las calculadoras. No es mi intención contradecir eso, veo el futuro como simbiosis entre las dos "inteligencias" y ninguna va a sustituir a la otra. Es cierto que a nivel personal sí que me inquieta el uso que se está haciendo de este "megahype" que hay en torno a la AI para atraer inversión, denigrar las profesiones técnicas y pronosticar el apocalipsis laboral, pero he intentado no reflejarlo en mis comentarios en esta noticia, y mucho menos en la entradilla, lo cual sería microblogging.

Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.: Esto se repite mucho, pero no va a empezar a ser verdad. Un coche también tiene cuatro extremidades y no es un humano. En general, todo ese argumento de "todos nos equivocamos" y por eso "somos bastante parecidos" es falaz (non distributio medii).

el titular no lo veo correcto: ¿La diferencia es ese "siempre" que tú añades? La estabilidad es una propiedad del algoritmo, no de los datos de entrada... cuando un sistema no es BIBO se entiende que su salida puede estar acotada para algunas entrada, pero no para todas. Ese "siempre", siempre está implícito. Para un medio generalista como este, podría estar de acuerdo, pero me parece un debate semántico en el que no estoy muy interesado. Creo que se entiende perfectamente, pero si consigues que algún admin lo cambie, yo no tengo problema (aunque creo que no me quedaban más caracteres libres para la entradilla...).

ACEC

#73 Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Tienes razón en eso, es porque no me había leído el artículo. Esto es menéame...

h

#34 "matemáticamente imposible" para el paradigma de aprendizaje que se usa hasta ahora. Claramente, todo aquel que no sea dualista entiende que debe haber alguna forma, nuestro cerebro sería una muestra de ello.

h

#19 go to #46

h
ACEC

#35 Ya, pero me apetecía contar mi anécdota para criticar a la guardia urbana de Barcelona
Las IA siguen evolucionando, quizás ahora una pegatina les confunda, pero dejará de hacerlo. Igual que hace no tanto habría que repetir 20 veces "si acepto" a los robots telefónicos para que te entendieran y hora puedes tener una conversación fluida con ellos, o hace tan solo unos meses las IA generaban manos de 7 dedos y ahora mismo ya son indistinguibles de una fotografía. Dales tiempo.

h

#44 Ya te digo que entiendo perfectamente, sólo vengo a añadir que tu anécdota no desmiente la noticia.

Con tiempo desde luego, incluso viajaremos a las estrellas.

ACEC

#49 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo. Lo que vengo a decir es que a los humanos se nos engaña igualmente. Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que? Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio. Y no estamos hablando de cuando "viajemos a las estrellas", estamos hablando de hoy o de dentro de unos pocos meses o años. Si quieres resultados matemáticamente perfectos una IA no es el camino, para eso están los algoritmos deterministas y las calculadoras. Las IA tienen margen de error, se equivocan, igual que nos equivocamos los humanos. Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.

Por otro lado, el titular no lo veo correcto. Es mucho más acertado el subtitular: "Investigadores de la Universidad de Copenhague se han convertido en los primeros del mundo en demostrar matemáticamente que, más allá de los problemas sencillos, es imposible desarrollar algoritmos para la IA que sean siempre estables."

h

#62 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo.: No hace falta, con poner un contraejemplo sería suficiente.

Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio.: Totalmente de acuerdo, han llegado para quedarse, como las calculadoras. No es mi intención contradecir eso, veo el futuro como simbiosis entre las dos "inteligencias" y ninguna va a sustituir a la otra. Es cierto que a nivel personal sí que me inquieta el uso que se está haciendo de este "megahype" que hay en torno a la AI para atraer inversión, denigrar las profesiones técnicas y pronosticar el apocalipsis laboral, pero he intentado no reflejarlo en mis comentarios en esta noticia, y mucho menos en la entradilla, lo cual sería microblogging.

Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.: Esto se repite mucho, pero no va a empezar a ser verdad. Un coche también tiene cuatro extremidades y no es un humano. En general, todo ese argumento de "todos nos equivocamos" y por eso "somos bastante parecidos" es falaz (non distributio medii).

el titular no lo veo correcto: ¿La diferencia es ese "siempre" que tú añades? La estabilidad es una propiedad del algoritmo, no de los datos de entrada... cuando un sistema no es BIBO se entiende que su salida puede estar acotada para algunas entrada, pero no para todas. Ese "siempre", siempre está implícito. Para un medio generalista como este, podría estar de acuerdo, pero me parece un debate semántico en el que no estoy muy interesado. Creo que se entiende perfectamente, pero si consigues que algún admin lo cambie, yo no tengo problema (aunque creo que no me quedaban más caracteres libres para la entradilla...).

ACEC

#73 Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).

Tienes razón en eso, es porque no me había leído el artículo. Esto es menéame...

S

#5 #35 Es que lo que defines como "ruido" es a medida de nuestra percepción. Una máquina percibe las cosas de forma diferente, así que lo que es ruido para ti, puede no serlo para la IA y viceversa. De hecho en otros ámbitos es muy tolerante al ruido que haría dudar a un humano.

h

#86 Sí, saber si un "ruido" tiene estructura y por lo tanto no es ruido, es casi un debate filosófico (insertar aquí la viñeta de xkcd y el vídeo de Veritasum, p ej.), pero diría que si pretendemos que esas máquinas nos sean útiles en tareas que antes hacían los humanos, tendrán que ser capaz de interpretar el "ruido" de la misma forma que un humano. Y entonces ya no estamos hablando de ruido en general, sino del que los humanos creen que es ruido.

h

#8 Gracias tío, la lucha continúa, si estáis escuchando esto, sois la Resistencia.

h

#31 Sé que un caso no demuestra nada, pero mi caso en la pública aún me causa insomnio algunas noches, por todo lo contrario.

Me hice una estructura de proyecto en Latex y para ver como quedaba maquetado copié dos frases (unas 50 palabras) de algún lado en el "abstract" del proyecto. Durante los siguientes meses, hice el trabajo y redacté todo el proyecto, añadiendo bibliografía relevante, la cual leí y escogí concienzudamente.

A mi tutor, que no se preocupó durante todo ese tiempo de saber cómo me iba, le envíe un borrador (por llamarlo de alguna manera, estaba casi acabado ya) semanas antes de la presentación. Lo único que se le ocurrió comentar es que lo había pasado por su herramienta chachi, que había detectado dos frases copiadas y que "igual me había pasado copiando".

Me retiró la palabra, no se presentó en la defensa de mi proyecto y creo que a partir de ese momento, los problemas que tuve con otros profesores e investigadores vienen de ahí. El tribunal, claro está, no encontró nada raro y me puso el sobresaliente. Así que cuando veo estas noticias pienso "me cago en tu puta estampa JuanJosé" (nombre ficticio ofc lol ).

KevinCarter

#50 Pero es que hablamos de casos distintos, la casuística obviamente es muy amplia y requiere análisis de caso por caso. Que eso te haya pasado a ti no significa que tenga que validar lo otro, que es una degradación absoluta del sistema... Simplemente te topaste con un gilipollas que detectaría un par de líneas copiadas, cosa que se soluciona explicándote para qué sirve citar, y pensó que a eso se le puede llamar plagio. Algo así como ser más papista que el Papa... Ni tanto ni tan calvo. Pero será por gilipollas en este país...