edición general
DiThi

DiThi

En menéame desde abril de 2006

8,83 Karma
3.805 Ranking
7 Enviadas
2 Publicadas
1.288 Comentarios
8 Notas

La IA obliga a cambiar los trabajos escolares: los profesores piden ahora reflexión sobre las tareas y vuelven a la oralidad [106]

  1. #45 Fuentes, citaciones, referencias. Pídeles a tus alumnos que documenten bien de donde sale la información. Ahora es más imporante que nunca. Sin ello la gente no aprenderá a distinguir qué es verda de lo que no. Sin ello la ciencia no podrá avanzar.

Los creadores de DeepSeek, la IA china que noqueó a Silicon Valley, desvelan sus secretos [75]

  1. #30 prueba GLM 4.5
  1. #50 Habla de los instruct templates, creo. De estructurar por ejemplo los mensajes sistema/asistente/usuario mediante tokens especiales.
  1. #14 En machine learning, "end of sentence" y "end of sequence" se usan de forma intercambiable. Ambos significan lo mismo, un token especial para parar la generación.

    Un LLM base es cierto que siguen generando indefinidamente. Pero un LLM fine-tuned para instrucción (que lo son todos los que se usan para chatbot) está entrenado con los tokens especiales para que pueda seguir instrucciones y "decidir" que es hora de parar. De hecho puedo alargar o acortar las respuestas cambiando el bias del logit de EOS. O sea subir o bajar la probabilidad de que emita el token de EOS. Si me paso de bias, se queda generando hasta el infinito, y se ralla porque no está entrenado para seguir hablando.
  1. #71 Sigo sin saber de que hablas. Encoder del modelo BERT? OpenAI fue quien les quitó el encoder para hacer GPT. Los LLM actuales no tienen encoder. Son decoder-only.

    Si hablas del entrenamiento en FP8 directamente, eso es solo una de las diferencias de algunos de los modelos chinos con los occidentales. Los chinos han sacado muchas otras innovaciones que también benefician mucho al entrenamiento en 16 bits en el tema de ahorro de energía.
  1. #69 De quienes estás hablando? Yo uso modelos abiertos chinos que no tienen nada que envidiar a gemini...
  1. #18 No sé qué quieres decir. Lo que yo estoy diciendo es que están creando modelos que cuestan mucho menos de entrenar. No es que "usen" un modelo más barato, sino que hacen ellos un modelo más barato.

    Edit: si hablas de modelo de GPU, eso es parte del coste, sí, pero la mayor parte de los costes son la electricidad.
  1. No es la única. Hay unas cuantas empresas chinas de IA (la mayoría son pequeñas y desconocidas) que le están dando de palos a EEUU consiguiendo entrenar a IAs por una fracción del coste con innovaciones como la de deepseek, y encima publican esas IAs como pesos abiertos y publican como lo hacen. Pero la gente tarda en enterarse, por eso a la burbuja aun le queda un rato.

Chat Control 2.0: el plan de vigilancia masiva que quiere implementar la Unión Europea [134]

  1. #95 Totalmente de acuerdo. Es terrible lo mires como lo mires.
  1. Hecha la ley, hecha la trampa. El 99.99% de delincuentes que podrían cazar con esto sabrán evitar el escaneo de mensajes. No pueden hacer nada contra un linux live y un tor browser.

    Esto no sirve para evitar CSAM y sirve mucho para espiarnos a todos y que luego haya leaks accidentales de datos privados de todos.
  1. #22 Se supone que el análisis se haría en el mismo dispositivo, con una IA pequeña o lo que sea, solo enviando lo que es sospechoso. Y luego ya una IA más grande puede detectar muchas más cosas. Pero el hecho de que funcione o no es irrelevante. Es un ataque a nuestra privacidad de cualquier modo y debemos oponernos.

Los datos que desmienten a Vox: España tiene el doble de extranjeros que en 2005 y una tasa de delincuencia más baja [129]

  1. #64 Ten en cuenta que no podemos saber si han subido de verdad o tan solo se reportan más.
  1. #22 Has leído el artículo que enlazas? Desmonta la noción de que los extranjeros sean más delictivos.

Una experta en seguridad alimentaria avisa: "los ultraprocesados están diseñados para crear adicción, y lo consiguen" [53]

  1. #41 No hay pruebas de que haya adicción real a la sal, glutamato, grasa, etc. pero sí al azúcar. En particular la fructosa (que además se metaboliza de forma muy similar al etanol).

    www.sciencedirect.com/science/article/pii/S2161831322011073
  1. #21 La adicción no necesita tener un efecto psicoactivo asociado (aparte de los mecanismos de recompensa) para considerarse adicción. El azúcar produce este efecto. Especialmente la fructosa, que no tiene un efecto saciante asociado, pues en la naturaleza siempre ha venido acompañada de algo (como la fibra alimentaria) que sí que produce saciedad.
  1. #34 Por la misma razón que se echa sal, estimula un tipo de papilas gustativas (en este caso umami en lugar de salado). El hecho de que esté presente en el sistema nervioso no significa nada.

    La adicción lo produce el azúcar.
  1. #8 La principal sustancia adictiva es el azúcar. El glutamato monosódico no es adictivo de por sí.

Anthropic se enfrenta a una demanda por derechos de autor que podría poner fin a su negocio (EN) [54]

  1. #15 Algunos modelos chinos ya son mejores que claude, y encima son modelos abiertos

Cómo es Kimi K2, el nuevo modelo de IA de China que marca “otro momento DeepSeek”, según la revista Nature [42]

  1. Son muchos modelos abiertos chinos dominando el panorama: No solo deepseek y kimi k2, también está GLM-4.5, qwen 3 coder, y varios más.

Investigadores descubren que la reducción de la contaminación del aire en Asia Oriental, especialmente en China, ha acelerado el calentamiento global [98]

  1. #90 Y toda esa subida que mencionas ocurrió en 2023 y un poquito de 2024. Desde entonces ha bajado. Vale, probablemente no sea suficiente (veremos como va en el futuro), pero decir que solo ha subido ignorando el último año y pico es un poco engañoso. Y "el resto del mundo industrializado" usa muchísima industria de China, así que no estamos libres de culpa.
  1. #77 De donde sacas que "contamina cada vez más"? Mira #88
  1. #87 Por qué eliges 2023? El pico de emisiones ocurrió a principios de 2024. Y no olvides que muchas de sus emisiones son causadas por nuestra demanda. La mayor parte de cacharros que usas se fabricaron allí.  media
  1. #50 Esa gráfica acaba en 2023, cuando desde febrero de 2024 se ha mantenido estable, la gráfica es casi plana. Además, siendo la fábrica del mundo no solo están intentando reducir sus emisiones, también las nuestras (muchas de las cosas que compramos emitieron sus emisiones allí al fabricarse). No podemos estar pidiéndoles que dejen de emitir tanto al mismo tiempo que le estamos comprando de todo, especialmente cosas baratas que se rompen con facilidad. Ellos fabrican cosas de calidad también, pero lo barato es lo que vende y lo barato nos sale caro en realidad.

Así sigue Catarroja (18 de febrero) [49]

  1. #26 Para evitar eso no lo sé, pero para haber salvado muchas de las vidas que se han perdido por las alertas tardías, a cualquier otro partido.

DeepSeek colapsa tras saltar a la fama: se queda sin capacidad ante la fuerte demanda y paraliza uno de sus servicios [45]

  1. #42 el #31 se me ha colado ahí sin querer poniendo el mensaje en otro sitio
« anterior1

menéame