edición general
DiThi

DiThi

En menéame desde abril de 2006

8,72 Karma
4.185 Ranking
Enviadas
Publicadas
Comentarios
Notas

Así sigue Catarroja (18 de febrero) [49]

  1. #26 Para evitar eso no lo sé, pero para haber salvado muchas de las vidas que se han perdido por las alertas tardías, a cualquier otro partido.

DeepSeek colapsa tras saltar a la fama: se queda sin capacidad ante la fuerte demanda y paraliza uno de sus servicios [45]

  1. #42 el #31 se me ha colado ahí sin querer poniendo el mensaje en otro sitio
  1. #31 Está entrenada nativamente en FP8, la confusión probablemente viene por la versión BF16 que hay en hugging face (que ocupa el doble de bits), que alguien ha hecho porque su infraestructura para entrenar usa BF16.

    La diferencia entre GPU y DDR5 es bastante importante, porque el cuello de botella está en el ancho de banda de la memoria. Fíjate que he dicho que "puede funcionar" pero no a qué velocidad. Usando un Epyc dual con múltiples canales de memoria, la versión original puede ir a 6-8 tokens por segundo, mientras que un equipo más normalito con 80 GB, tirando del máximo cuantizado y un poco de SSD va a menos de 1 t/s. En ningún caso se acerca a la velocidad que va por GPU. Pero por lo menos por encima de 6 t/s es bastante soportable.
  1. #31 #38 En OpenRouter está gratis (proporcionado por azure y chutes), pero va lento por la demanda. Y de pago la he visto en unos cuantos: fireworks ai, hyperbolic, deepinfra, kluster ai, together ai... creo que todos en EEUU. En Europa acabo de ver que está nebius ai (en Finlandia) y al igual que fireworks dan 1$ gratis.
  1. #22 Unas cuantas!
  1. #12 la versión completa sin cuantizar solo necesita la mitad que eso. Y si lo cuantizamos mucho puede funcionar incluso con 80 gb de ram (DDR5, sin GPU).
  1. #3 Sabemos exactamente el coste de ejecutar (porque cualquiera que sepa lo puede instalar en un servidor con suficiente VRAM), y es bastante barato para lo que es. Pero por muy barato que sea, siempre hay un límite de demanda.

La evolución de la temperatura media anual desde 1850 hasta 2024 [79]

  1. #15 Ojo a las flechitas en el borde derecho donde indica donde está en 2016.

DeepSeek arrasa en España: ya es la app más descargada, superando a ChatGPT [105]

  1. #77 Han tomado medidas para reducir los ataques DDoS.
  1. #5 El modelo completo requiere un equipo bastante potente (no tanto como el que pones tú ahí, pero sí unos 6000€ por lo menos), pero lo interesante de que sea open weights no es únicamente que puedas ejecutarlo tú en teoría, sino que los pueden ejecutar otros en la práctica. O sea ya hay por lo menos 6-12 proveedores diferentes en diferentes partes del mundo que ofrecen una API de deepseek R1.

Francia lanza su propia IA para competir con ChatGPT y termina apagándola tras convertirse en el hazmerreír de Internet [132]

  1. #97 Eso me estaba preguntando yo. Aunque no llegue al nivel de esos dos, Mistral es bastante decente. Y ahora han sacado un modelo pequeño de 24B (mistral 3 small) que podemos ejecutar en local y funciona sorprendentemente bien para su tamaño.

Italia elimina el chatbot de DeepSeek de las tiendas de aplicaciones [115]

  1. #111 El modelo completo es demasiado tocho para mi equipo, así que uso la API de algún proveedor. Por ejemplo fireworks.ai lo ofrecen, creo que dan 1$ gratis (que da para muchos mensajes) y tienen API de text completion (que hace falta para poder saltarse la censura, para eso después del prompt pon <think> y un solo salto de línea). Recomendaría usar la API a través de una GUI. Aun tengo que averiguar como tener toda la funcionalidad de la web (con el modo búsqueda, sin re-enviar el <think></think> de los mensajes anteriores cada vez para no estar consumiendo tokens y contexto, y poder ocultar el think).

    Acabo de ver que está gratis en openrouter, pero sin text completion, solo la API de chat. Así que mientras no necesites preguntar ciertas cosas relacionadas con China, openrouter parece la mejor opción.

Qwen2.5-Max: Explorando la inteligencia del modelo MoE a gran escala [54]

  1. #51 No hace falta gastar tanto para ejecutar DeepSeek R1 de 671B incluso sin cuantizar (comprimir). Aquí un hilo de alguien montándose un PC por 6.000 dólares que ejecuta el modelo a 6-8 tokens por segundo. Si lo cuantizas a 4 bits en teoría va el doble de rápido y ocupa la mitad de memoria. Aunque no sea asequible para mí, es importante que sí lo sea para otros porque podemos usar el modelo sin depender de los servidores de los propietarios de los modelos, así como usar versiones modificadas, etc.

    threadreaderapp.com/thread/1884244369907278106.html
  1. Ojo que el modelo max no es abierto, no se puede descargar ni ejecutar donde quieras como R1. Solo se puede usar a través de sus servidores. Por eso ni me he molestado en probarlo.

Italia elimina el chatbot de DeepSeek de las tiendas de aplicaciones [115]

  1. #26 La web oficial te da ese resultado porque no tiene más remedio, pero el modelo es abierto y yo lo he podido usar sin censura (o sea, censura tiene pero es increíblemente fácil saltártela).

De "imposible" a inevitable: cómo DeepSeek dejó a Sam Altman mordiéndose la lengua [47]

  1. #4 Esa no es muy buena para generar imágenes, es mucho más interesante para el reconocimiento de imágenes.

    Que por cierto, ayer salió Qwen-2.5-VL, otro modelo chino libre, esta vez en su versión multimodal (para reconocimiento de imágenes y videos).

Cómo instalar DeepSeek para usarlo de forma local en tu ordenador Windows, macOS o GNU/Linux [97]

  1. #69 Hay varias formas de quitarle censura a modelos. Una es entrenarlo con el tipo de datos que quieres que dé, y otra es con una técnica llamada "abliteration" que básicamente identifica los pesos que provocan la respuesta censurada y los anula. Es algo así como cortar aquellas conexiones neuronales que se activan exclusivamente durante una respuesta censurada y no durante cualquier otro tipo de respuesta.
  1. #45 Sí que se puede porque 1. el entrenamiento también incluye datos fiables de tianmen y taiwan, y 2. hay diversas técnicas de quitar censuras de un modelo.

La IA DeepSeek funciona de forma local en PC, el fin de ChatGPT [84]

  1. #56 Los distills de 8 y 70B están hechos a partir de llama 3.1 y 3.3 respectivamente. Ollama debería haber incluído los nombres originales de los distills en su nombre.
  1. #50 Para inferencia necesitas mucho más. Son 37B de parámetros activos por token, y en cada token puede ser diferente. Lo de 37B activos permita que funcione muy rápido en comparación con un modelo denso, pero no te libras de tener que alojar todo el modelo en memoria. La versión más cuantizada que existe (y que funcione!) ocupa 131 gb (solo el modelo, sin contar con el contexto).

Nvidia pierde más de 400.000 millones de dólares tras la irrupción de DeepSeek, en la mayor destrucción de valor de la historia de la Bolsa [178]

  1. #65 En la UE tenemos a Mistral.

La IA china DeepSeek lidera descargas en dispositivos Apple en EE.UU., superando a ChatGPT [74]

  1. #52 Según cuanta velocidad quieras, y cuanto lo comprimas. Han conseguido ejecutarlo con menos de 200 gb de ram con una calidad aceptable (y rendimiento aceptable para según que usos).
  1. #34 La censura de chatgpt no te la puedes saltar, pero la de deepseek sí. Es lo que tiene que sea software libre y open weights.

    No es chino, es de todos. Lo único que la web principal está en china y tienen que cumplir sus leyes.

China ha desarrollado una IA con el mismo rendimiento que ChatGPT por un 7% del coste [89]

  1. #88 La cantidad de corrupción es proporcional a la cantidad de poder que uno tiene. Eso de poder presentarse a alcalde no es muy diferente a como es en China. La cuestión es que existe y que la gente vota a sus dirigentes locales. Cualquiera puede presentarse como candidato. No me malinterpretes, no me gusta el sistema de votaciones de China un pelo. Pero la idea de que es todo una dictadura pura y dura es incorrecta.

Mucha herencia y subvenciones, poco emprendimiento: así se han hecho ricos Musk y los que serán los primeros billonarios [87]

  1. #82 Resalto lo de "en sus circunstancias". Yo también habría sabido hacer idealista en aquel entonces. Pero yo no podría haber mantenido un servidor con su conexión funcionando durante el suficiente tiempo para poder tener ingresos que lo mantengan (de hecho no me habría dado ni para un solo mes), ni podría haber dedicado nada de dinero a publicidad, ni SEO, ni nada de eso. Tampoco sabemos qué conexiones puede haberle facilitado que tenga éxito. A veces el apartado técnico de uno de estos proyectos es lo más obvio, pero se te olvidan los inmensos costes de la gestión y el mantenimiento. Tú tampoco hubieras podido, salvo que seas de una familia adinerada, en cuyo caso jugamos en una liga diferente.
« anterior1

menéame