La Unión Europea parece que se convertirá en el primer organismo en regular sobre inteligencia artificial y, aunque la empresa de Altman intente cumplir con las normas, reconoce que podrían terminar yéndose.
#2:
El otro día le explicaba a un meneante que la petición de Sam Altman de regular la IA y pedir una moratoria no es más que un paripé para parar la competencia que tienen de la comunidad open source. Esta noticia de hoy creo que confirma todavía más mi sospecha.
A priori puede resultar inexplicable mi afirmación ya que estas empresas tienen miles de millones y toda la información para entrenar a estas IAs pero aquí es donde entra en juego este memorando interno de Google: https://www.semianalysis.com/p/google-we-have-no-moat-and-neither
Desde que Meta publicó a Llama (ojo, el código sin los pesos) la cosa se ha acelerado hasta unos límites insospechados. Si me tengo que quedar con una frase, sería ésta: "They are doing things with $100 and 13B params that we struggle with at $10M and 540B" ("Están haciendo cosas con $100 y 13B de parámetros que a nosotros nos cuesta llegar con $10 millones y 540B de parámetros").
Si os pasáis por aquí ( civitai.com/ ) y verás a montones de modelos entrenados por gente en su casa, que sí, que ahora no llegan a Midjourney pero comparativamente hablando a nivel de coste es la risa.
Sam Altman empezó a pedir en alto una regulación hace dos semanas. ¿Qué CEO de una empresa pide regular un sector completo y que afecte a los beneficios de su empresa si no es para simplemente parar a la competencia?
Es un avance muy complejo, pero estoy seguro de que las grandes no están pidiendo regulación por nuestro bien, eso está claro, que hablamos de las mismas que venden nuestros datos al mejor postor y la mayor parte de las veces al peor.
El otro día le explicaba a un meneante que la petición de Sam Altman de regular la IA y pedir una moratoria no es más que un paripé para parar la competencia que tienen de la comunidad open source. Esta noticia de hoy creo que confirma todavía más mi sospecha.
A priori puede resultar inexplicable mi afirmación ya que estas empresas tienen miles de millones y toda la información para entrenar a estas IAs pero aquí es donde entra en juego este memorando interno de Google: https://www.semianalysis.com/p/google-we-have-no-moat-and-neither
Desde que Meta publicó a Llama (ojo, el código sin los pesos) la cosa se ha acelerado hasta unos límites insospechados. Si me tengo que quedar con una frase, sería ésta: "They are doing things with $100 and 13B params that we struggle with at $10M and 540B" ("Están haciendo cosas con $100 y 13B de parámetros que a nosotros nos cuesta llegar con $10 millones y 540B de parámetros").
Si os pasáis por aquí ( civitai.com/ ) y verás a montones de modelos entrenados por gente en su casa, que sí, que ahora no llegan a Midjourney pero comparativamente hablando a nivel de coste es la risa.
Sam Altman empezó a pedir en alto una regulación hace dos semanas. ¿Qué CEO de una empresa pide regular un sector completo y que afecte a los beneficios de su empresa si no es para simplemente parar a la competencia?
Es un avance muy complejo, pero estoy seguro de que las grandes no están pidiendo regulación por nuestro bien, eso está claro, que hablamos de las mismas que venden nuestros datos al mejor postor y la mayor parte de las veces al peor.
#2 la regulación europea es un tiro en el pie. No por perder el acceso a estos modelos de OpenAI, que también, sino porque va a impedir la innovación precisamente en los pequeños desarrollos y en los modelos de código abierto
#11 Qur pena dais gente como tu que no sois capaces de razonar por vuestra cuenta y necesitais un programa informatico para opinar y wue regile vuestras bidas. Os compadezco.
Si se va, es la oportunidad perfecta, para abrir un centro publico de desarrollo de IA e invitar a la comunidad open source a desarrollar sus IA´s con fondos públicos.
#6 Europa, úñtimamente esta con lo de “que inventen ellos”, si se va OpenAI será perjudicial para Europa, pero los legisladores no tienen la formación mínima para entender de que va eso, se creen que es como una empresa más.
#6 sí estoy seguro de que un centro público va a desarrollar algo útil e interesante punto se nota que sabes de lo que hablas. Precisamente este tipo de regulaciones lo que hacen es dejar fuera cualquier pequeño desarrollo de código abierto y cualquier iniciativa de empresas pequeñas punto solo los grandes se pueden enfrentar a semejantes mamotretos regulatorios
Comentarios
El otro día le explicaba a un meneante que la petición de Sam Altman de regular la IA y pedir una moratoria no es más que un paripé para parar la competencia que tienen de la comunidad open source. Esta noticia de hoy creo que confirma todavía más mi sospecha.
A priori puede resultar inexplicable mi afirmación ya que estas empresas tienen miles de millones y toda la información para entrenar a estas IAs pero aquí es donde entra en juego este memorando interno de Google: https://www.semianalysis.com/p/google-we-have-no-moat-and-neither
Desde que Meta publicó a Llama (ojo, el código sin los pesos) la cosa se ha acelerado hasta unos límites insospechados. Si me tengo que quedar con una frase, sería ésta: "They are doing things with $100 and 13B params that we struggle with at $10M and 540B" ("Están haciendo cosas con $100 y 13B de parámetros que a nosotros nos cuesta llegar con $10 millones y 540B de parámetros").
Si os pasáis por aquí ( civitai.com/ ) y verás a montones de modelos entrenados por gente en su casa, que sí, que ahora no llegan a Midjourney pero comparativamente hablando a nivel de coste es la risa.
Sam Altman empezó a pedir en alto una regulación hace dos semanas. ¿Qué CEO de una empresa pide regular un sector completo y que afecte a los beneficios de su empresa si no es para simplemente parar a la competencia?
Es un avance muy complejo, pero estoy seguro de que las grandes no están pidiendo regulación por nuestro bien, eso está claro, que hablamos de las mismas que venden nuestros datos al mejor postor y la mayor parte de las veces al peor.
#2 la regulación europea es un tiro en el pie. No por perder el acceso a estos modelos de OpenAI, que también, sino porque va a impedir la innovación precisamente en los pequeños desarrollos y en los modelos de código abierto
Ya estan tardando...
#1 yo prefiero que se vaya gente con mente vacía como tú
#11 Qur pena dais gente como tu que no sois capaces de razonar por vuestra cuenta y necesitais un programa informatico para opinar y wue regile vuestras bidas. Os compadezco.
#13 y sin embargo sabemos escribir en castellano mejor que tú
#5 se exageran desarrollando pero menos por europeos punto porque los europeos nos pueden sancionar de una forma gigantesca
Un montón de restricciones sin ningún sentido y sin ningún obetivo, alucinadas para protegerse de peligros imaginarios en un futuro distópico.
Pues te vas, claro que te vas.
#3 y que encima no evita absolutamente nada. Las IAs se van a seguir desarrollando igual, quiera Europa o no.
La burocracia mata
Si se va, es la oportunidad perfecta, para abrir un centro publico de desarrollo de IA e invitar a la comunidad open source a desarrollar sus IA´s con fondos públicos.
A amenazar sabemos jugar todos...
#6 Europa, úñtimamente esta con lo de “que inventen ellos”, si se va OpenAI será perjudicial para Europa, pero los legisladores no tienen la formación mínima para entender de que va eso, se creen que es como una empresa más.
#6 sí estoy seguro de que un centro público va a desarrollar algo útil e interesante punto se nota que sabes de lo que hablas. Precisamente este tipo de regulaciones lo que hacen es dejar fuera cualquier pequeño desarrollo de código abierto y cualquier iniciativa de empresas pequeñas punto solo los grandes se pueden enfrentar a semejantes mamotretos regulatorios
#6 claro claro. Eso ha funcionado tan bien...
Agarra las maletas y vete. Las amenazas uno se las mete por el orto.