Hace 1 año | Por alafia a news.ycombinator.com

Comentarios

ochoceros

#10 Puede...

alafia

#1
Jeffrey Ladish:
"Both can be true:
1) Language models are really useful and can help people learn, write, and research more effectively
2) The rapid development of huge models is extremely dangerous and a huge contributor to AI existential risk"



I can see an argument for risk tolerance in the near term but I think that's failing to see the big picture
Language models can do a lot of awesome things for people that will be very good, and also some bad things that will be very bad
But the biggest risk comes from AGI


alafia

#3

La LLaMA de Yann LeCun, Premio Princesa de Asturias 2022 (https://www.fpa.es/es/premios-princesa-de-asturias/premiados/2022-geoffrey-hinton-yann-lecun-yoshua-bengio-y-demis-hassabis.html) estará echando humo.



ya me voy

buronix

#3 Repo con instrucciones mas detalladas de instalación y carga de los modelos:
https://github.com/RayHell/llama

D

#1 Mucho mejor que a esa tecnología solo tengan acceso las megacorporaciones y los gobiernos, seguro que hacen un uso ético de ellas lol

Nandete

#11 En cuanto avance un poco y además se pueda "acoplar" a tu cerebro en modo de lectura incluso podremos vivir para siempre haciéndonos un backup a un robotaco con IA, un duplicado nuestro que viva eternamente y sin problemas de salud ni mentales, ni emocionales...

D

#11 Algunos os flipáis mucho con el tema de las IA. Mientras no posean sentido común seguirán siendo más estúpidas que el más estúpido de los humanos. Y el paradigma actual de IA no contempla en ningún sentido el desarrollo de sentido común.

P.D.: ¿Cuándo o en qué sentido se ha restringido el acceso a OpenGPT? En este momento la veo igual de accesible que siempre.

D

#25 Tú lo has dicho, sus respuestas PARECEN lo que no son. De entrada si no sabe la respuesta se la inventa. Comercializar eso como fuente de inteligencia sería una estafa.

Me creo que haya idiotas que se contenten con eso, al estilo hikikomori. Pero no dejaría de ser una estafa.

alafia

#34 Es posible que sea una estafa. Pero hay mucha gente de muy alto nivel intelectual que de idiotas tienen muy poco muy asustada con esto. No digo con esto que tú no tengas ese nivel, claro... roll

D

#37 ”La gente de muy alto nivel intelectual” sabe que ni remotamente se puede llamar inteligencia al paradigma de IA actual. Ya te aseguro yo que asustados no están. ¿Por qué coño iban a estarlo?

#41 Es justo al revés de como lo cuentas. El paradigma de aprendizaje, entrenamiento y reconocimiento de patrones existe desde hace unas dos décadas (entonces se llamaban ”redes neuronales” y punto), lo único que ha cambiado es justamente la capacidad de procesamiento. No es ningún grial ni es nuevo, sólo es más potente y eso da resultados más vistosos.

Y no, esas respuestas que parecen reales ni siquiera van a ser útiles mientras una máquina no posea algo tan trivial como SENTIDO COMÚN, algo que no persigue ni puede lograr el actual paradigma de IA, basado únicamente en tuneo por reconocimiento de patrones.

#42 Claro, campeón, que el programa autogenerado funcione o no es lo de menos.

Jezú, qué flipados sois algunos.

D

#48¿de verdad crees que les va a costar emular una inteligencia humana?”

¿Entiendes que lo que diferencia a un ser inteligente de uno que no lo es radica en el SENTIDO COMÚN, y NO EN EL CONOCIMIENTO? ¿Y entiendes que no hay forma de emular el sentido común mediante simple tuneo por reconocimiento de patrones? En sentido común hasta un gato gana a una IA. Y así va a seguir siendo durante muchísimo tiempo ya que nadie está investigando en esa dirección.

Si a una IA le preguntas cómo resolver el calentamiento global te va a responder que exterminando a la Humanidad, una respuesta tan cierta como inútil. Basándote en pura lógica amoral es la respuesta más correcta posible, pero llamar a eso inteligencia es ser un canelo.

Y eso no va a cambiar con el paradigma actual basado en aprendizaje por datos y realimentación por inputs. Para llamar a algo ”inteligente” hace falta basar el aprendizaje en conceptos como las leyes de Asimov. Sentido común, algo que ni de coña se está integrando en las IA. Ni hay intención de hacerlo a día de hoy, ya que requiere de niveles de conocimiento elevados como moral o empatía, fuera del alcance del simple aprendizaje por atiborramiento de datos y patrones.

Tú crees erróneamente que conocimiento es lo mismo que inteligencia. Crees que un salto cuantitativo exponencial en conocimiento va a hacer la magia, cuando en realidad aún faltan saltos cualitativos mucho más básicos (y por ahora insalvables) en inteligencia no cognitiva. Se está llenando un carro al que le faltan los caballos, y aún nadie se ha preocupado lo más mínimo de cómo solventar esa parte crucial.

tsiarardak

#43 Bueno campeón. Yo he conseguido que funcione. Ha necesitado varios inputs por mi parte pero lo ha hecho. No es mágico pero es una herramienta muy potente. Y tengo ya los huevos pelaos en esto del software, pero nada. No he venido a convencerte de nada.

D

#80 Felicidades por descubrir las plantillas de código que otros llevamos utilizando desde hace décadas. Eso no te lo provee una IA.

Lo único para lo que estás usando la IA es para interpretar una pregunta y ahorrarte una búsqueda en Google/StackOverflow. El código lo está poniendo gente, iluso, exactamente igual que siempre. Y tú lo has de retocar para que funcione, exactamente igual que siempre.

La intervención de la IA en ese código es nula, empezando por que no es capaz de ligar un análisis de código con tu pregunta, sino sólo de ligar tu pregunta con la que otros hayan escrito en relación con el código. Como comprenderás la fiabilidad del resultado es pura lotería.

tsiarardak

#82 Tú estás hablando de copilot. Y esto no es lo mismo. He usado ambos

D

#84 No lo entiendes. Lo que he explicado es aplicable a cualquier IA existente, no sólo al asistente que tú digas.

S

#41 Totalmente de acuerdo con tu última frase. Si damos con una inteligencia artificial real, con una potencia de cálculo mucho mayor a la nuestra, a lo mejor nuestra especie podría ser una muesca en la evolución para dar paso a otra. O me estoy flipando y poco más.

HaCHa

#41 Por mucho alucinaje que nos peguemos, mientras esas inteligencias no comprendan cosas tan básicas como que un señor que está dando conferencias no está muerto, no valdrán ni para procesar biografías.
Y ese es el caso y lo será en el largo plazo. Se trata de IAs que no entienden un chorro de meao de lo que te están diciendo, por mucho que puedan resultar útiles, o molonas, o resultonas, sólo con dar unas respuestas que dan el pego y poco más.

tsiarardak

#34 Yo he estado trabajando generando código en Java, Shell script y Python y... No sabéis lo que se nos viene encima. Que sea realmente inteligente o no es lo de menos

#34 Tal vez quienes le encuentran utilidad no sean los idiotas...

D

#88 Hasta un palo puede ser útil. Pero creer que es un ente inteligente y pensar que va a sustituir a los humanos sí es de idiotas.

C

#21 Antes le pedías que te escribiera un cuento con un vampiro y lo hacía, y ahora salvo que la "hackees" dice que no, porque podría asustar a los niños, así de Flanders la han dejado.    

D

#33 Una lástima no poder jugar ”a tope”.

Aunque puedo entender el porqué. La IA no sólo se alimenta de patrones de datos, también se realimenta con respuestas y patrones de aprobación. Si no se limitan los inputs que se le pueden dar es fácil joderla (convertirla en psicópata, en dictadora, en troll...).

r

#21 De acuerdo. Yo sigo insistiendo en que todavía no existe la IA, porque no es "inteligente".
Sólo son muchos datos analizados de una o varias maneras y nada más. Pero no tiene ni idea de lo que son ni nada...

Existirá, estoy convencido, pero todavía no la hay.

Y también creo que está sobrevalorada. Se cree que va a conquistar todo y hacer todo obsoleto... demasiado "hype" hay con eso...

borre

#67 Sobrevalorada ni de broma, lo que pasa es que lo queremos ahora y ya. Y no somos capaces de ver más allá del día a día.

D

#67 Es un poco más que ”muchos datos analizados”, ya que es capaz de detectar patrones y proyectarlos en otros datos o incluso usarlos para generar datos nuevos (y no necesariamente verídicos). Esto se percibe mucho más claro en las IA que generan imágenes.

Pero sí, básicamente estoy de acuerdo con lo que dices. Se está montando tremenda paja en torno a algo que es sólo una pieza del puzzle. Para tener una inteligencia funcional hacen falta muchas más cosas que proveerla de una apariencia de conocimiento. Y a día de hoy nadie está investigando esas otras cosas.

r

#74 sí, lo de "analizar de una o varias maneras" era una manera burda de resumir lo que creo que es.
No es intentar desmerecer la cantidad de algoritmos y demás que hay detrás de lo que hay actualmente, sólo que no es, al menos para mí, de momento "inteligente"...

MasterChof

#67 hablando de ciertos temas (religión, política...) con la mayoría de personas, observas que no hay tanta diferencia. Ellos repiten los datos programados, según han visto en la TV u oído a otros... O aleccionados por los padres. Según esto, así te responden. Sí les cuestionas, cortocircuitan. No somos tan inteligentes como nos creemos.

Yo, principalmente, veo la diferencia en las emociones, aunque en nuestra sociedad estas están mal vistas, y tendemos a ocultarlas o dejarlas en un segundo plano.

gelatti

#11 yo estoy convencido que en breve la investigación en casi cualquier campo estará controlada por IAs, y quien no las controle que se olvide de innovar.

TontoElQueMenea

#11 "cuando no había sido restringido como ahora" lol

hasta_los_cojones

#11 la tercer noticia, me parece imposible, pero si fuese cierta no veo ningún problema.

P

#11 El Chat GTP "hace pocos días ha aprobado el examen de licenciatura en Medicina de EEUU (US Medical Licensing Examination)" El Confidencial.

Aergon

#11 ¿La IA es el nuevo juego de rol que nos va a convertir en asesinos de la katana?

yemeth

#11 Hace un par de años, bastante antes de ChatGPT, lo estaba petando en GPT-2 un juego online impresionante llamado "AI Dungeon" con el que co-escribías historias con la IA. La noche que lo descubrí no podía parar, de lo espectaculares que eran los resultados.

¿Para qué lo utilizaba mucha gente? Para generar historias NSFW y pajearse.

Hasta el punto que los de AI Dungeon un año después tuvieron que restringirlo un montón porque veían que la gente lo dedicaba a montarse fantasías de zoofilia y pederastia.

Trolencio

Que empiece la fiesta!

anonymousxy

#59 cuanta sutilidad y mala baba en tan pocas palabras. Mis dieses.

banyan

Kabooom! buen provecho. 👍

buronix

#27 que va, por lo visto los modelos de 7b y 13b son muy eficientes y pueden correrse con un equipo medio alto de consumo.
Y estos no comen ni descansan.

D

#28 Interesante, pensaba que aun se necesitaban cantidades grandes de vram como chatgpt, desde luego si es así cambia mucho todo

buronix

La LLama que llama a tu casa haciendose pasar por el del banco por que alguien ha accedido a tu cuenta y necesita tus datos para verificar que eres tu y devolverte el dinero extraviado.
Ya veras tu que risas se nos vienen encima.

D

#14 Teniendo en cuenta la pasta que vale el hardware para poner en marcha un modelo de estos seguramente sea más barato contratar un call center en India como hacen ahora

DaiTakara

#27 En realidad, una vez el modelo está entrenado, no se necesitan máquinas super impresionantes. Lo jodido es tenerlas evolucionando, para lo que si que necesitas mucha más capacidad de procesamiento, etc.

e

#27 El acento les delata

tdgwho

#60 Pos mira, si algún día lo monto te aviso. Aunque por lo que he leido, no le llega a la suela a chatgpt.

Y ese puedes probarlo en visual studio code, con esta extensión:

https://github.com/timkmecl/chatgpt-vscode

Y registrandote en openai (te dan 5 dolares de prueba que dan de sobra para matar el gusanillo)

D

#73 Le echo un vistazo. Gracias!

JamperLamper

ChatGpt:
La filtración y distribución del modelo de lenguaje LLaMa de Inteligencia Artificial, similar al de OpenAI, puede tener varias consecuencias técnicas para la humanidad:

Posible aumento en la competencia de IA: LLaMa es un modelo de lenguaje de alta calidad y puede utilizarse en diversas aplicaciones de inteligencia artificial. Su filtración y distribución pueden aumentar la competencia en el campo de la IA, lo que podría llevar a una mayor innovación y desarrollo en este campo.

Riesgos de seguridad cibernética: La filtración del modelo LLaMa también puede plantear riesgos de seguridad cibernética, ya que puede ser utilizado por ciberdelincuentes para generar contenido falso y malicioso en línea. Además, también puede ser utilizado para realizar ataques de phishing o para engañar a las personas mediante la manipulación de texto generado por IA.

Posible aumento de la desinformación: Al igual que con cualquier modelo de lenguaje de IA, LLaMa también puede ser utilizado para generar texto que puede ser utilizado para propagar información errónea o desinformación. La filtración del modelo podría aumentar la cantidad de información falsa que se difunde en línea.

Aumento de la capacidad de procesamiento de la IA: El modelo LLaMa es grande y complejo, lo que significa que puede requerir mucha capacidad de procesamiento y almacenamiento para funcionar. Su filtración y distribución pueden aumentar la capacidad de procesamiento y almacenamiento necesario para entrenar y ejecutar modelos de lenguaje de IA.

borre

#64 Al final volvemos a la enciclopedia Larousse lol

Ergo

#0 Para evitar el #microblogging estaría bien que escribieras la información en Artículos

Jakeukalane

#2 sí, pero el contenido está bien reflejado así que aún así no lo consideraría microblogging.

alafia

#2 Sip, el problema es que en estos momentos, hasta donde yo he podido buscar, no existen artículos que estén cubriendo esta noticia, por lo que he procurado recabar toda la info disponible. Creo que dada la relevancia de la noticia es preferible publicarla aquí en lugar de en Artículos, cuya visibilidad es más reducida.

borre

#5 Gracias por el aporte. En los próximos días espero multitud de gente experimentando para bien o para mal. Y espero ver gran cantidad de información también.

Z

LLaMA mucho la atención pero esto no lo hace funcionar cualquiera en cualquier PC

ochoceros

#12 En una semana tendrá miles de instalaciones en los r/homelabs de medio mundo.

e

#40 como por ejemplo cuál sería el hardware más asequible?

tdgwho

#47 Si lo que quieres es "jugar" un rato, te compensa pillar un shadowpc o un runpod, el segundo sale a 1 dolar la hora.

Si lo que quieres es montarlo en tu casa... pues una grafica con 24gb de vram, 32gb de ram... y 1tb de ssd eso para el modelo pequeño, el grande es inabarcable lol

Y aún así, saldrá caro, una grafica de esas no vale 500€, ni 1000€

e

#49 a ver en serio, que requisitos hacen falta?. los 32 GB de RAM y el tb SSD ya los tengo

valdría cualquiera de estas gráficas?
https://pangoly.com/en/hardware/vga/gpu-memory-size/24-gb

e

#52 gracias.

joder ahora que la gráficas estaban bajando se van a volver a ir por las nubes por esta mierda...

tdgwho

#55 nah, desde lo de la pandemia no han bajado, sigue habiendo escasez de chips.

soyTanchus

#49 Madre mía, vaya requisitos. Vamos, que yo con mi portátil sólo podría "emular" la inteligencia de un telespectador compulsivo de Tele5.

tdgwho

#62 Bueno, míralo por el lado bueno, tienes para el computo global de votantes de vox y podemos juntos lol

Aunque no es mucho consuelo la verdad

Grub

Semanas esperando y NO me carga el magnet... Router/nat/firewall/vpn y encima me estoy meando 😭 😭 😝

Pacman

Me espero a que alguien suba una imagen de máquina virtual con todo ya listo, que últimamente me da mucha pereza

tdgwho

#35 Y ve preparando el equipo, que para el modelo de 7B necesitas una grafica con 16gb de vram, y 16 gb de ram lol

Pacman

#40 rayos. Me queda corta la gráfica.

A ver si con una 4080 lol

tdgwho

#53 Pues andan por ahi de precio...

Y ya te digo, eso es lo minimo ninimo, de ahi para arriba si quieres mover el modelo de 65 billones....

Por eso te decía lo del runpod, pagas que se yo 10 o 20€ lo pruebas unas horillas, te aburres y lo quitas, igual si me da el venazo lo hago yo un día

D

#54 Molaría que re-alquilases el acceso para los que no nos apetece montar todo el tinglado, pero tenemos curiosidad por jugar un poco con esa IA.

anonymousxy

#54 si quieres mover el de 65 billones necesitas eso mismo pero de € lol

tdgwho

#90 en teoría, 10 gráficas de 24gb cada una y 240gb de ram.

así a ojo unos 50000€ solo con eso, luego hay que sumar 10 placas, 10 micros, 10 fuentes...

la broma puede andar por los 100000€

anonymousxy

#92 nada que un máster racer no pueda gastar.

torkato

A ver si no va a tener tiene bicho dentro...

En cualquier caso, una vez filtrado, será imposible de retirar

D

A ver, lo importante. Está capada a lo woke o es una IA anarquista y salvaje? Porque para IAs políticamente correctas, ya tenemos a ChatGPT...

yemeth

#0 El enlace debería venir en la descripción.

[magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA](magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA)

https://github.com/facebookresearch/llama

Z

#68 depende, es posible que hayan obtenido el control de la cuenta de github del desarrollador y no haya sido algo voluntario, entonces si podría ser similar a una filtración.

D

Y para que le sirve eso a un ciudadano mortal?

D

#22 Poder ejecutarlo en tu hardware sin depender de empreas ni "nubes" ajenas y hacer con ello lo que te de la gana sin restricciones

e

#30 algún tutorial cómo hacerlo?

pepean

c

Vamos a morir todos.

K

No entiendo. Si se ha filtrado y Meta no lo ha autorizado, qué hace el enlace magnet de torrent en el Github de open source de Meta?

Z

#17 simplemente la noticia es que en lugar de un form y una preaprobación ahora han puesto directamente el torrent, pero de filtración nada, lo han publicado y ya está, eso o se les ha revelado un desarrollador: https://github.com/facebookresearch/llama/pull/73/files

r

#19 Entonces es errónea/sensacionalista?

Nadieenespecial

#17 Aparentemente es super facil tener acceso completo al modelo si eres un desarrollador o investigador, no como chatgpt que solo dan la api, aqui dejan descargarse el modelo reentrenarlo y de todo
Supuestamente alguien ha metido la pata y lo ha publicado, con su link personalizado, es decir, que meta puede saber perfectamente quien fue.