Se acabó. Me harté. Estoy poniendo mi pie en esta locura. 1. Cada persona que envíe informes de seguridad debe responder a esta pregunta: «¿Has usado IA para encontrar el problema o generar este envío?». (y si lo seleccionan, pueden esperar un flujo de preguntas de seguimiento de prueba de inteligencia real) 2. A partir de ahora, expulsaremos INSTANTÁNEAMENTE a todos los que envíen informes que consideremos bazofia de IA. Si pudiéramos, les cobraríamos por esta pérdida de tiempo.
|
etiquetas: curl , open source , ia
Pero pocos se dan cuenta de la gran dificultad que tendrán para eso, y es que los gatos llevan siglos con un plan en marcha para hacerlo antes.
Eso será una batalla fascinante.
Oficinista A
- Usa la IA para redactar un email corporativo a partir de tres puntos importantes
Oficinista B
- Usa la IA para resumir el email corporativo a los puntos importantes.
Político A hace una ley con IA apartir de unos puntos básicos.
Político B analiza la ley con IA para que le resuma a los puntos importantes, y le pide propuestas para camboarlos.
Político A analiza con IA las enmiendas y etc...
Yo no tengo tan claro
En los comentarios hablan de recompensas por descubrir bugs. Igual alguien está intentando automatizarlo a ver si suena la flauta y se saca un sobresueldo sin hacer nada.
AHI esta uno de los principales problemas de la IA, y todos los liberales que las ponen en un pedestal solo piensan en eso.
Si tu problema es un tema matemático, te valdrá. Si necesitas que alguien piense en el proceso, vas a tener que hacerlo tú, antes o después de lo que escupa la IA. Estas IAs son matemáticas comprimidas, y ya.
Pero con eso sólo no vale… » ver todo el comentario
Tu comentario resalta puntos muy importantes sobre el uso de la inteligencia artificial. Es cierto que la IA puede ser una herramienta poderosa para detectar patrones y sutilezas en la comunicación, pero su efectividad depende en gran medida del contexto y de la supervisión humana. La IA puede ofrecer información valiosa y respuestas basadas en un vasto conjunto de datos, pero carece de la capacidad de juicio y de la comprensión profunda que solo un ser humano puede
… » ver todo el comentario
El problema es el paso siguiente, el de elaborar una respuesta. Y concretamente, el hecho de que te la redactan como si fuera un hecho cierto, y no deja de ser un batiburrillo de cosas que tiene que ver más o menos con tu pregunta, pero puede ser válida o no. Si alguien entiende eso, va por el buen camino para aprovecharse de ellas como lo que son, herramientas.
Lo demás de acuerdo con tu comentario.
Spoiler: serás completamente incapaz.
Para no perdernos en entelequias hay que bajar a lo concreto y señalar allí donde estos modelos fallan y los humanos aciertan con ejemplos replicables.
Repito, pocas IAs pareces usar tú.
Lo que no tiene ningún sentido son las vaguedades, entelequias y pensamiento mágico de quienes sin concretarlo con ningún ejemplo dicen que las IAs no pueden razonar como las personas.
PD: desde luego que utilizó pocas inteligencias, solo las más avanzadas y los últimos modelos. O3, Gemini 2.5, cursor y perplexity. Las uso a diario en mi trabajo desarrollando modelos de visión por computador con inteligencia artificial y basado en mi experiencia diaria no me cabe la menor duda que los LLM son más inteligentes que la inmensa mayoría de personas. Te puedo poner decenas de ejemplos.
Va a un ritmo impresionante, y quizás lleguemos… » ver todo el comentario
**Reporte de Seguridad: curl**
*Fecha: 22 de enero de 2025*
*Autor: IA de la Oficina de Seguridad de la Red*
---
*Resumen:*
El sistema *curl* ha sido sometido a un análisis de seguridad rutinario, y aunque no ha habido incidentes graves, se han detectado algunos comportamientos sospechosos que podrían indicar una amenaza
oculta. La IA no está… » ver todo el comentario
Pero pocos se dan cuenta de la gran dificultad que tendrán para eso, y es que los gatos llevan siglos con un plan en marcha para hacerlo antes.
Eso será una batalla fascinante.
#14 Como decían en la peli yo robot "haz las preguntas correctas", pues eso pasa con la IA, que gente que se informa por tiktok y por Instagram se piensan que tienen tres neuronas conectadas como pa preguntarle a la IA
Esas asociaciones codifican conceptos abstractos y sus relaciones, pero no datos específicos.
Pues claro que la guardan!!!
Quieres decir que puedo guardar todo el chatGPT que usamos en un pen de 32Gb?
Todos esos "vectores" y "pesos" entre otrad cosas son información
Quieres decir que puedo guardar todo el chatGPT que usamos en un pen de 32Gb?
Depende de la versión y modelo, sí. De hecho tienes LLMs de apenas 3 gigas (dependiendo de cuantos parámetros quieras) que puedes descargar y usar localmente en tu PC. Mira los de Meta que son libres y… » ver todo el comentario
Lo que queda codificado en esos pesos, como he dicho, son asociaciones estadísticas entre abstracciones con cierta variedad estocástica
O sea, información. De lo que hablas es de formatos.
Podriamos decir que esto es un "formato vectorial" haciendo analogías forzadas
Serán 3 Gigas cuando la instalas, pero no son 3 Gigas para siempre.
A qué crees que se debe?
O sea, información. De lo que hablas es de formatos.
No, de nuevo, no hay "datos", no hay valores especificos como que los coches tienen 4 ruedas. Y desde luego nada que ver con una base de datos que es de lo que hablábamos. Los pesos son información? Formalmente sí, pero no son datos o "conocimiento", ni nada que ver con bases de datos.
Si quieres entender un… » ver todo el comentario
En este paper de 2022 se explicaba cómo una IA podía diferenciar entre hombre y mujeres viendo solo una imagen retinal, algo que ninguna persona puede ni entiende ni sospecha por qué se puede; no sabemos ni encontramos diferencias. Es conocimiento que no está almacenado porque simplemente nosotros no lo tenemos, pero la IA lo ha "encontrado" (lástima que no podemos saber cómo lo sabe porque de nuevo, todo son pesos). philarchive.org/archive/TAHGPF
Este fue el primero de muchos casos similares.
Claro, y los 20Gb que ocupan algunos modelos, estan rellenos de aire
Lo único cierto es que la comunidad se que ha mostrado mayoritariamente muy sorprendida por los resultados con ARC AGI y tienes premios Nobel como Geoffrey Hinton alertando semana sí, semana también de lo potente que es esta tecnología y de qué en lugar de decir "esto es un churro" deberíamos tomarnosla mucho más en serio.
Que se haya creado un nuevo… » ver todo el comentario
El otro día por aquí vi a uno aquí que decidió pedirle a la IA que le diese argumentos sobre los problemas de retirar la materia de religión católica de la educación, y los problemas dañadir la de religión islámica. La IA partió de dos supuestos absurdos: primero equiparó el quitar la materia de religión con borrar cualquier referencia al cristianismo en la educación,… » ver todo el comentario
CC #2
Pero se enfrentarán a un rival temible que es inmune a los poderes gatunos de engatusamiento.
Otros que conozco, dejan a Jack el destripador como hermanita de la caridad
Gracias
Pd. Ahora voy a ampliar el equipo a 32GB ram
Ahora estoy descargando llama3
ollama.com/library/qwen3:8b
Usando CPU hay que decidir entre velocidad y calidad.
No es mucho pero sin prisas, da una calidad muy aceptable.
Con GPU decente, te sube a unas 25 palabras por segundo, tampoco es tanta la diferencia.
(cuando digo palabras, me refiero a tokens pero puedes hacerte una idea)
(igual se te tira 10 minutos pensando para decirte "hola")
Tiene unos parámetros "/no_think", que para cosas básicas, acelera un x10.
Hay que añadirlo antes del prompt "/no_think Hola, que sabes de las ranas."
Por lo que muchas veces no hace falta ni tener experiencia previa para aplicarla de forma resolutiva, es un hecho.
Se masca la tragedia.
No se puede tener todo. O contratar un nuevo empleado experto en base de datos, o mover a uno que ya tengan sin experiencia en ese campo, pero con IA jeje.
Si le haces una pregunta partiendo de premisas falsas, muchísimas veces son incapaces de detectar que esas premisas son falsas y elaboran toda una respuesta falsa partiendo de ellas.
Menudo peligro tienen.
Si es verdad que ayuda, en algunos casos mucho, pero esta a años luz de lo que se quiere hacer creer al personal (aunque avanzando a pasos gigantes, eso sí).
IA, inventándose funciones desde 2023.
Pero van a entrar ahí.