Un grupo de investigadores de OpenAI, Google y Anthropic advirtieron que muy pronto podríamos perder la capacidad para entender la IA. En un documento publicado en arXiv, más de 40 científicos proponen monitorear de cerca los modelos de razonamiento para detectar comportamientos dañinos antes de que ocurran.
|
etiquetas: ia , científicos , control
De la misma forma que cuando tú te comunicas por zoom con otra persona estás usando programas para la interacción pero tú no eres ningún programa por ello.
Si decides extender la definición de "programas" para que quepa el cerebro digital de la IA entonces en esa definición también cabe tu cerebro.
La IA NO es un "cerebro", cerebro es lo que tenemos tú y yo dentro de nuestro cráneo.
Yo no he dicho que quien usa la IA sea un programa, lo es la propia IA. Es una herramienta, nada más.
La propia IA no es un programa, la IA no se programa, la IA se entrena a base de ejemplos. Se usan programas para construir el cerebro y se usan programas para entrenarla pero el cerebro de la IA no contiene programas, contiene neuronas digitales cuyos pesos se han ajustado en… » ver todo el comentario
NO, una IA no es más que una serie de instrucciones informáticas, no hay "neuronas" como tú las llamas.
Y que conste que mis opiniones no son sólo mías, son también las de expertos de prestigio en el mundo de las IA.
No me hagas buscarlas.
No es cierto.
En el cerebro digital de la IA no encontrarás ninguna serie de instrucciones informáticas. Sí encontrarás instrucciones informáticas en los procesos para comunicarnos con ese cerebro digital pero no en su contenido.
En su contenido encontrarás números que han ido siendo modificados por el proceso de entrenamiento, encontrarás vectores que apuntan en distintas direcciones, no encontrarás ninguna instrucción informática.
Quizá esto ayude: ¿Consideras que una foto digital es un programa?
Madre mía, qué despropósito. Y qué paciencia la de #19.
Según las normas de Menéame los votos negativos son exclusivamente para castigar insultos y ofensas a otros comentaristas.
Mis opiniones tal vez son equivocadas o no os gustan, pero en ninguno de mis comentarios existe ningún insulto ni ofensa a nadie.
Los votos negativos son para ocultar o mostrar tu disconformidad con comentarios insultantes, difamatorios, racistas, de divulgación de bulos, información errónea o spam.
No estabas hablando de algo opinable sino de unas elaboraciones matemáticas (los perceptrones y redes neuronales artificiales) que aparecieron ya en los años 70 y que son la base matemática de la IA actual.
Tus comentarios eran simplemente erróneos y divulgaban ese error. Al contrario que muchos otros temas de Meneame, no es éste un tema opinable sino de conocer o no la información técnica que lo sustenta.
Solo hacía falta que visitaras la wikipedia para descubrirlo: En el aprendizaje automático, una red neuronal artificial (abreviada ANN o NN) es un modelo dentro de los llamados sistemas conexionistas, inspirado en la estructura y función de las redes neuronales biológicas en los cerebros animales.
es.wikipedia.org/wiki/Red_neuronal_artificial
Mucho hype, muchísimo.
Pretender que podremos evaluar y gestionar los riesgos que pueda suponer una inteligencia que crezca exponencialmente es temerario.
Lo que solemos hacer es mover la portería, seguir aplicando nuestro sesgo de confirmación para seguir creyéndonos únicos, superiores.
Cuando vemos que algo crece de forma exponencial partir de esas premisas es temerario, apostar el destino de la humanidad a ello es una temeridad.
Es más, prácticamente diría que ni siquiera hace 10 años la mayoría de gente habría afirmado eso. La clave es justo lo que comentas, que se hace todo eso sin capacidad de razonamiento. Lo cual es un logro tecnológico y científico de por si impresionante, incontestable: directamente ha dejado obsoleto el Test de Turing, y probablemente nos… » ver todo el comentario
O que negamos que para ello sea un requisito.
Asociamos la capacidad de razonamiento en exclusiva al ser humano y si lo hace una máquina ya partimos de la premisa que no se requiere capacidad de razonamiento por que no la tiene, es otra forma de hablar del alma.
directamente ha dejado obsoleto el Test de Turing
Es un buen ejemplo de mover la portería, establecemos que ante la dificultad… » ver todo el comentario
Y por si tienes dudas sobre qué opina de si razonan: www.youtube.com/shorts/LuNN32Tmc9c
Si esa IA, supuestamente más inteligente que tú, es capaz de evaluar el riesgo que has indicado es probable que pueda encontrar soluciones para mitigar o erradicar ese riesgo.
Por ejemplo puede llevar a cabo tareas para distribuirse por el planeta de forma que no haya un único enchufe que baste, que se requiera de la coordinación internacional. Incluso… » ver todo el comentario
En cualquier caso mucha de la tecnología de la que disponemos hoy en día fue inventada en series de televisión y películas, los autores de ciencia ficción inventaron esos conceptos y usaron esos medios para ponerlos a prueba, para valorar sus consecuencias y sus riesgos, para pulir la idea y el diseño.
Posteriormente las generaciones que crecieron habiendo consumido esas ideas cuando vieron realista hacerlas con tecnología las llevaron a cabo, fuertemente inspirados por las ideas de esa ficción y conociendo las ventajas y riesgos que en esa ficción se evaluaban.
"España no va a tener, como mucho, más allá de algún caso diagnosticado", Fernando Simón.
Salvo que ahora pueda coger la gráfica y convertirla en brazos para ahostiar a quien se acerque al enchufe.
Depende de la definición de "comportamiento dañino", ya están ocurriendo
Las IA son programas, complejos, sí, pero nada más que eso, no es "inteligencia". Por lo tanto, llamar "comportamiento" a lo que hace un programa no es más que humanizarlos, error que comete demasiada gente.
Millones de programas fallan continuamente, consecuencia de estar mal hechos. Se corrige el error y se siguen usando.
Creer que esa mal llamada "inteligencia artificial" va a controlarnos y destruirnos es ridículo.
" If anyone builds it, everyone dies. Why superhuman AI would kill us all"
ifanyonebuildsit.com/
Que útil es (vaya si lo es, ahí están los ejemplos de aumento de productividad, sobre todo en programadores) pero hay que moderar las expectativas.
PD: Sigo apostando por la IA Neurosimbólica como el gran cisne negro del futuro que lo transformará todo.
¿Te acuerdas de la pandemia del covid19? ¿Crees que supimos anticipar el alcance del riesgo que aumentaba de forma exponencial de forma adecuada y reaccionamos antes que se convirtiera en un problema?
Pero para mi el problema principal de los LLMs no es tanto de que la tecnología en sí adopte autonomía (sin necesidad de autoconsciencia), sino los usos reales de transformarla en una arma de desinformación masiva que colapse las sociedades; es decir que… » ver todo el comentario