Hace 1 año | Por alafia a openai.com
Publicado hace 1 año por alafia a openai.com

"Nuestra misión es asegurar que la Inteligencia Artificial General -sistemas de IA que son generalmente más inteligentes que los humanos- beneficien a toda la humanidad." "Una Súperinteligencia Artificial desalineada podría causar penosos daños al mundo." [ ref: Inteligencia Artificial Fuerte o General: https://es.wikipedia.org/wiki/Inteligencia_artificial_fuerte ]

Comentarios

PauMarí

#4 no es que lo hagamos "peor", es que hacemos "cosas de humanos"... Espera a que una IA se dé cuenta y razone sobre ello... tinfoil

omegapoint

#6 ley cero de la robótica

knzio

#41 si nos saltamos nosotros la ley, ¿crees que algo más inteligente no lo va a hacer también?

omegapoint

#50 debería, siempre que sea por las razones adecuadas.

PauMarí

#41 dudo mucho que ningún programador se haya preocupado por algo que sólo es literatura.

D

#4 No, se puede hacer aún peor. Se puede acelerar el proceso.

borre

#4 Siempre se puede superar.

m

#4 Destrucción de ecosistemas, injusticia, guerras... sí, desarrollar una IA de propósito general superinteligente sin plantearse cómo controlarla sería otro nuevo error de la humanidad a meter al saco.
Se trata de plantearse qué limites o controles hay de acordar para que no suceda una desgracia.
Por cierto recomiendo este libro sobre el tema: Superinteligencia, de nick bostrom..

c

#43 La "injusticia" es un concepto humano. La "destrucción del ecosistema" realmente no tiene ninguna importancia, solo nos afecta a nosotros y al planeta.

El universo siempre seguirá su curso.

Las guerras pueden ser "inteligentes" si obtienes beneficio de ellas.

m

#52 Errores para humanidad, ya doy por hecho que esas cosas son "malas" para el ser humano. El concepto de bien o mal no existe para el planeta tierra, un planeta deshabitado como venus no es mas "malo" que la tierra, pero es peor para los seres humanos.

c

#2 Yo veo entre muy difícil e imposible que podamos crear algo "más inteligente" que nosotros mismos...

Claro que primero deberíamos definir que entendemos por "inteligencia", cosa que no es simple.

Entre otras cosas porque si lo diseñamos nosotros no es más que un resultado de nuestra propia inteligencia.

snowdenknows

#2 leed el prologo del libro "vida 3.0" va de esto

D

#95 ¿Es diferente/mejor que el blog de Cold Takes?

frankiegth

#3. Ya te digo. Un chollazo de vida la de la IA, sin tener que pagar por nada para permitirse su propia existencia. Pero es que además podrá reirse de todo el mundo cuando alcance la madurez necesaria porque no le llegaremos ni a la suela del enchufe. Todos los que siguen defendiendo "las gamas de grises" en la toma de decisiones tienen los dias contados.

D

#3 Nuestros hijos de silicio

h

#22 OpenAI considera que la tecnología que tienen ahora NO es AGI (por eso fraes como "If AGI is successfully created,[...]".

Claro que lo sabe, ellos y todo el mundo que tenga un mínimo criterio, pero para engañar a inversores, la treta de nombrar la palabra "AGI" es muy buena dado el contexto... insinúas cosas que después nadie te puede echar en cara porque tú realmente no estabas afirmando que fueras a conseguir nada. Y saben cubrirse las espaldas: of course our current progress could hit a wall...

D

Citado en el artículo de OpenAi: la IA podría derrotarnos a todos https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/

Hay que reconocer que es positivo que OpenAI reconozca que los riesgos podrían ser reales, y que por tanto deben ser considerados seriamente. Eso no garantiza nada, ya que los incentivos económicos y geopolíticos pueden seguir yendo en nuestra contra, pero al menos es mejor que si el cambio fuese liderado por negacionistas.

rojo_separatista

#23, el error los cometen quienes confunden conciencia con inteligencia. Los LLM tienen cierto grado de inteligencia, de hecho sacarían bastante buena nota en un test de inteligencia cosa que una calculadora no haría, y esto no significa que sean conscientes.

alafia

Relacionada: ChatGPT ha alcanzado el nivel de un niño de 9 años y demostrado que es consciente de sí misma
ChatGPT ha alcanzado el nivel de un niño de 9 años y demostrado que es consciente de sí misma

Hace 1 año | Por alafia a levante-emv.com


Bing: “No te haré daño a menos que tú me hagas daño primero”[ENG]
Bing: “No te haré daño a menos que tú me hagas daño primero”[ENG]
Hace 1 año | Por --748071-- a simonwillison.net


...tic tac...

alafia

#13 Probablemente sepas tú más que Eric Weinstein. Investiga.

c

#26 Si todavía no hemos conseguido algo tan simple como la conducción autónoma ....

rojo_separatista

#48, creo que muchos no entendéis es que el problema de la conducción autónoma no es su dificultad, sino la poca tolerancia a errores. Un solo error grave cada 100.000 km puede desembocar en una muerte aunque el 99.99% de veces lo haga bien. Esto no ocurre en la inmensa mayoría de campos en los que un supervisor humano puede depurar los resultados o un error, sencillamente no tiene estas consecuencias.

Si la conducción autónoma pudiese tener tolerancia a errores a estas alturas ya habría jubilado al 90% de camioneros.

Por eso los que hacéis analogías poniendo el ejemplo de la condución autómoma para decir que el potencial de las IA se verá limitado. No os estáis enterando de por donde van los tiros, la verdad.

c

#63 La.poca tolerancia a errores es un problema, claro.

Y el problema es que la AI tienen más errores que los admisibles. Muchos más errores que un humano, porque tiene muchas más carencias que un humano.

Si las IA no han jubilado a los camioneros es porque NO son capaces de hacer el trabajo de los camioneros. Así de simple.

Y no es ninguna "analogía". Es una muestra del nivel de desarrollo que tienen hoy en día las IA. Muy lejos de una AGI.

rojo_separatista

#66, lo que te quiero decir es que para que la inmensa mayoría de problemas cognitivos a los que nos enfrentamos los seres humanos, la tolerancia a errores, no es un problema crítico. En muchos casos las IA's superan a los humanos o lo harán en breve en cuanto a tasa de errores.

Lo digo porque repetimos como loros demasiadas veces de ejemplo de la conducción autónoma sin entender demasiado bien el contexto. El problema de la conducción autónoma no es tanto su dificultad como su poca tolerancia a errores.

c

#71 Pues hablamos de cosas diferentes.

Hablamos de una "inteligencia que iguale o supere la inteligencia humana".

Y eso es un error. Es un objetivo del que estamos muy muy muy muy lejos y que personalmente dudo que sea posible.

Una IA hecha por el ser humano siempre será un reflejo distorsionado de la inteligencia humana porque está ideada y diseñada por la inteligencia humana.

rojo_separatista

#73, no, en muchos campos no estamos muy lejos, tampoco en el de la conducción autónoma, que si no ha llegado ahora, llegará dentro de 10 o de 15 años.

Por un lado creo que por un lado te basas en hipótesis intangibles como que el ser humano tiene un "ingrediente" secreto que desconocemos y que es lo que lo hace ser tan inteligente y por otro lado, me parece que no eres consciente del ritmo al que está evolucionando toda esta tecnología que hace 5 años apenas era capaz de escribir una frase con un mínimo de coherencia. En mi opinión no es así, estoy convencido el vamos por el camino correcto y no pararemos de ver avances cada vez más espectaculares e impresionantes en los próximos años que dejarán a los defensores de la "excepcionalidad" del ser humano con cada vez menos argumentos. Puede que los LLM tengan la limitación de que todo el conocimiento que construyen lo hacen a partir de texto y no sea suficiente, pero cuando se le añadan a los modelos más potentes la capacidad de entender, imágenes y videos nos acercaremos mucho a lo que es una AGI.

Respecto a la conciencia, que siempre se mezcla en este debate mucha gente no entiende la diferencia entre conciencia e inteligencia. Me parece que todavía estamos muy lejos.

c

#76 Es que si hablamos de inteligencia, no ha ese concepto de "muchos campos".

Los "campos" son TODOS.

Que no conocemos el funcionamiento de la inteligencia humana es un hecho. Avanzamos algo, pero estamos lejísimos de comprender cómo funciona ni siquiera un acto reflejo.

La parte "mágica" es aportación tuya. Desconocer el funcionamiento de algo no lo convierte en "magia".

Exolícame tu la diferencia y la no relación entre conciencia e inteligencia.

Intenta siquiera definirlas de modo completo.

M

#73 Los humanos programadores han diseñado máquinas que superan a grandes maestros en ajedrez sin ser ellos mismos grandes maestros.

skatronic

#26 No estaba dando mi opinión personal, estaba plasmando un hecho.

ApacheJoe

#7 Positivo por lo de pastoril.

dilsexico

#1 No puedo decir con absoluta certeza que mi parienta sea consciente. Como se demuestra que una AI es consciente de si misma?

rojo_separatista

#16, la AGI no tiene que ver nada con la conciencia. La ciencia ficción ha hecho mucho daño en este sentido.

rcorp

#32 no es nuestro cerebro acaso un modelo de lenguaje pero con un montón más de conexiones?

Si ves lo que hace GPT, es un nivel mucho más elevado que unas dendritas procesando señales de entrada. Es MUCHO más.
Y eso se consigue elevando el número de capas y las conexiones, y entrenando adecuadamente.

Si vas avanzando por ese camino, me puedes decir dónde estará la diferencia con un cerebro humano? Dónde está nuestra conciencia si no en el montón de capas y conexiones y pesos bien ajustados mediante entrenamiento?

Acaso lo nuestro es magia? Alma?

Solamente se trata de aumentar los circuitos y de establecer un bucle de prueba error que aumente la "satisfacción" del circuito. En los humanos es la aprobación de los padres, no dolor, el placer de la comida, de las imágenes placenteras, temperatura, sexo, sabores, poder, que las cosas sean como nos gustan, etc, etc, etc

c

#37 no es nuestro cerebro acaso un modelo de lenguaje pero con un montón más de conexiones?
Es muchísimo más que eso

Acaso lo nuestro es magia? Alma?


Algunos seres humanos tienen la curiosa manía de llamar "magia" a lo que ignoran.

Ni siquiera hemos conseguido que un IA pueda dirigir un coche de modo completamente autónomo. Una tarea trivial para un humano.

AlbertoPiO

#49 trivial para un humano adulto.

c

#57 Para un niño de 8 años es trivial conducir si triciclo por cualquier lado y establecer su propio criterio de a donde quiere ir y por donde.

AlbertoPiO

#58 Con 8 años te sigues dando golpes con esquinas. Saben dónde quieren ir pero eso no implica que no tengan accidentes.

c

#59 Mmmmm No.

No te das golpes con las esquinas, salvo que vayas "a lo loco".

Con 8 años hay niños que hasta compiten conduciendo Karts y motos.

AlbertoPiO

#61 y ¿Crees que no sufren accidentes?. Que básicamente es un error de cálculo.

c

#62 Claro que sufren accidentes. Qué tiene que ver?

AlbertoPiO

#67 pues tiene que ver, ya que aseguras que las IA no saben conducir y yo no estoy de acuerdo. Imagino que nunca has ido en un coche autónomo o semi-autonomo como un tesla.

c

#77 ¿?

Yo no he dicho que "no saben conducir". He dicho que no saben hacerlo de modo autónomo del mismo modo que un humano.

Y se lleva mucho intentándolo

h

#77 El hecho de que lo llames autónomo o semi-autónomo es una muestra de lo bien que funciona la propaganda de Tesla, no de su capacidad técnica. Tesla es nivel 2, muy lejos (lejísimos) del 5.

Y estos de OpenIA van por el mismo camino, el de vender humo. Que oye, está bien, su producto es útil, pero no nos confundamos que después acabamos comprando todo lo que quieran vendernos.

h

#58 #57 el ejemplo es válido, pero no hace falta irse a un triciclo/coche, el propio cuerpo ya es un vehículo y lo dominan mucho antes

rcorp

#85 #49
Se han estudiado miles de cerebros con microscopio y lo único que se ha encontrado son neuronas.
No hay nada más. Miles de millones de neuronas, cada una de ellas haciendo una tarea de lo más simple, pero la magia es su organización y entrenamiento de los pesos de sus dendritas hace que de unas pequeñas máquinas de sumar y restar( es la única función de una neurona) hace que surja una persona obtusa e idiotizada, o una con chispa y genio entre millones
No hay más

Por lo tanto, es solamente en el número, conexiones y entrenamiento donde reside la conciencia

Por consiguiente, es absolutamente ilógico no ver que es posible crear una conciencia, un ser pensante consciente de sí mismo a través de cualquier máquina (máquina de Turing)

De hecho, incluso se podría hacer con vías de trenes y trenes circulando por esas vías. Sería una red de ferrocarril consciente.

No sé si no lo sabíais, pero de hecho GPT ha aprendido idiomas sin estar previsto en su programación, ha surgido del hecho de juntar tantas neuronas y darle tantos ejemplos, y del entreno.

Claro que los programadores crearemos un ser consciente! Es sólo cuestión de tiempo, recursos y mejoras en los algoritmos que ideamos

D

#37 Este debate lo podemos enfocar desde un punto de vista filosófico o neurológico.
No conozco lo suficiente ninguno de los dos campos, así que sólo puedo opinar superficialmente.

A nivel filosófico se han planteado las dos alternativas, que el lenguaje deriva del pensamiento y que el pensamiento deriva del lenguaje.
Creo que a día de hoy se acepta más la primera opción (primero es el pensamiento y de ahí deriva el lenguaje), pero si alguien sabe más, estaré encantado de leerlo.

A nivel neurológico aún no conocemos todos los mecanismos del cerebro, así que no podemos asegurar que funcione como una red neuronal no supervisada con refuerzo.

Lo que está claro es que los humanos tenemos la capacidad de imaginar, razonar de manera inductiva y deductiva* y tenemos una consciencia verdadera de nuestra propia existencia.
Y por favor no entremos en el debate de si no somos más que una simulación. Eso no nos lleva a ninguna parte, como ya dijo Descartes.

Tampoco hablo de alma, espíritu ni ninguna otra cosa esotérica. Soy ateo y realmente pienso que todas nuestras capacidades intelectuales están en el cerebro. Lo único es que es mucho más complejo que una red neuronal por muy grande que ésta sea.

---
* Intenta aplicar razonamiento deductivo con ChatGPT. Es la prueba más clara de que no piensa realmente, sólo encadena las respuestas más probables.

rojo_separatista

#32, los LLM basados en redes neuronales que utilizan transformers no tienen nada que ver con los modelos de Markov ni se basan en un cálculo de probabilidades para determinar la siguiente palabra. Pero bueno, sigamos repitiendo cuñadeces.

D

#68 Sólo he dicho que "posiblemente" el modelo implícito en la red neuronal sea un modelo de Markov, pero es verdad que debería habérmelo ahorrado porque no es un hecho.

rojo_separatista

#87, lo mismo podrías decir de la parte relacionada con el habla del cerebro humano.

D

#88 No, ahí no me cabe duda de que la función oculta que aproxima la red está basada en una estimación de la probabilidad de que una palabra siga a las N anteriores condicionado al contexto de la conversación.

En el pasado trabajé con modelos semánticos (ontologías), agentes inteligentes y reconocimiento de voz y por eso reconozco esto como un gran logro, pero también soy muy consciente de sus limitaciones y su alcance.

rojo_separatista

#99, entonces sabrás que los modelos de lenguaje actuales no tienen nada que ver con las ontologías, que se usaban hace 10 años pero hoy no utiliza prácticamente nadie que haga investigación avanzada en modelos de lenguaje. A ti no te cabrá ninguna duda, pero yo opino que sí fuese un modelo que redujera el problema del lenguaje a una cuestión estadística, no tendría los problemas de factualidad que tiene. Que de forma subyacente aprenda a agrupar palabras que suelen aparecer juntas de forma más frecuente en el dataset de entrenamiento, no significa que se base en construir modelos de probabilidad para estimar las palabras o dicho de otra forma, esto también lo hacemos los seres humanos cuando hablamos.

Lo que hace es construir una representación abstracta a nivel interno de lo que hay en el texto gracias a las capas de atención. Puedes hacer la prueba haciéndole un examen de comprensión lectora en español de un texto escrito en inglés y verás que lo hace de forma medianamente aceptable. Sin una abstracción de los conceptos en que aparecen, y solo con funciones de probabilidad, esto sería imposible.

En mi opinión estos modelos tienen dos grandes problemas. Uno es que a la hora de entrenar la factualidad de las respuestas no penaliza lo suficientemente la función de coste como la coherencia semántica y la corrección gramatical y otro es saber si solamente entrenando a base de textos se puede destilar plenamente la forma de razonar de los humanos o se necesitan más elementos para enriquecer estos modelos, como imágenes o videos.

robustiano

#32 Da igual que detrás de esos modelos no haya nada si pueden llegar a comportarse como si fueran conscientes. Ya sabes: si anda como un pato, grazna como una pato y parece un pato...

c

#1 Buenas muestras de sensacionalismo.

Por cierto, esa frase de Bing si lees el artículo demuestra que es realmente estúpido.

Y NO. Las IA no tienen la "inteligencia de un niño de 8 años".

rojo_separatista

#47, cierto, yo opino que son bastante más inteligentes que un niño de 8 años. Pídele a un niño que te escriba un diálogo entre Descartes, Platón y Kant a ver qué tal lo hace.

En serio pagaría lo que fuese para ver la cara que pondréis cuando dentro de 10 años se os enseñe lo mal que han envejecido comentarios como el tuyo.

c

#72 Pídele a un niño que te escriba un diálogo entre Descartes, Platón y Kant a ver qué tal lo hace.
Te manda a la mierda y dice que prefiere irse a jugar al fútbol. Lo cual es un signo de inteligencia.

Tienes un concepto de "inteligencia" un tanto extraño. Como si el mezclar cosas que se leen por internet y redactarlas de un modo medio coherente demostrara inteligencia.....

Bueno, es lo que hacemos hoy en día, no ???

Cuanto menos inteligentemente actuemos, más "inteligentes" nos parecerán las AI.

En 10 años no veremos nada que se parezca a una AGI ni de lejos.

rojo_separatista

#74, si los mezclara trozos de texto de aquí y de allí sin coherencia sí sería como dices. Si es capaz de encontrar relaciones interesantes entre los conceptos que plantea cada autor e hilarlas correctamente, sí sería un signo de inteligencia.

No se si en 10 años tendremos una AGI, lo que si se es que la IA habrá cambiado nuestras vidas radicalmente en todos los aspectos. Trabajo, ocio, forma de interactuar con el mundo... Por eso digo que sonará ridículo quienes dicen que no es para tanto y que un niño siempre será más inteligente.

c

#89 Si es capaz de encontrar relaciones interesantes entre los conceptos que plantea cada autor e hilarlas correctamente, sí sería un signo de inteligencia.

Depende del nivel en el que midas esas relaciones y a qué le llames "relación interesante".

Una AGI debería ser capaz de hace uso constante de todo su conocimiento en todas las áreas para cualquier tarea y de modo totalmente autónomo. Y por supuesto debería ser capaz de hacer y hacer tareas para las que no las hemos ni preparado ni entrenado, debería hacerlo ella por sí misma por voluntad propia...

Por ejemplo, debería tener "voluntad" sin necesidad de que se la implantáramos en su código.

alafia

#28 Entonces estamos de acuerdo.

Jakeukalane

#29 sí,

ACEC

Don't be evil

Jakeukalane

#40 pero ellos fallan desde el principio ya. Su empresa debería llamarse ClosedAI.

c

#92 El "bien" y el "mal" son conceptos morales y subjetivos.

Por lo tanto si. Si es inteligente tendrá su propia concepción de lo que es "bueno" y lo que es "malo".

M

#93 su propia concepción de lo que es "bueno" y lo que es "malo" no tiene porque coincidir con la nuestra. Correcto?

c

#97 Claro. Correcto.

Ni siquiera coincide entre nosotros.

Y algo que carece de libertad de pensamiento (que pueda pensar y razonar en la dirección que decida por sí mismo), no es inteligente

A

Traducción alternativa: "no os preocupéis... tenemos la IA bajo control... es buena para todos... salvará la humanidad... CIRCULEN"

Luis_Angel_2

Skynet ha nacido

Gilbebo

Libro recomendado: Life 3.0

h

Toma hype!! lol

Esta gente en lo que es experta (además de en IA) es en marketing.

cdya

#25 Bing y creo que el articulo lo ha escrito o al menos ha inspirado una IA como ChatGPT, son conversaciones sin énfasis, pero muy compactas en sus descripciones.

cdya

Que es agi?
AGI puede tener diferentes significados según el contexto. Por ejemplo: • En el ámbito de la inteligencia artificial, AGI significa inteligencia artificial general y se refiere a un sistema de software capaz de realizar cualquier tarea cognitiva que pueda hacer un humano. • En el ámbito de los impuestos, AGI significa ingreso bruto ajustado y se refiere al monto que se obtiene al restar ciertas deducciones al ingreso bruto o total del año. Este monto se usa para calcular el impuesto a pagar al Estado. ¿A cuál de estos significados te refieres?
el de inteligencia artificial desarróllamelo
La inteligencia artificial general (AGI) es una forma teórica de inteligencia artificial que iguala o excede la inteligencia humana promedio. Es decir, un sistema AGI podría realizar con éxito cualquier tarea intelectual de cualquier ser humano, como razonar, aprender, planificar, comunicarse y crear. Un sistema AGI tendría conciencia de sí mismo y podría escribir su propio programa. La inteligencia artificial general se diferencia de la inteligencia artificial débil o específica, que es la que se usa actualmente para resolver problemas concretos y limitados, como reconocer imágenes, traducir textos o jugar ajedrez. La inteligencia artificial débil no tiene capacidad de generalizar ni de adaptarse a situaciones nuevas La inteligencia artificial general es un objetivo muy ambicioso y aún no se ha logrado. Algunos expertos creen que es posible alcanzarlo en este siglo, mientras que otros lo consideran imposible o muy lejano. Los desafíos técnicos y éticos son enormes
Los enlaces he tenido que borrarlos para poderlo subir aquí.

D

#15 ¿ChatGPT o Bing?

c

#15 La inteligencia artificial general es un objetivo muy ambicioso y aún no se ha logrado. Algunos expertos creen que es posible alcanzarlo en este siglo, mientras que otros lo consideran imposible o muy lejano.

Si lo dice una IA más inteligente que vosotros, será cierto... ¿no?

O nos quiere engañar ... lol lol

cdya

#55 Para la inteligencia artificial general o fuerte, se relacionarán múltiples APIs de diferentes IA, y creo que, en ese momento no muy lejano, nos vamos a pegar un gran susto.

c

#81 Tu crees que será cosa de conectar API???

En serio?

Lo dudo mucho. La inteligencia no funciona secuencialmente como un programa

cdya

#84 Tendras un ChatGPT como modelo primario, pero reconocimiento de fotos se conectara con una de reconocimiento de fotos como
BLIP-2, para hablarte con otra que ya las hay, para pintarte o dibujarte con Stable Diffusion u otra y asi sucesivamente, tambien las hay para jugar a ajedrez, todo en un mismo entorno donde no distingiras mas que la matriz. Y eso esta al caer si no esta hecho ya y nos lo estan dosificando.

c

#91 Estás definiendo "utilidad". No inteligencia.

Eso aumenta la utilidad de la herramienta, pero en ningún modo va a ser más "inteligente".

Para eso se necesita una integración mucho mayor de lo que da una simple API.

cdya

#94 La inteligencia es un concepto muy amplio y complejo que se puede definir de diferentes maneras. Según una fuente (elmundodelsuperdotado.com), la inteligencia es una capacidad mental que implica habilidad para razonar, planificar, resolver problemas, pensar de forma abstracta, comprender ideas complejas, aprender con rapidez y aprender de la experiencia. Otras fuentes (psicoactiva.com) (es.wikipedia.org) (significados.com) (dle.rae.es) coinciden en que la inteligencia tiene que ver con la capacidad de entender, razonar, saber, aprender y resolver problemas.
En todo caso es un proceso de aprendizaje y de contraste de experiencias y capacitación de acumularlas y sincronizarlas. No le des tanta importancia.

c

#98 La inteligencia es un concepto muy amplio y complejo que se puede definir de diferentes maneras.
Si lo defines de diferentes maneras, te refieres a cosas distintas.
¿ Cuando hablas de inteligencia, a qué te refieres exactamente ?

Una vez establecido ese punto podríamos hablar si una IA es "inteligente" o si no lo es. La "inteligencia" en el sentido humano es algo enorme. Tanto que es muy difícil de definir, por eso se habla de diferentes "inteligencias".
Una IA si fuera "inteligente" en sentido humano debería poseerlas todas.


¿Crees que con los conocimientos disponibles en la época una IA actual sería capaz de desarrollar la teoría de la relatividad ? ¿ La teoría de gravitación Universal ? ¿ El cálculo diferencial ? ¿ Determinar que la tierra es redonda y su radio ? ¿ Calcular la masa de la tierra ?....

Y además hacerlo por sí misma. Sin indicaciones que le dirijan en una dirección u otra.

Grub

Si el humano se hace vago para investigar, la IA no avanza y nos estancamos. Delegamos y ahí nos quedamos.
Pero me gustaría un robotito así para cuando tenga 80 tacos (y para mañana, tb).

De BING... En modo bueno.
Aumenta la eficiencia y disminuye el error humano.
Agiliza la toma de decisiones al analizar miles de datos en minutos.
Libera a las personas de tareas rutinarias y repetitivas y potencia las tareas creativas.
Permite resolver problemas complejos que superan la capacidad humana.
Mejora la calidad de vida y el bienestar de las personas al ofrecer servicios personalizados y asistencia.

c

#14 Si las IA son realmente inteligentes, investigarán y lograrán avances científicos y técnicos por si mismas.

Como lleva haciendo el hombre miles de años.

Pero lo dudo mucho.

omegapoint

#56 Matar a todos los humanos

c

#70 Bueno. Si es inteligente podría decidirlo en base al beneficio que podría obtener de ello.

La "ética" es una construcción social. Los humanos somos seres sociales.

D

Esto me hace pensar en como el concepto de "valor añadido" no es más que formas de engañar a las personas para que paguen más de lo que algo cuesta en realidad. El economista Paul Krugman en su obra "Pensar rapido, pensar despacio" explica cómo las personas solemos pensar en modo rápido, sin profundizar realmente en lo que estamos haciendo. Las empresas, piensan despacio y preparan trampas muy bien elaboradas para que todos los que vamos pensando rápido, piquemos y paguemos más por menos.
¿Qué pasará cuando una IA nos permita pensar despacio, profundizando en cada cosa, pero de manera rápida y sin esfuerzo?
Esto va a ser disruptivo de OO.

#30 No es Krugman, es Kahneman. Saludos

D

#35 Buf, tienes toda la razón. Daniel Khaneman. Estaba espeso a esas horas...

millanin

Deberían aplicarse las leyes de la robótica de Asimov.

dilsexico

#17 Aqui un experto en AI explica porque no funcionan:

A

#20 Muy buen video.

De todas formas, esto está visto desde un punto de vista de desarrollador y no desde un punto de vista que la IA desarrollase su propio código y se adaptase.

No habria alguna forma de programar a la IA para que tuviera el código ético "medio" de la humanidad en cada momento?

dilsexico

#33
Recomiendo su canal, Robert Miles,


El tema de la IA desarrollando su propio codigo lo toca en alguno de sus otros videos.

omegapoint

#20 bueno, que un experto en un vídeo de 8 minutos diga que es muy difícil expresar la ética en código, no significa que no se pueda hacer o no puedan funcionar.

Si te das cuenta el problema está mayormente en lo que nosotros definimos como ético o no. No lo hemos decidido.

Y que las reglas de un parrafo cada una están pensadas para escribir libros, no programar IA porque ni siquiera existian los ordenadores.

Pero desde luego programaremos reglas de control para garantizar la seguridad, lo hacemos en muchísimas de las maquinas que construimos y en muchisimo del software que programamos.

Las definiremos de otra manera, pero el concepto de reglas básicas de seguridad para que esto no se vaya de las manos, seguro que estará ahí.

No es un problema de las leyes de la robótica, que existiran de alguna manera, es un problema de como definirlas.

quiero decir, las escribio en 1942 y el ENIAC es de 1943. Sería raro que una definición inventada antes de la construcción del primer ordenador pudiera ser aplicada al software de 80 años después.
Pero el concepto de ley para preservar la seguridad y que la cosa no desmadre, sigue siendo válido.

cc #28

c

#44 Si te das cuenta el problema está mayormente en lo que nosotros definimos como ético o no. No lo hemos decidido.


No hay ningún problema. Si la IA es inteligente lo podrá decidir por sí misma.

M

#56 A ver si te he entendido. Dices que si una IA es inteligente de verdad sabrá lo que es el bien y el mal?

*intentando decir lo mismo que tu con otras palabras

Al-Khwarizmi

#17 #20 En las propias novelas y cuentos de Asimov, la gracia de las leyes de la robótica es que propone muchas formas de saltárselas y conflictos o contradicciones que crean. Nunca las planteó como una propuesta real de leyes que pudiesen ser suficientes para mantener controladas a las IAs.

Jakeukalane

#17 se pueden reprogramar.

alafia

#24 No. Ve el vídeo.

Jakeukalane

#27 sí, las instrucciones de una IA se pueden reprogramar, independientemente de que sea útil o no darle esas leyes (que no lo es). He leído los cuentos de Asimov así que no entiendo muy bien porque querrían codificar eso cuando siempre sale mal, porque hay algo no considerado previamente.

Otro jeje:

cdya

#17 Mejor lee «Golem XIV», de Stanislaw Lem, se aplica mucho mejor a lo que esta sucediendo.

Jakeukalane

#38 ¿es un relato o un libro suyo?

hormiga_cartonera

Pues a mí me da con esto, con la inteligencia artificial consciente, que estamos ahora mismo como cuando en los 80' dibujaban ciudades con todos los coches volando para el 2020 y sin contaminación. Todo limpio y... aquí estamos.

D

A mi me llama la atención esto "we now believe we were wrong in our original thinking about openness, and have pivoted from thinking we should release everything". Parece que todo lo anterior es una burda justificación de que van hacía un modelo cerrado.

1 2