YuukiTerumi
YuukiTerumi

#c-56" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3203550/order/56">#56

C#

anonimo115

#60 #75 cierto lol

YuukiTerumi

No veo por ninguna parte a Linus Torvalds...

YuukiTerumi

#148 Demasiado tarde, tengo que avisar a Rajoy-Sama de esto. JAJAJAJAJA.

YuukiTerumi

Por favor, le pido a los reyes magos que sea en donde ya sabéis. Guiño, guiño.

YuukiTerumi

#5 meh, ya tengo una 480 oceada de fábrica.

YuukiTerumi

#7 ah, si? Y cómo rinden en vulkan y dx12?

YuukiTerumi
Boleteria

#43 What you gonna do is what you wanna do

D

#49 A uam ba buluma balam bam búh

YuukiTerumi
YuukiTerumi

Los gobiernos y organizaciones internacionales que forman parte del programa GSP, pueden inspeccionar el código fuente de los siguientes productos:
Windows 8.1, Windows 7 y Windows Vista


Pobrecita administración española con sus XP...

YuukiTerumi

#3 #2 una solución intermedia sería poner la máquina virtual dalvik en ubuntu para que no falten aplicaciones. El so de vita hace eso.

YuukiTerumi

El peligro de de que se revelen las maquinas no es nada comparable al de un un fallo de programación.
Si por algún "accidente" se activa el protocolo de lanzamiento de un misil cuando no toca porque hemos dejado la oportunidad para que algún cracker pueda hacerlo, no hará falta ninguna maquina "rebelde" para sembrar el caos. Sino la propia maldad de los seres humanos.

Acido

#3
"Las máquinas son herramientas y nunca dejan de obedecer a sus dueños"

También es posible que "la rebelión de las máquinas" ocurra en el futuro por un error de programación, lo que se conoce como "bug", una posibilidad no prevista, que quien lo programó pensó que se comportaría de otra manera... que me parece diferente al caso del problema de seguridad que plantea #101


#51 "no estaría en competición por los recursos, no tendría emociones que le empujaran (a menos que algún gilipollas tenga la genial idea de ponerlas en su programación)"

Hombre, intentar programar emociones no me parece una "gilipollez", me parece una tentación muy grande en la que las personas podemos caer... imagina máquinas que tengan una codificación de emociones que les permita crear música, crear poesía, comprender tus emociones...
Por otro lado, aunque no se incluyan a propósito las emociones están ahí y una máquina con suficiente inteligencia podrá eventualmente tener datos sobre ellas: leer lo que son, diferentes tipos, ver ejemplos, ... hasta comprenderlas y llegar quizá a imitarlas sin que se hayan programado explícitamente en la máquina. Si se crea una IA Fuerte suficientemente potente lo que pueda ocurrir con eso dependerá de las metas / objetivos / prioridades que se pongan en ese sistema... aparte, claro está, de posibles errores / "bugs" (quería definir estas prioridades pero no me di cuenta de ciertos casos límite que han permitido resultados que no esperaba).
Otro problema es que las personas, como animales que somos, aunque pretendamos distinguirnos del resto como "animales racionales", tenemos unos instintos, unas prioridades y objetivos. Necesitamos respirar, comer, habitualmente buscamos reproducirnos o tener sexo, etc... ¿Por digo que esto es un problema? Pues porque si definimos estas prioridades en la IA entonces competirán con los humanos por los recursos.... pero si no definimos estas prioridades entonces de partida el ser artificial tendrá diferencias muy importantes con los humanos o, en otras palabras, no será indistinguible de los humanos así que no pasaría el Test de Turing... excepto quizá cuando esté "haciendo teatro", pero a la hora de la verdad (no teatro) podríamos pillar cuál es máquina y cuál no, no serían equivalentes artificiales a los humanos.