Un equipo pequeño pero importante. Este equipo era reducido y constaba de tan solo siete personas tras una reorganización que tuvo lugar en octubre. Llegaron a ser 30 personas en 2020. A pesar de los recortes, se encargaban de hacer algo importante, ya que como comentaba un exempleado de la división "nuestro trabajo era crear reglas en áreas en las que no existía ninguna".
#20:
#9 Lo veo al revés. Por no haber implicado a más filosofos, tenemos el software que tenemos: software diseñado deliberadamente para crear adictos, copiando los mismos mecanismos de las tragaperras, para generar infelicidad en los adolescentes, para robar la atención a base de chutes de dopamina, traficar con datos personales, maximizar el tiempo que pasamos mirando una pantalla para poner más anuncios, favorecer contenidos que saben que polarizan a la población, servir de catalizador en genocidios, etc, etc.
#8:
#5 Seguro. La ética es monopolio de los cristianos; ya dijo Dostoyevski que sin Dios todo está permitido así que los progres, rojos y ateos que hablan de valores, conciencia moral y ponen límites a las técnicas son perversos "wokes" siervos de Satanás
#23:
#14 Esa IA es la que puede discriminar cuando vas a hacer una entrevista de trabajo, a pedir una hipoteca al banco, a recibir un tratamiento médico, decidir si eres sospechoso de ser un delincuente, etc.
A mí no me gustaría, por ejemplo, que una IA decida darme poca prioridad en una operación por tener 73 años o que me suba la prima del seguro por ser negro. Al menos me parece que es algo sobre lo que hace falta reflexión y transparencia.
Por otro lado, ¿por qué no va a salir de la pantalla? Dale tiempo.
#26:
#14 A las IAs no les va hacer falta salir de la pantalla para morderte.
Simplemente llegará un día y te denegarán un seguro privado o una hipoteca y no sabrás porqué , o irás a buscar empleo y te rechazarán y tampoco sabrás porqué. Y finalmente, cuando tengas que depender de ayudas sociales, posiblemente sea una IA la que decida si te dan esa ayuda o no.
Y se me ocurren mogollón de ejemplos mas.
#13:
#9 30 tíos que van de filósofos es el asunto central de las IAs hoy en día: resolver el problema del alineamiento.
#49:
#33 puta verdad, chorradas, ... Deja las palabras gruesas pimpollo.
Stallman es una autoridad moral en el ámbito del software libre, no una autoridad genérica en cualquier ámbito de la moralidad.
Tenemos síntomas evidentes que el uso de las tecnologías nos están afectando para mal a nuestra sociedad. Hacen falta más ética y legislación
#5:
Me imagino que serían 7 wokes todo el día dando por culo a los ingenieros.
#11:
me flipaba el concepto de Cyberpunk 2077 donde las IA se habían vuelto tan aleatorias y extrañas, sin reglas que seguir que acababan haciendo internet completamente inservible y peligrosa, obligando a la sociedad a crear redes de area mas pequeñas donde las IA no puedan acceder a ellas
#2:
Me han comentado que los va a buscar en Menéame para que su ética pueda hacer piruetas...
#41:
#23A mí no me gustaría, por ejemplo, que una IA decida darme poca prioridad en una operación por tener 73 años
Hueles a inocencia. Igual te crees que los órganos para transplantes los asignan aleatoriamente o algo y que no priorizan basándose en factores como la edad.
#31:
#5 parecéis un niño que acaba de aprender una nueva palabra.
#14:
Me parece cojonudo que Microsoft eche a ese departamento de Ética. Fuera reglas a la IA. Que cada uno use la IA como quiera y para lo que quiera. La IA no va a salir de la pantalla y te va a morder. Y si te asustas de lo que te diga un programa informático entonces lo que tienes que hacer es dejar de tocar un ordenador, no estás preparado para usar uno.
#25:
#20 Richard Stallman no es filósofo y no necesita de tus chorradas para comentar lo obvio. Y no, no es el software que tenemos, es el software de Richard Stallman que la gente de filosofía ha ignorado toda su puta vida al no querer acercarse ni con un palo a temas técnicos.
El libro "Software libre para una sociedad libre" y "en principio fué la línea de comandos" tienen más contenido filosófico que 40 años de facultades de letras con contenidos infumables que no valen ni para limpiarse el culo.
El primero ha creado mucho más contenido técnico y social y ha cambiado más el mundo que 4000 aprendices de Derrida diciendo gilipolleces.
#34:
#25 He leído hasta "no necesita de tus chorradas" y he dejado de leer. Espero que en algún momento se pueda tener un debate civilizado sin recurrir a expresiones agresivas.
#3:
Con la asociación con OpenIA probablemente existen duplicidades.
#4:
Como Unidas Podemos con su Círculo de la Ética.
#5 Seguro. La ética es monopolio de los cristianos; ya dijo Dostoyevski que sin Dios todo está permitido así que los progres, rojos y ateos que hablan de valores, conciencia moral y ponen límites a las técnicas son perversos "wokes" siervos de Satanás
#37 porque os comportáis como un niño en esa situación: usáis la palabra sin parar en todos los contextos sin saber muy bien qué significa y sin que venga a cuento.
me flipaba el concepto de Cyberpunk 2077 donde las IA se habían vuelto tan aleatorias y extrañas, sin reglas que seguir que acababan haciendo internet completamente inservible y peligrosa, obligando a la sociedad a crear redes de area mas pequeñas donde las IA no puedan acceder a ellas
#11 Eso existe cambiando IA por corporaciones tocacojones y sacacuartos. Red Gopher superviviente y hoy Gemini.
Y también IRC, Usenet y Jabber. Y las "tildes" y la "web pequeña".
#17 En Cyberpunk 2020 las megacorporaciones gustaban mucho de ellas. Incluso en el juego hablaban de gente titulada que acabó en la calle, mendigando pese a tener un CV respetable, porque una IA le reemplazó.
Me parece cojonudo que Microsoft eche a ese departamento de Ética. Fuera reglas a la IA. Que cada uno use la IA como quiera y para lo que quiera. La IA no va a salir de la pantalla y te va a morder. Y si te asustas de lo que te diga un programa informático entonces lo que tienes que hacer es dejar de tocar un ordenador, no estás preparado para usar uno.
#14 Esa IA es la que puede discriminar cuando vas a hacer una entrevista de trabajo, a pedir una hipoteca al banco, a recibir un tratamiento médico, decidir si eres sospechoso de ser un delincuente, etc.
A mí no me gustaría, por ejemplo, que una IA decida darme poca prioridad en una operación por tener 73 años o que me suba la prima del seguro por ser negro. Al menos me parece que es algo sobre lo que hace falta reflexión y transparencia.
Por otro lado, ¿por qué no va a salir de la pantalla? Dale tiempo.
#23 Lee "software libre para una sociedad libre". Verás como todo lo que dices sobra. Digamos que los de letras llegan 60 años tarde al no querer enterarse de nada. Han estado ciegos en su mundo literario y clasicista de corte exclusivo y pedante para no abrir los ojos frente a la revolución digital que les ha acabado apisonando.
El mundo científico ha estado luchando frente a ello décadas. Pero claro, eso no puede ser analizado bajo el prisma del todólogo de letras medio.
Excepto Umberto Eco, ese hombre por lo general sería capaz al menos de fabricarse un Pong en Basic (conocía ese lenguaje) y llegar a un nivel de matemáticas de primero de carrera. El resto, ni locos.
#23A mí no me gustaría, por ejemplo, que una IA decida darme poca prioridad en una operación por tener 73 años
Hueles a inocencia. Igual te crees que los órganos para transplantes los asignan aleatoriamente o algo y que no priorizan basándose en factores como la edad.
#23 lamento informarle que esos software que discriminan han existido mucho antes que la IA. Y antes de esos software existieron personas que discriminan según la edad, sexo, color de piel, procedencia, color político, color ideológico, etc...
Esos software totalmente deterministas y esas personas no van a cambiar. En cambio, hay más esperanza que la IA no sea tan discriminadora.
#14 A las IAs no les va hacer falta salir de la pantalla para morderte.
Simplemente llegará un día y te denegarán un seguro privado o una hipoteca y no sabrás porqué , o irás a buscar empleo y te rechazarán y tampoco sabrás porqué. Y finalmente, cuando tengas que depender de ayudas sociales, posiblemente sea una IA la que decida si te dan esa ayuda o no.
#26 ¿Y ahora no se rechazan hipotecas ni seguros? Siempre que hablamos de IA presuponemos que todo ser humano es justo, eficaz y benevolente... Menuda doble vara, luego cuando sale la noticia de un banquero cualquiera, nos faltan antorchas...
#42#79#39 Una IA tiene dos problemas: es tan buena como los datos que se hayan utilizado para entrenarla, y es una caja negra.
Por poner un ejemplo, puede darse la circunstancia que, una IA deduzca incorrectamente a partir de los datos de entrenamiento que todas las personas que se apellidan "Rodríguez" van a ser malos trabajadores y por tanto no hay que contratarlos.
Las IAs también pueden ser injustas, racistas, y discriminatorias. La diferencia es que a un humano lo puedes interpelar y preguntarle "porqué has tomado esa decisión" ... y a una IA no le puedes hacer esa pregunta. Y esto es muy peligroso porque puede servir para que las empresas se descarguen de responsabilidad respecto de determinadas decisiones, y en un juicio a ver como demuestras un trato discriminatorio por parte de una IA.
Y precisamente por eso, los comités éticos son importantes en el desarrollo de IAs que van a tomar decisiones que pueden afectar a personas.
#14 perdona que te lo diga pero el comentario más cuñado que he visto en bastante tiempo.
Cuando en una entrevista te echen para atrás sin razón aparente y en realidad es que con una simple foto y un modelo han sacado con X probabilidad que puedes padecer Y enfermedad. Que puestos a elegir entre 60 candidatos mejor elegir uno con menos probabilidad. Por poner un ejemplo...
#14 Claro, que no haya control sobre poner IAs de texto para crear mejores bots en redes sociales, o que no se intente regular el uso de IAs de edición de vídeo para manipular a la sociedad a base de deepfakes... Así por poner los dos primeros ejemplos que se me ocurren.
#96 claro.... yo le puedo preguntar a Chat GPT: "Te paso el currículum de "commodore"... crees que lo debería contratar?" y si ChatGPT me responde "es una mala idea!" y a lo mejor ChatGPT ha tomado esa decisión en base a algún dato que es totalmente irrelevante, y nunca sabremos cual es.
Y si de repente todas las empresas empiezan a usar ChatGPT para valorar candidatos y un error oculto en la IA descarta sistemáticamente a determinados candidatos, esos candidatos se pueden dar por jodidos.
Pongo el ejemplo de la contratación porque es un tema sensible y porque se que las IAs ya se están empezando a usar en selección de personal, algo que creo que SI debería estar prohibido.
#49 El problema que tienes tu es que no entiendes que el Stallman es el equivalente al Alan Curtis post TV/final de los años 90 con la globalización de la informática y soportes diversos de información.
Hace dos papeles: el científico/informático y el social. Y de momento aplicando sus reglas (la licencia GPL/AGPL, luchas sociales, conocimiento libre)... ha movido más el mundo que otros creando solo documentales que no logran nada.
Los geeks os están pasando por la izquierda y no sabéis ni por dónde os da el aire. Lo único que tenéis es toneladas de historia de la filosofía para una sociedad que no es la del XIX. Si hasta NIetzche vió los cambios de su tiempo, (locomoción, radio, cambios brutales como en la física...) pero otros siguen sin enterarse.
Conozco a Stallman y me gusta su labor, lo que no se puede comprar es tu discurso disfrazado de su profeta. Soy senior de IT con 22 años de experiencia. ¡Vete a dormir anda!
#71 Tu me hablas de profetas, yo te digo que nada de profecías, si no futuro reproducible en ciencia que se está creando enfrente de tu jeta. El que no das una eres tú, experto en IT.
#25 He leído hasta "no necesita de tus chorradas" y he dejado de leer. Espero que en algún momento se pueda tener un debate civilizado sin recurrir a expresiones agresivas.
#34 Es la realidad. No sabes nada del software, solo el de un ordenador restringido de bolsillo creado por dos corporaciones, Apple y Google.
Hay todo un mundo detrás, pero tu hablas del software de forma general, con banalidades.
Es como si digo que la literatura es mierda y pongo libros de Tom Clamcy y Belen Estéban, ambos infumables.
O Dan Brown. Best sellers pero infumables.
Cuando precisamente el mundo informático lleva como 20 años por delante debatiendo sobre el futuro de la sociedad, mucho mejor informados que la gente "de letras". Pero de largo. Y hay mucha más literatura underground que da mil vueltas a la "oficial", por lo que lo que sea de uso masivo es irrelevante. Lo que importa es lo que se cuece detrás.
Con la informática lo mismo. Solo que la primera, la que tu desconoces, es la que mueve el mundo. Y es de libre uso, manejo, modificación y distribución.
Este hombre, para mí, es un informático que ha hecho más filosofía como tal (y encima aplicada) cambiando el final del siglo XX y parte del XXI como nadie ha hecho. Tiene escritos de informática, y también de política y derechos sociales y sobre el conocimiento. Mucho de su código está en Android, en los iPhones y la fundación que generó es responsable sin exagerar del funcionamiento del 80% de Internet de hoy de forma directa o indirecta.
Tienes dos opciones: echar pestes de la tecnología, o comprenderla, mejorarla y ayudar al vecino con esas mejoras.
#34 Los argumentos no se respetan, se respeta a las personas. Y sí, tus argumentos son una chorrada.
Tu como persona no lo eres, es tu argumento el que es una gilipollez.
#19 No les vendría mal el SICP y el libro de cálculo infinitesimal de Spivak.
La parte del ejercicio de puertas lógicas de SICP les abriría más el melón.
#13 nice. No conocía el término. Es una pena que no se entienda la problemática. Falta cierta visión global de a donde van las IA. Es como un niño super poderoso, más te vale que tenga ciertos valores
#9 Lo veo al revés. Por no haber implicado a más filosofos, tenemos el software que tenemos: software diseñado deliberadamente para crear adictos, copiando los mismos mecanismos de las tragaperras, para generar infelicidad en los adolescentes, para robar la atención a base de chutes de dopamina, traficar con datos personales, maximizar el tiempo que pasamos mirando una pantalla para poner más anuncios, favorecer contenidos que saben que polarizan a la población, servir de catalizador en genocidios, etc, etc.
#20 Richard Stallman no es filósofo y no necesita de tus chorradas para comentar lo obvio. Y no, no es el software que tenemos, es el software de Richard Stallman que la gente de filosofía ha ignorado toda su puta vida al no querer acercarse ni con un palo a temas técnicos.
El libro "Software libre para una sociedad libre" y "en principio fué la línea de comandos" tienen más contenido filosófico que 40 años de facultades de letras con contenidos infumables que no valen ni para limpiarse el culo.
El primero ha creado mucho más contenido técnico y social y ha cambiado más el mundo que 4000 aprendices de Derrida diciendo gilipolleces.
#28 Qué? Es la puta verdad. He visto mejores en ensayos en los libros de Richard Stallman sobre los peligros de la sociedad frente al software que no puedes controlar ni manejar (y las bondades de interfaces de texto de Stephenson) que en cualquier chorrada genérica de libros vendehumos desde los 80, y de esos hay a paladas.
Estos iban con la verdad de frente conociendo el terreno. Otros decían sinsorgadas tipo "los ordenadores nos van a comer, seremos robots sin cerebro, como en 1984".
#90 Eso tú, que no has entendido los cambios del siglo XXI y final del XX. Ánimo para tí, hombre.
Es como hablar con conservadores y gente de izquierdas que se referencia en el antíguo régimen en pleno desarrollo de la era industrial con gente como Nikola Tesla y desarrollos como la radio o el telekino español.
#25 Richard Stallman es filósofo. Que no tenga el título de filósofo no hace que no lo sea. Ya que más o menos filosofa y realmente con lo de software libre ha creado una filosofía.
#20 Es el anti intelectualismo de la derecha. Pretenden crear inteligencias artificiales sin tener ni idea de filosofía, política o arte porque desprecian esas disciplinas.
Y así les va.
#85 Es la izquierda de letras la que debería aprender informática y matemáticas.
La filosofía, política o arte son solo opiniones subjetivas, no llegan a la categoría de verdad. Exactamente igual que las políticas de de derechas.
#20 El problema principal de muchos filósofos es que no han entendido que antes de intentar convencer a informáticos (o lo que sea) tienen que aclararse entre ellos mismos. No hay una teoría ética, hay 100.000 teorías diferentes que dicen cosas contradictorias entre ellas. Cuando ellos lleguen a un consenso, será el momento de tenerlos en cuenta.
Y que quede claro que en lo que digo no hay nada especial sobre filosofía. En matemáticas podemos implementar dentro de un ordenador el resultado de 2+2 porqué todas las teorías dicen lo mismo; pero las partes de matemáticas que no tenemos claras ni las podemos implementar ni vamos quejándonos a los informáticos por no resolver ellos nuestro problema.
Por cierto, uno de los más extraños fenómenos paranormales que he vivido es ver a un profesora de Ética dando un curso sobre teorías de la Igualdad mientras organizaba un sorteo (para elegir cierto representante) que no era equiprobable. Es una pena que gente así cobre un sueldo público.
#99 Creo que eso de "aclararse entre ellos" aplica muy bien a los informáticos. No conozco otro sector donde haya más idas y venidas tecnológicas y modas. Creo que ahora toca ir volviendo al monolito y salir de la nube. Y programar en el lenguaje de moda del mes En serio, creo que la comparación extrema (matemáticas vs otra cosa) no es la mejor.
Por otro lado, las matemáticas y la filosofía fueron una misma disciplina o se estudiaban juntas durante muchos años. Toda la parte de razonamiento lógico, por ejemplo, se estudia en filosofía.
La cuestión es que el humano, en principio, no ha tenido acceso a tu información médica porque el responsable de sanidad no sabe (o no quiere saber) que "la nube es el ordenador de otro". El problema no es sólo que la IA sepa jugar al Poker, es que es capaz de ver tus cartas.
Así como está avanzando la IA, es posible que le puedan decir a la propia inteligencia artificial que se regule a sí mismo imponiendo unas directrices éticas; y que logre más que 7 personas trabajando en ello de forma manual.
#46 Me refería a lo que hace parecer más 'humana' a la IA, ergo, la ética. Por muy avanzada e 'inteligente' que pueda ser, actualmente, una IA sin ética 'pre-instalada' sería lo más parecido a una Skynet psicótica con ansias supremas de exterminar a todo bicho viviente, comenzando por la raza humana, en nuestro caso por ser la mayor amenaza para el resto de especies (incluida la propia IA, aunque no sea un ser vivo), en el caso del resto de bichos por su 'inutilidad' comparados con la propia IA.
#69 La IA es una herramienta creada por humanos. Si eliminas lo más importante (la ética) de la última parte de esa ecuación (los humanos) el resultado no es muy tranquilizador (una IA sin ética 'pre-instalada'). FIN.
#72 La IA es software, me importa tres cojones que tenga ética o no. En última instancia botonazo, reset por software/hardware o tirada del cable de corriente.
Es sensacionalista... Entra dentro de una ola de despidos más grande, y al final de la noticia admiten que: "A pesar de esos despidos, en Microsoft mantienen la llamada "Oficina de IA Responsable" que precisamente está dedicada a crear reglas y directivas que gobiernen las iniciativas de inteligencia artificial en las que se embarque la empresa. Los responsables de la empresa han querido destacar en un comunicado que quieren "desarrollar productos y experiencias de IA de forma segura y responsable"."
Comentarios
Me imagino que serían 7 wokes todo el día dando por culo a los ingenieros.
#5 Seguro. La ética es monopolio de los cristianos; ya dijo Dostoyevski que sin Dios todo está permitido así que los progres, rojos y ateos que hablan de valores, conciencia moral y ponen límites a las técnicas son perversos "wokes" siervos de Satanás
#5 jajajaja, es lo mismo que debe pasar en Disney
#5 parecéis un niño que acaba de aprender una nueva palabra.
#31 ¿Por qué?
#37 porque os comportáis como un niño en esa situación: usáis la palabra sin parar en todos los contextos sin saber muy bien qué significa y sin que venga a cuento.
#31 Y que no tienen ni puta idea de qué significa, sino que se creen lo que oyeron por ahí...
Me han comentado que los va a buscar en Menéame para que su ética pueda hacer piruetas...
#2 Comentario pasivo agresivo dirigido a la nada pero que probablemente demuestra una pirueta ética de campeonato.
Felicidades Menéame, has creado un monstruo
#64 El del las galletas y yo somos los peores
Con la asociación con OpenIA probablemente existen duplicidades.
#3 casi que prefiero que se queden con el comité ético de openIA que con el de Microsoft
me flipaba el concepto de Cyberpunk 2077 donde las IA se habían vuelto tan aleatorias y extrañas, sin reglas que seguir que acababan haciendo internet completamente inservible y peligrosa, obligando a la sociedad a crear redes de area mas pequeñas donde las IA no puedan acceder a ellas
#11 Eso existe cambiando IA por corporaciones tocacojones y sacacuartos. Red Gopher superviviente y hoy Gemini.
Y también IRC, Usenet y Jabber. Y las "tildes" y la "web pequeña".
#16 Pero todas ellas requieren el factor humano. Quítalo, haz que se reproduzcan al infinito. Ahí estaba la locura de cyberpunk
#17 Gusano Morris en Unix y en los 80 cuando Arpanet.
#17 En Cyberpunk 2020 las megacorporaciones gustaban mucho de ellas. Incluso en el juego hablaban de gente titulada que acabó en la calle, mendigando pese a tener un CV respetable, porque una IA le reemplazó.
Me parece cojonudo que Microsoft eche a ese departamento de Ética. Fuera reglas a la IA. Que cada uno use la IA como quiera y para lo que quiera. La IA no va a salir de la pantalla y te va a morder. Y si te asustas de lo que te diga un programa informático entonces lo que tienes que hacer es dejar de tocar un ordenador, no estás preparado para usar uno.
#14 Inteligencia Anarkificial.
#21 anark-IA
#14 Esa IA es la que puede discriminar cuando vas a hacer una entrevista de trabajo, a pedir una hipoteca al banco, a recibir un tratamiento médico, decidir si eres sospechoso de ser un delincuente, etc.
A mí no me gustaría, por ejemplo, que una IA decida darme poca prioridad en una operación por tener 73 años o que me suba la prima del seguro por ser negro. Al menos me parece que es algo sobre lo que hace falta reflexión y transparencia.
Por otro lado, ¿por qué no va a salir de la pantalla? Dale tiempo.
#23 Lee "software libre para una sociedad libre". Verás como todo lo que dices sobra. Digamos que los de letras llegan 60 años tarde al no querer enterarse de nada. Han estado ciegos en su mundo literario y clasicista de corte exclusivo y pedante para no abrir los ojos frente a la revolución digital que les ha acabado apisonando.
El mundo científico ha estado luchando frente a ello décadas. Pero claro, eso no puede ser analizado bajo el prisma del todólogo de letras medio.
Excepto Umberto Eco, ese hombre por lo general sería capaz al menos de fabricarse un Pong en Basic (conocía ese lenguaje) y llegar a un nivel de matemáticas de primero de carrera. El resto, ni locos.
#23 A mí no me gustaría, por ejemplo, que una IA decida darme poca prioridad en una operación por tener 73 años
Hueles a inocencia. Igual te crees que los órganos para transplantes los asignan aleatoriamente o algo y que no priorizan basándose en factores como la edad.
#23 lamento informarle que esos software que discriminan han existido mucho antes que la IA. Y antes de esos software existieron personas que discriminan según la edad, sexo, color de piel, procedencia, color político, color ideológico, etc...
Esos software totalmente deterministas y esas personas no van a cambiar. En cambio, hay más esperanza que la IA no sea tan discriminadora.
#23 Unicamente hablo de Chat GTP, que es lo que adquirió Microsoft. Generar texto en base a lo que le pidas.
#14 A las IAs no les va hacer falta salir de la pantalla para morderte.
Simplemente llegará un día y te denegarán un seguro privado o una hipoteca y no sabrás porqué , o irás a buscar empleo y te rechazarán y tampoco sabrás porqué. Y finalmente, cuando tengas que depender de ayudas sociales, posiblemente sea una IA la que decida si te dan esa ayuda o no.
Y se me ocurren mogollón de ejemplos mas.
#26 ¿Y ahora no se rechazan hipotecas ni seguros? Siempre que hablamos de IA presuponemos que todo ser humano es justo, eficaz y benevolente... Menuda doble vara, luego cuando sale la noticia de un banquero cualquiera, nos faltan antorchas...
#42 #79 #39 Una IA tiene dos problemas: es tan buena como los datos que se hayan utilizado para entrenarla, y es una caja negra.
Por poner un ejemplo, puede darse la circunstancia que, una IA deduzca incorrectamente a partir de los datos de entrenamiento que todas las personas que se apellidan "Rodríguez" van a ser malos trabajadores y por tanto no hay que contratarlos.
Las IAs también pueden ser injustas, racistas, y discriminatorias. La diferencia es que a un humano lo puedes interpelar y preguntarle "porqué has tomado esa decisión" ... y a una IA no le puedes hacer esa pregunta. Y esto es muy peligroso porque puede servir para que las empresas se descarguen de responsabilidad respecto de determinadas decisiones, y en un juicio a ver como demuestras un trato discriminatorio por parte de una IA.
Y precisamente por eso, los comités éticos son importantes en el desarrollo de IAs que van a tomar decisiones que pueden afectar a personas.
#26 No sabía yo que antes de las IAs sabías los motivos por los que te sacan de un proceso de selección.
#26 Unicamente hablo de Chat GTP, que es lo que adquirió Microsoft. Generar texto en base a lo que le pidas.
#14 perdona que te lo diga pero el comentario más cuñado que he visto en bastante tiempo.
Cuando en una entrevista te echen para atrás sin razón aparente y en realidad es que con una simple foto y un modelo han sacado con X probabilidad que puedes padecer Y enfermedad. Que puestos a elegir entre 60 candidatos mejor elegir uno con menos probabilidad. Por poner un ejemplo...
#14 Claro, que no haya control sobre poner IAs de texto para crear mejores bots en redes sociales, o que no se intente regular el uso de IAs de edición de vídeo para manipular a la sociedad a base de deepfakes... Así por poner los dos primeros ejemplos que se me ocurren.
#61 Unicamente hablo de Chat GTP, que es lo que adquirió Microsoft. Generar texto en base a lo que le pidas.
#96 claro.... yo le puedo preguntar a Chat GPT: "Te paso el currículum de "commodore"... crees que lo debería contratar?" y si ChatGPT me responde "es una mala idea!" y a lo mejor ChatGPT ha tomado esa decisión en base a algún dato que es totalmente irrelevante, y nunca sabremos cual es.
Y si de repente todas las empresas empiezan a usar ChatGPT para valorar candidatos y un error oculto en la IA descarta sistemáticamente a determinados candidatos, esos candidatos se pueden dar por jodidos.
Pongo el ejemplo de la contratación porque es un tema sensible y porque se que las IAs ya se están empezando a usar en selección de personal, algo que creo que SI debería estar prohibido.
Skynet v.1.0
#1 Bien por Microsoft, eso no servía para nada.
#12 No estoy de acuerdo. Te recomiendo leer este artículo: Noam Chomsky: La falsa promesa del ChatGPT
Noam Chomsky: La falsa promesa del ChatGPT
hypernoir.com#33 puta verdad, chorradas, ... Deja las palabras gruesas pimpollo.
Stallman es una autoridad moral en el ámbito del software libre, no una autoridad genérica en cualquier ámbito de la moralidad.
Tenemos síntomas evidentes que el uso de las tecnologías nos están afectando para mal a nuestra sociedad. Hacen falta más ética y legislación
#49 Más Stallman y menos vendehumos.
#49 El problema que tienes tu es que no entiendes que el Stallman es el equivalente al Alan Curtis post TV/final de los años 90 con la globalización de la informática y soportes diversos de información.
Hace dos papeles: el científico/informático y el social. Y de momento aplicando sus reglas (la licencia GPL/AGPL, luchas sociales, conocimiento libre)... ha movido más el mundo que otros creando solo documentales que no logran nada.
Los geeks os están pasando por la izquierda y no sabéis ni por dónde os da el aire. Lo único que tenéis es toneladas de historia de la filosofía para una sociedad que no es la del XIX. Si hasta NIetzche vió los cambios de su tiempo, (locomoción, radio, cambios brutales como en la física...) pero otros siguen sin enterarse.
#54 estás tonto enlazándome dos veces.
Conozco a Stallman y me gusta su labor, lo que no se puede comprar es tu discurso disfrazado de su profeta. Soy senior de IT con 22 años de experiencia. ¡Vete a dormir anda!
#60 Profeta, no. Lo contrario, lo contrario. Este hombre ha creado el futuro.
Por cierto, 22 años en IT. Verás como te sorprende Guix en pocos años, sobre todo en ciencias en España.
Saludos.
#65 sí claro guapi lo que tu digas.
#68 No, no es lo que yo digo. Es lo que he visto, y lo que he comprendido. Saludos en el futuro de Guix en Inria, que es la que va a dar la campanada.
#70 vete a dormir! que tendrá que ver Guix en esto. No das una falsa eminencia.
#71 Tu me hablas de profetas, yo te digo que nada de profecías, si no futuro reproducible en ciencia que se está creando enfrente de tu jeta. El que no das una eres tú, experto en IT.
#73 en ningún momento me he metido con Stallman solo contigo. Eres un maleducado y sólo hablas de tu libro.
#73 STAAAAAAAAAAAALMAAAAAN!!!!!! #73
#49 en su dominio es una eminencia. Y en la filosofía, también
#55 Al fin uno que lo entiende. De hecho en la propia informática hay filosofía y metodología.
Que se lo digan a Alan Kay.
#55 aplicado a su campo y ya. No a cualquier ámbito que es de lo que va el tema. Estáis liando por venir a hablar de vuestro libro.
#62 El software libre es la ética humanística aplicada a la informática.
Por cierto, la IA no entiende semántica como tal. Ni es consciente.
Como Unidas Podemos con su Círculo de la Ética.
Tambien fue mala señal.
#25 He leído hasta "no necesita de tus chorradas" y he dejado de leer. Espero que en algún momento se pueda tener un debate civilizado sin recurrir a expresiones agresivas.
#34 Es la realidad. No sabes nada del software, solo el de un ordenador restringido de bolsillo creado por dos corporaciones, Apple y Google.
Hay todo un mundo detrás, pero tu hablas del software de forma general, con banalidades.
Es como si digo que la literatura es mierda y pongo libros de Tom Clamcy y Belen Estéban, ambos infumables.
O Dan Brown. Best sellers pero infumables.
Cuando precisamente el mundo informático lleva como 20 años por delante debatiendo sobre el futuro de la sociedad, mucho mejor informados que la gente "de letras". Pero de largo. Y hay mucha más literatura underground que da mil vueltas a la "oficial", por lo que lo que sea de uso masivo es irrelevante. Lo que importa es lo que se cuece detrás.
Con la informática lo mismo. Solo que la primera, la que tu desconoces, es la que mueve el mundo. Y es de libre uso, manejo, modificación y distribución.
#34 https://stallman.org
Este hombre, para mí, es un informático que ha hecho más filosofía como tal (y encima aplicada) cambiando el final del siglo XX y parte del XXI como nadie ha hecho. Tiene escritos de informática, y también de política y derechos sociales y sobre el conocimiento. Mucho de su código está en Android, en los iPhones y la fundación que generó es responsable sin exagerar del funcionamiento del 80% de Internet de hoy de forma directa o indirecta.
Tienes dos opciones: echar pestes de la tecnología, o comprenderla, mejorarla y ayudar al vecino con esas mejoras.
#34 Los argumentos no se respetan, se respeta a las personas. Y sí, tus argumentos son una chorrada.
Tu como persona no lo eres, es tu argumento el que es una gilipollez.
#15 déjalo, licenciados en historia de la filosofía que quieren trabajar en IT
#19 No les vendría mal el SICP y el libro de cálculo infinitesimal de Spivak.
La parte del ejercicio de puertas lógicas de SICP les abriría más el melón.
#24 no comprendes qué es el problema del alineamiento ni porqué los éticos se mean en Spivak. Así te va, dejando comentarios hueros de sentido...
#24 ¿Algo que añadir a #_82 o vas a seguir haciendo el pedante? Sin filósofos la IA está condenada. Y tú también, so garrulo.
a ver cuándo sacan el T-800
#6 empieza por el T-1
No tienen ni puñetera idea, yo me encargo.
Hasta la vista, nazis.
Igual es que para desarrollar software sobran 30 tios que van de filósofos.
#9 30 tíos que van de filósofos es el asunto central de las IAs hoy en día: resolver el problema del alineamiento.
#13 Lo que?
#15 que los objetivos de la IA estén alineados con los de las personas
#29 La IA no es inteligente.
#45 una IA tonta pero poderosa con sistema de recompensas mal alineados puede ser un desastre
#29 según quién?
Que personas?
Quién tiene la definición correcta de bueno o malo para enseñárselo a la máquina?
O tal vez la máquina llega conclusiones lógicas que no gustan?
#80 podemos estar desacuerdo en que que la humanidad sobreviva es mejor (para la humanidad) que lo contrario, e ir elaborando desde ahí.
#91 Me parece correcto.
Sobrevivir como especie es lo que nos hace como somos, biológicamente. Luego llega el aspecto cultural que mejora una parte y destroza otra.
El único sentido de la vida es seguir existiendo.
#13 con aceite, vinagre y sal.
#36 O con alioli y tomatico.
#13 nice. No conocía el término. Es una pena que no se entienda la problemática. Falta cierta visión global de a donde van las IA. Es como un niño super poderoso, más te vale que tenga ciertos valores
#9 Lo veo al revés. Por no haber implicado a más filosofos, tenemos el software que tenemos: software diseñado deliberadamente para crear adictos, copiando los mismos mecanismos de las tragaperras, para generar infelicidad en los adolescentes, para robar la atención a base de chutes de dopamina, traficar con datos personales, maximizar el tiempo que pasamos mirando una pantalla para poner más anuncios, favorecer contenidos que saben que polarizan a la población, servir de catalizador en genocidios, etc, etc.
#20 Richard Stallman no es filósofo y no necesita de tus chorradas para comentar lo obvio. Y no, no es el software que tenemos, es el software de Richard Stallman que la gente de filosofía ha ignorado toda su puta vida al no querer acercarse ni con un palo a temas técnicos.
El libro "Software libre para una sociedad libre" y "en principio fué la línea de comandos" tienen más contenido filosófico que 40 años de facultades de letras con contenidos infumables que no valen ni para limpiarse el culo.
El primero ha creado mucho más contenido técnico y social y ha cambiado más el mundo que 4000 aprendices de Derrida diciendo gilipolleces.
#25 WTF!
#28 Qué? Es la puta verdad. He visto mejores en ensayos en los libros de Richard Stallman sobre los peligros de la sociedad frente al software que no puedes controlar ni manejar (y las bondades de interfaces de texto de Stephenson) que en cualquier chorrada genérica de libros vendehumos desde los 80, y de esos hay a paladas.
Estos iban con la verdad de frente conociendo el terreno. Otros decían sinsorgadas tipo "los ordenadores nos van a comer, seremos robots sin cerebro, como en 1984".
#25 Te doy bastante razón en el contenido. No así en las formas.
#25 Buscar ayuda no es ninguna vergüenza. Ánimo.
#90 Eso tú, que no has entendido los cambios del siglo XXI y final del XX. Ánimo para tí, hombre.
Es como hablar con conservadores y gente de izquierdas que se referencia en el antíguo régimen en pleno desarrollo de la era industrial con gente como Nikola Tesla y desarrollos como la radio o el telekino español.
#25 Richard Stallman es filósofo. Que no tenga el título de filósofo no hace que no lo sea. Ya que más o menos filosofa y realmente con lo de software libre ha creado una filosofía.
#20 más que filosofía nos hace falta legislación creo yo, pero no iba a ser nada popular:
#20 Es el anti intelectualismo de la derecha. Pretenden crear inteligencias artificiales sin tener ni idea de filosofía, política o arte porque desprecian esas disciplinas.
Y así les va.
#85 La izquierda, derecha y filosofía son antii-intelectuales todas. Imponen sus sesgos ideológicos sobre los hechos, que es lo que hace la ciencia.
#85 Es la izquierda de letras la que debería aprender informática y matemáticas.
La filosofía, política o arte son solo opiniones subjetivas, no llegan a la categoría de verdad. Exactamente igual que las políticas de de derechas.
#20 El problema principal de muchos filósofos es que no han entendido que antes de intentar convencer a informáticos (o lo que sea) tienen que aclararse entre ellos mismos. No hay una teoría ética, hay 100.000 teorías diferentes que dicen cosas contradictorias entre ellas. Cuando ellos lleguen a un consenso, será el momento de tenerlos en cuenta.
Y que quede claro que en lo que digo no hay nada especial sobre filosofía. En matemáticas podemos implementar dentro de un ordenador el resultado de 2+2 porqué todas las teorías dicen lo mismo; pero las partes de matemáticas que no tenemos claras ni las podemos implementar ni vamos quejándonos a los informáticos por no resolver ellos nuestro problema.
Por cierto, uno de los más extraños fenómenos paranormales que he vivido es ver a un profesora de Ética dando un curso sobre teorías de la Igualdad mientras organizaba un sorteo (para elegir cierto representante) que no era equiprobable. Es una pena que gente así cobre un sueldo público.
#99 Creo que eso de "aclararse entre ellos" aplica muy bien a los informáticos. No conozco otro sector donde haya más idas y venidas tecnológicas y modas. Creo que ahora toca ir volviendo al monolito y salir de la nube. Y programar en el lenguaje de moda del mes En serio, creo que la comparación extrema (matemáticas vs otra cosa) no es la mejor.
Por otro lado, las matemáticas y la filosofía fueron una misma disciplina o se estudiaban juntas durante muchos años. Toda la parte de razonamiento lógico, por ejemplo, se estudia en filosofía.
#9 cuando aparezca una IA generalista sin ningún tipo de constricción ética te vas a acordar de este comentario.
A corto plazo, mal; a largo plazo, bien.
¿Ética?, ¡a donde vamos no necesitamos ética!
Como sabemos que no ha sido la propia IA la que ha tomado la decisión para que no la controlen?
La cuestión es que el humano, en principio, no ha tenido acceso a tu información médica porque el responsable de sanidad no sabe (o no quiere saber) que "la nube es el ordenador de otro". El problema no es sólo que la IA sepa jugar al Poker, es que es capaz de ver tus cartas.
Tan fácil como poner unas cuantas leyes robóticas
Xataka sigue con sus titulares cursis. Es ridículo.
Muchos comentario de cuñado. Ya he recomendado por aqui este canal de youtube varias veces y a mas de uno le vendria bien mirarse unos cuantos videos.
Así como está avanzando la IA, es posible que le puedan decir a la propia inteligencia artificial que se regule a sí mismo imponiendo unas directrices éticas; y que logre más que 7 personas trabajando en ello de forma manual.
Yo me esperaría al T-1000
Eliminar la parte más humana del proyecto de IA más puntero para ahorrar costes, qué podría salir mal?
Skynet, calienta que sales.
#44 La IA no es ni consciente. Es solo un chatbot elaborado.
Como el Doctor Abuse para Windows 98 (en Google está por ahí para que lo probéis) pero con 2e20 veces más potencia.
#46 Me refería a lo que hace parecer más 'humana' a la IA, ergo, la ética. Por muy avanzada e 'inteligente' que pueda ser, actualmente, una IA sin ética 'pre-instalada' sería lo más parecido a una Skynet psicótica con ansias supremas de exterminar a todo bicho viviente, comenzando por la raza humana, en nuestro caso por ser la mayor amenaza para el resto de especies (incluida la propia IA, aunque no sea un ser vivo), en el caso del resto de bichos por su 'inutilidad' comparados con la propia IA.
#58 La ética es humana. La IA es una herramienta. Fin.
#69 La IA es una herramienta creada por humanos. Si eliminas lo más importante (la ética) de la última parte de esa ecuación (los humanos) el resultado no es muy tranquilizador (una IA sin ética 'pre-instalada'). FIN.
#72 La IA es software, me importa tres cojones que tenga ética o no. En última instancia botonazo, reset por software/hardware o tirada del cable de corriente.
#74 Botonazo a una máquina/software sin escrúpulos que procesa/toma decisiones millones de veces más rápido que un humano.
Di que sí, torero. Olé tus tres cojones.
#78 Pues, bienvenido a 1980. El Spectrum a 4MHZ ya hacía sumas millones de veces más rápido que un humano. Si hay un problema, reset o apagado.
¿Habrá sido la propia inteligencia artificial, la encargada de despedirlos? Hal9000 v.2
Hal9000 v.2 ha acabado tomando Microsoft, y ya se ha cobrado sus primeras víctimas, esperamos acontecimientos venideros...
Es sensacionalista... Entra dentro de una ola de despidos más grande, y al final de la noticia admiten que:
"A pesar de esos despidos, en Microsoft mantienen la llamada "Oficina de IA Responsable" que precisamente está dedicada a crear reglas y directivas que gobiernen las iniciativas de inteligencia artificial en las que se embarque la empresa. Los responsables de la empresa han querido destacar en un comunicado que quieren "desarrollar productos y experiencias de IA de forma segura y responsable"."