
Aprovechando que la comparecencia de Pedro Sánchez fue en la Sala Campoamor del Senado, José F. Peláez ha publicado un artículo en ABC de título "Campoamor amordazada" donde vuelve a difundir un habitual bulo de la derecha: que el PSOE se opuso a la aprobación del sufragio femenino en 1931. No tendría más que leer el propio ABC para ver que la realidad es bien distinta: el sufragio femenino se aprobó el 1 de octubre de 1931 con 161 votos a favor y 121 en contra, de los que los diputados del PSOE aportaron 84 a favor y ninguno en contra.

Pero además, tiene la desfachatez de escribir, aludiendo al collage que decora esa sala elaborado a partir de un página de El Liberal, que "Y doña Clara, en la página gigante de 'El Liberal', convirtiendo la plumilla negra en tinta roja, pero no roja-sangre sino roja-vergüenza, roja-rubor, roja-PSOE." . Cuando precisamente en esa pagina se pone negro sobre blanco como el PSOE apoyo son su voto a Campoamor en la aprobación del sufragio femenino. Esa página de El Liberal no es de octubre del 31, es del 2 de diciembre de ese año, el día después de la votación de la Enmienda Peñalba, que fue un intento de los contrarios al sufragio femenino de aplazar su implantación. Votar no a la enmienda (como hizo la propia Campoamor) significaba que el sufragio femenino quedaba definitivamente aprobado. Esta votación fue mucho más ajustada que la del 1 de octubre, ya que la enmienda se rechazó con 127 votos a favor y 131 en contra, una diferencia de cuatro votos que se destaca precisamente en el mural del Senado:

Pues bien, en esa misma página de El Liberal puede verse el detalle de la votación y como el PSOE votó en contra de la enmienda Peñalba con Campoamor. Luego malamente le puede causar rubor al PSOE lo que pone, sino orgullo.

Dos peleas tengo con esto de la inteligencia artificial, una normal, y otra que no me lo parece tanto, así que aprovecho para comentarlas aquí, a ver si entre todos arrojamos un poco de luz sobre este abismo.
En primer lugar, la IA no es Google, ni una base de datos enorme, ni es cierto que sólo pueda devolver respuestas que alguien le ha aportado previamente. Esa manera de pensar nos lleva a infravalorar su impacto y es muy peligrosa. Es cierto que la inteligencia artificial se entrena con montañas de datos, pero se trata de eso, de un entrenamiento, para que sea capaz de dar sus propias respuestas COMBINANDO esa información mediante una serie de patrones, no devolviendo fragmentos a petición del usuario, como hace una base de datos. De hecho, así es como se entrena, se forma, o crece también una inteligencia natural: el niño ve cosas, absorbe información, aprende patrones, y a medida que crece, es capaz de devolver respuestas combinando con sus propios patrones la información previamente recibida. Por eso, cuando se deja la memoria a un lado, la inteligencia se resiente, digan lo que digan los enemigos de la enseñanza memorística. Las respuestas propias vienen de lo que está dentro, no de lo que está fuera, por muy disponible que se halle.
En segundo lugar, la inteligencia artificial no es un ordenador ni una calculadora. No da respuestas exactas. Si esperamos que no se equivoque, o que no alucine, entonces no estaremos ante una inteligencia, porque las inteligencias, todas, se equivocan y alucinan. Cuando decimos que los resultados de programación, por ejemplo, salidos de un IA tienen que ser supervisados, estamos soltando una obviedad como un pino, porque todo lo que procede de una inteligencia tiene que ser supervisado. Lo que procede de una calculadora no necesita supervisión, porque se trata de una máquina determinista, cuyo nivel de error es absolutamente despreciable. ¿Cuatas veces hay que escribir 174 X 179 en una calculadora para que nos ofrezca dos resultados diferentes? Por supuesto que podría suceder, por muchas razones, pero no vale la pena intentar controlar un error que se produce una de cada cientos de millones de veces.
En el caso de la Inteligencia artificial, estamos ante un mecanismo que, precisamente por inteligente, es probabilístico, y lo único que sucede es que está aún en la infancia: comete muchos errores, se inventa muchas cosas, y necesita una supervisión constante. No sabemos hasta dónde puede crecer, pero seguirá siendo siempre un mecanismo probabilístico, y necesitará supervisión como los programadores humanos, como los médicos humanos, como los jueces humanos, y como cualquier inteligencia de las que circulan por ahí. Si esperamos que sea infalible o que no invente cosas, es porque no buscamos un inteligencia artificial, sino a una especie de dios milagrero.Y no, no estamos creando a Dios. Esta vez no.
menéame