EDICIóN GENERAL
fluffy

fluffy

En menéame desde febrero de 2018

6,34 Karma
15K Ranking
0 Enviadas
0 Publicadas
57 Comentarios
0 Notas

Ilusiones ópticas: una joya del ojo humano que la IA es incapaz de 'ver' [36]

  1. Es probablemente el peor paper que he visto en este año. Tampoco es que me extrañe mucho, parece ser el paper de un alumno de la universidad de Louisville, su primer paper por cierto, y el profesor es Roman Yampolskiy, que vale sí, algo sabe de IA, pero está más en la parte ética que en meter las manos en el barro y hacer cosas.
    Peeeerooooo, el paper se puede permitir ser una mierda, porque el título y el abstract ya te lo dicen: el objetivo no es la investigación sino reunir la base de datos. Parece que el resto del artículo surge de una entrevista al alumno y profesor acerca del paper, pero no se incluye la entrevista sino frases sueltas.

    Analicemos:

    A pretrained “bottleneck” model [14] was used to classify images from Mighty Optical
    Illusions. Only the last few layers had to be retrained, making use of transfer learning from
    a much larger dataset to learn to classify images in general.


    Es decir, no indican la topología, con lo cual ya empezamos mal, porque significa que no se puede replicar la experimentación dado que no dicen qué experimentación han hecho. Ya con eso, voy a imprimir el paper, y mañana cuando vaya al baño le daré uso.
    No solamente no dicen la topología, sino que usan transfer learning modificando solamente las últimas capas. De puta madre, quieres comprobar features de imágenes fuera de lo usual, y usas un modelo preentrenado con imágenes normales y presupones que solamente con entrenar las dos últimas capas será suficiente... ¡Pero no seas cutre joder! ¡Entrena una ResNet-50 de 0! ¡Que te la entreno yo coño si tu universidad no tiene dinero para pagar 24 horas de GPU! ¡Pero cutre de los huevos, que no ves que las features que tendrán esas imágenes no son las que se ven en fotos de perretes, gatetes, avioncitos y demás que es lo que suele haber en modelos preentrenados! ¡Pero tú has visto una sola imagen en los modelos preentrenados con Imagenet una sola foto que se parezca mínimamente a una ilusión óptica!

    Each image in the

    …   » ver todo el comentario

Así sabe la policía si tu denuncia es falsa (y acierta un 91% de veces) [37]

  1. #33 Pues... fue desde el móvil, iba en el metro camino al trabajo. No tengo una tendinitis de milagro :-D
  1. #11 No conozco VeriPol, pero sí sé cómo lo implementaría yo, y sí implica IA.
    El problema es un clasificador binario de libro, como los que deciden si un mensaje es spam o no. Para hacer clasificadores en lenguaje natural hay muchas aproximaciones, una de ellas es que la IA se lee montones de textos (corpus) para calcular vectores que representan a las palabras, de esa manera puedes hacer operaciones con las palabras como Rey - hombre + mujer = reina. Pero esto no me aportaría mucho para clasificar así que mi aproximación serían los siguientes pasos:
    - Tokenizar: dada un texto saber partirlo en frases y cada frase en palabras. No es tan trivial como parece porque en muchos idiomas hay contracciones y similares y tokenizar significa romperlas en palabras, por ejemplo "don't" debe tokenizarse a ["do", "not"]
    - Eliminación de palabras que no aportan significado (stopwords). El problema de tener muchas palabras es que la eficiencia y el tiempo de entreno crecen mucho con la cantidad de palabraa diferentes.
    - Cálculo de la raíz o lema de cada palabra. Se puede elegir la primera (stemming) y nos devolverá la raíz, por ejemplo de "viajando" nos dará "viaj", o la segunda (lemmatizing) para obtener el lema, "viajando" nos debería dar "viaje". Los stemmers son más sencillos, y puedes encontrar Porter stemmers para los lenguajes más comunes.
    - El siguiente paso es tener denuncias, muchas, y clasificadas a si eran falsas o no. Para cada una haremos los pasos anteriores obteniendo un vectoe de palabras, y obtendremos una lista completa de todas las raíces diferentes usadas entre todos los textos y la cantidad de veces que aparecen en global y por texto.
    - Parte de los documentos (un 70% por poner un ejemplo de cifra) se usará para entrenar y el otro 30% para comprobar el entrenamiento. Esto se hace pars comprobar no solamente que nuestra IA aprende sino para evitar algo llamado "overfitting" y que…   » ver todo el comentario

El desencanto del software [EN] [395]

  1. #10 Como buena noticia, en yarn está abierta la propuesta para vivir sin node_modules y usando Plug'n'Play.
    Por otra parte, kat e iarna están trabajando en tink, kat lo publicó aquí: blog.npmjs.org/post/178027064160/next-generation-package-management
    Y empieza a tener tracción, la semana pasada estaba en los trending weekly de github.
    github.com/npm/tink

La historia de la tecnología SBR de audio que se utiliza junto con la compresión MP3 y AAC [3]

  1. En portada sin comentarios. Curioso. Interesante lectura.

Que nadie investigue a Telefónica... que se puede llevar un disgusto [23]

  1. Yo no sé si uno se puede llevar un disgusto o no. Pero sí que puedo estar bastante seguro de que se llevará un disgusto con Aura. Por varios motivos.
    - Por un lado es un asistente virtual, y ahí tiene que competir con GAFA: Google Home, Siri, Amazon Echo... Con la limitación de que el público objetivo de Aura son los clientes de Movistar mientras que de Google Home o Amazon Echo son todos los que puedan pagarlo. Los asistentes virtuales tienen una cierta penetración en mercado, pero todavía no es la esperada. En mi casa tengo un Amazon Echo Show, un Amazon Echo normal, un Google Home y un Google Home mini... ¿los uso mucho fuera de hacer pruebas de concepto? Bueno... para poner música o para preguntar el tiempo. Es decir, no le veo beneficio a hacerlo.
    - Por otro lado tiene un equipo grande de gente desarrollándolo: Al no ser un chatbot específico de cosas de Movistar sino un asistente virtual genérico para responder cualquier pregunta abierta, el coste de desarrollo es muchísimo mayor. El problema es que si quiero un asistente virtual genérico me compro un Google Home o un Amazon Echo, que además sé que van a poder evolucionar a mayor velocidad dado que tienen una mayor inversión y cuota de mercado. Lo que yo espero de Movistar es tener un canal diferente para consultar lo que yo quiera como cliente, y para esto no necesita tantísima gente trabajando en el proyecto. Están gastando muchísimo dinero para algo que no va a reemplazar en las casas a Google Home o a Amazon Echo, en lugar de invertir muchísimo menos dinero en skills para ellos o un chatbot.
    - Van de la mano de Microsoft. Microsoft va terriblemente por detrás de Google en reconocimiento de voz, y sobre todo en generación de voz. Mientras Google saca cada vez más papers y presentaciones sobre tacotron2 como reemplazo para WaveNet, Microsoft todavía no ha llegado al estado del arte puesto sobre la mesa por Google hace 2 años con WaveNet. Las voces que genera dejan muchísmo que desear. Por otro lado su plataforma de NLP, LUIS, va muy por detrás de DialogFlow.

    Es una inversión muy grande, usando tecnologías que no están en el estado del arte, con un público objetivo reducido (sus clientes) que preferirán agentes de otras empresas más grandes que funcionan mejor. Me parece que están tirando el dinero, y además mal.

Aprendiendo BASIC... como si fuera 1983 [ENG] [133]

  1. #2 Mi primer contacto con la informática también fue en EGB, y también en colegio de curas (Dominicos). A diferencia que a ti, a nosotros nos daba la asignatura el profesor de matemáticas, Tomás, que es el segundo mejor profesor que he tenido en mi vida (al que le debo sacar un 10 en selectividad en matemáticas, y haber aprobado las asignaturas de matemáticas de primero de informática con la gorra y con 0 esfuerzo). Era un crack. Los ordenadores, pues te puedes imaginar, unos 8088, con su monitor fósforo verde. Nos dio primero logo y al año siguiente ya BASIC. Yo en casa no tenía ordenador, así que tenía que tirar con los del cole. Y oye, me dedico a la informática desde entonces, y mal no me va, y todo se lo debo a él.

«Todo el mundo a bailar»: un método para crear fakes de vídeo muy realistas de gente bailando [26]

  1. #22 ¿Y no puede ser que como la IA aprende de imágenes con poses que le dan para entrenar, si las imágenes usadas en el entrenamiento contienen sombra, la IA las identifique como features a tener en cuenta y por tanto las imágenes producidas contengan sombra? Por saber...
  1. #23 "se ve que te dedicas a la programación" - Ojo que en este caso has acertado porque además soy programador, has tenido suerte. Pero cuidado con a quién se lo dices, porque la gente que se dedica a la inteligencia artificial suele estar mucho más cerca de la matemática aplicada que de la programación, y no llevan muy bien que les digan que se dedican a la programación.

    Tecnología de la Imagen Computacional no la conozco, pero al menos cuando cursé la carrera la asignatura de imagen por computador, y no se tocaba absolutamente nada de inteligencia artificial. Hay que tener en cuenta que programación clásica !== inteligencia artificial.

    El tono, siento que te lo tomases mal pero no es mi problema. Es un tono gracioso y no iba con mala intención, si te lo has tomado mal le diré al Bodegas que haga chistes sobre ti.
  1. #5 ¡Hola audaz compañero de menéame! Bienvenido al curso de "cosas de IA para decir en menéame".

    En esta primera entrega analizaremos varios términos que se pueden usar con seriedad y propiedad sobre el tema actual, y así parecer que se domina el tema.

    - Lo primero que observamos en ese vídeo es que lo que se analiza, en el fondo, es la pose de la persona. ¿Cómo se llama la estimación de pose? ¡Correcto! ¡Pose estimation! Uno de los modelos más de moda en el tema es PoseNet, porque tensorflow está pegando fuerte (esto tienes que decirlo como un mantra). ¿Y cómo funcionan las tripas? Lo primero es saber que siempre que veas una IA que a partir de una imagen devuelve algo, puedes decir sin miedo "eso es una CNN, una Convolutional Neural Network". El tema es, ¿qué es ese algo que devuelve? Ese algo puede estar en un ámbito discreto y acotado (una lista de labels) en cuyo caso es un clasificador (ejemplo, decir si en una foto hay un gato, un perro o un cerdito). O puede estar en un ámbito contínuo, por ejemplo detectar los 4 puntos que forman la caja en la que se encuadra el gatito de la foto, en cuyo caso es una regresión. En el caso de PoseNet lo que se detectan son segmentos, que en realidad se calculan a partir de un mapa de calor y vectores de desplazamiento, así que es una regresión. Para dar más peso a tu argumento, siempre puedes poner un link al github de PoseNet en el que además hay link a demo para que pruebes tú mismo: github.com/llSourcell/pose_estimation

    - Lo segundo que observamos es que genera algo falso pero tiene que parecer real. Así que puedes estar bastante seguro de que usa una GAN, una Generative Adversarial Network. Para entenderla necesitarás dos conceptos: generadores y discriminadores. Un generador es la red que genera la salida falsa, y un discriminador es el que decide si está bien. Para entenderlo, mejor pensar en el ejemplo del meneo. Supón que quieres entrenar algo para hacer imágenes de ti en diferentes…   » ver todo el comentario

QUADRO -un avance fantástico en GPUs por parte de NVIDIA [43]

  1. #6 Bueno, el mayor uso que se le dan hoy en día a GPUs es la inteligencia artificial. A mejor GPU, menor tiempo para entrenar, lo cual permite saber antes si la hipótesis es correcta o no, y continuar mejorando. Uno de los usos principales de la inteligencia artificial es la prevención e identificación de fraude, solamente bancos y aseguradoras ahorran unos cuantos millones de euros anuales... Yo creo que sí, 10k de tarjeta gráfica es un precio asequible para ahorrar millones de euros a cambio.

Michael Caine explica el final de Origen después de ocho años [125]

  1. A esa peli le falta Antonio Resines.

IA de DeepMind reconoce 50 enfermedades oculares con asombrosa precisión [29]

  1. #28 Antes de nada una corrección a tu frase "una función que te da un output para un input y que se compara automáticamente con unos valores ofrecidos de antemano para que los outputs se parezcan cada vez más a los ofrecidos de antemano". No es para que se parezcan a los ofrecidos de antemano, sino a la generalización de los valores ofrecidos de antemano. Esto es muy muy importante, porque en inteligencia artificial hay un término llamado "overfitting". El overfitting sucede cuando lo que aprende la IA no es la generalización, sino que está aproximándose demasiado a los valores que se le han enseñado de antemano, con lo cual no funciona bien con valores nuevos. Esto es muy muy importante porque los valores que se enseñan de antemano no necesariamente tienen que ser correctos. Por poner un ejemplo, si estamos enseñando casos clínicos, no siempre el médico tuvo que haber llegado a la conclusión correcta, pero habrá casos clínicos similares en los que los médicos sí llegaron a las conclusiones correctas. Si la red neuronal para el caso clínico de ese médico que se equivocó devuelve la conclusión de ese médico en lugar de la correcta, es un caso de overfitting the libro.

    1.1. La respuesta la obendrás en el capítulo 26 de "Artificial Intelligence: A modern approach", en concreto en el párrafo 26.1.2 habla exactamente del argumento de Lucas según el cual aunque un sistema formal F no sea capaz de construir G(F), y la máquina aprenda nuevos axiomas para construir F', entonces no sería capaz de construir G(F') y así hasta el infinito. Esto se aplica a máquinas de Turing pero no a computadoras reales, porque las máquinas de Turing son infinitas, pero las computadoras son finitas, así que pueden ser descritas com un sistema en lógica proposicional, con lo cual no están sujetas al teorema de incompletitud. Además, porque una inteligencia artificial tenga limitaciones a lo que puede establecer como cierto mientras otras sí, no hay ningún…   » ver todo el comentario
  1. #26 " no sin puntualizar primero que la cota alta no la pongo yo, sino que más bien reconozco o coincido con quienes la han puesto, que considero que no pertenecen al mundo de la ciencia ficción" - ¿Hablas de Yann LeCun? ¿Peter Norvig? ¿Hinton tal vez? ¿Schmidhuber? ¿Andrew Ng? ¿Sutton? No te sonarán ni los nombres. De nuevo, lo que tú o tus amigos penséis que es la inteligencia artificial, a los expertos de IA (algunos los acabo de mencionar) se la trae al pairo.

    Sobre tus preguntas:
    1. El problema es que aunque te lo explicase en profundidad sería complicado que lo entiendas. Digamos que hace 3 siglos un tal Taylor demostró que si una función f(x) es derivable n veces en un punto, entonces esa función se puede expresar de manera polinómica. Eso en aquel entonces fue la polla con cebolla y de ahí surgió el teorema de Peano del resto, por poner un ejemplo. ¿Y qué tiene que ver esto con deep learning? Al final ese teorema es la base del perceptrón. Supón que tienes una función lineal f(x) -> y. Al ser lineal entonces f(x) = a.x + b = y. ¿Hasta ahí bien? Ahora supón que tienes varios pares x e y, y a partir de ahí tienes que adivinar a y b. Ok, trabajo fácil, de hecho con 2 ya está todo hecho. Ahora supón que estás en un espacio n-dimensional, así que x no es un único valor real, sino un vector de valores... tendrías algo como f(x) = a1*x1 + a2*x2 + a3*x3.... an*xn + b. Esta fórmula que ves aquí, es una línea en un espacio vectorial. Si renombras "a" a "w" (de weight) ya tienes la fórmula genérica del perceptrón, la unidad básica para entender redes neuronales. Recapitulemos: tenemos el input [x1, x2, x3,...] y queremos obtener una función aproximada que sepa y para cada posible input; tenemos además los pesos (weights, las "a" que ahora llamamos "w", que desconocemos, y tenemos esa b ahí suelta. Esa b la llamaremos bias. ¿Para que vale la b? Pues porque si no nuestra función siempre pasa por y = 0 cuando x = 0,…   » ver todo el comentario
  1. #22 Dices que es sensacionalista que en esta década a según que cosas se las denomine inteligencia artificial. En realidad es lo contrario: la definicion de inteligencia artificial en ciencias computacionales es la que es, y aquellos que no han estudiado informática tienen un concepto novelístico y no académico de inteligencia artificial.
    Que tú no creas que algo como por ejemplo un sistema experto (base de datos, base de reglas y motor de inferencia) sea inteligencia artificial es precisamente porque tú has puesto la cota mucho más alta que la académica cuando la definió creo que en 1958, y tienes la cota más alta que los propios expertos en inteligencia artificial.
    Por otro lado, el machine learning es un subconjunto de técnicas de la inteligencia artificial, y el deep learning es un subconjunto del machine learning que se engloba en lo más parecido al aprendizaje no intuitivo de las máquinas, lo más parecido a la percepción humana. Y lo qir presenta la noticia es deep learning: al sistema le das las imágenes y la clasificación, no le das cómo reconocee loa patrones para cada clasificación. No solamente reconoce patrones sino que los identifica.
    Por otra parte hablas de la mejora en algoritmos. Puede que esto te cueste mucho entenderlo pero, ¿sabes cuántas líneas de código hay en libros buenos de inteligencia artificial? Exactamente 0. No pienses en algoritmos sino en técnicas. Es todo matemáticas. Tú no mejoras una red neuronal haciendo código, la mejoras cambiando la topología de red, los hiperparámetros, o mejorando la calidad de los datos de entrada.

    En resumen, que a ti algo no te parezca inteligencia artificial, al mundo académico le da exáctamente igual. Y el problema de base es las falsas expectativas creadas por el nombre del término, la literatura de ciencia ficción, las fake news y la falta de buena divulgación científica.
  1. #16 Teniendo una mente tan preclara como la tuya podrás ayudarme... aquí tienes una base de datos de 5GB de tomografías de coherencia óptica retinales: www.kaggle.com/paultimothymooney/kermany2018.
    Hay un juego de datos para entrenar clasificado en 4 clases: DME, CNV, Drunsen y Normal. Y hay otro juego de datos para clasificar. No te pido que me las clasifiques en las 4 clases, tan solo con saber si es Normal o no lo es para saber si la retina tiene alguna anomalía. Como es solamente reconocer patrones, me lo harás en un plis.

    Ten en cuenta que este ejercicio es varias órdenes de magnitud más sencillo que lo que se ha logrado según la noticia.

    ¡Gracias figura!
  1. #11 Jo, qué ganas de ir por la calle atizando gente en la cara con el "Artificial Intelligence: A modern approach" de Peter Norvig y Stuart J. Russell, edición tapa dura, de 1087 páginas, solamente para ver si se dan cuenta de que la inteligencia artificial no tiene por qué ser la "genérica que toma conciencia de si misma" de las películas y novelas de ciencia ficción.

El alquiler en Madrid se vuelve asfixiante mientras baja en el resto de España [63]

  1. No entiendo qué drogas toma el autor del artículo. Llegué a Barcelona hace cuatro años, desde Madrid. Me llegan ofertas de idealista de ambas capitales. La subida de precios en Barcelona se mea por encima de la subida de Madrid. El piso en el que estoy ahora lo alquilé por 1000 y ahora que lo dejo el nuevo precio son 1400. En fin, vaya mierda de artículo.

Ocho razones por las que echamos de menos IRC 30 años después de su lanzamiento [173]

  1. #120 MeLoN????? Eres tú???

La mentira del licor de hierbas: ni es digestivo ni es bueno para tu salud [112]

  1. Bueno carallo bueno

Queens Of The Stone Age obliga al Mad Cool a desmontar la zona vip en mitad de su concierto [136]

  1. #115 No lo critico, lo explico. Si yo fuese el organizador tambien querría enriquecerme. Pero no está bien que se malinterprete y se crea que los grupos van a porcentaje.
  1. #114 Los ejemplos de stream y lurker los tomé de tu histórico de comentarios. Así que criticas lo mismo que haces. Lo de scrum master es porque veo que eres informático. Y bueno... te recuerdo que en informática los libros técnicos traducen array por arreglo. Me gustaría saber cuántas veces has usado tú el término arreglo en lugar de array en una conversación técnica que no fuede poniendo acento sudamericano y riéndote, diciendo que la Gatúbela y el Guasón causan quebraderos de cabeza a Bruno Díaz en Ciudas Gótica.
  1. #97 La tienes al lado de lurker, stream, scrum master,... Yo lo siento pero es lenguaje técnico. Igual que no escucharás a un informático decir Maestro de Melé en lugar de Scrum Master no verás a alguien del sector hotelero decir gerente de ingresos en lugar de revenue manager. Es lo que hay, nuestros nichos técnicos condicionan también nuestro lenguaje.
  1. #88 Si te sucede eso, es que seguramente 90 estaban dispuestos a pagar 125.
  1. #82 Gracias! Si me disculpas sigo con mi música escuchando roca y metal pesado.
« anterior1

menéame