EDICIóN GENERAL
fluffy

fluffy

En menéame desde febrero de 2018

6,16 Karma
18K Ranking
5 Enviadas
1 Publicadas
164 Comentarios
66 Notas

Algoritmos descubren conocimiento oculto escaneando estudios científicos [47]

  1. De nuevo lo de siempre: los papers dicen una cosa y los periodistas escriben lo que les sale de los cojones. Estupendo. En fin... ya no merece la pena ni intentar explicar lo que es en realidad word2vec y lo que realmente se ha conseguido, porque para qué... Así que voy a probar con el método ese que dice que cuando te digan una barbaridad científica o una cosa conspiranóica lo mejor es contestar con una todavía mayor, ejemplo:

    - Pues claro que hay pruebas de que lo del hombre en la luna fue un montaje!
    - Bah, ¿de verdad todavía crees en la luna?

    Pues lo mismo aplicado aquí:
    - Bah, si todos sabemos que los científicos mienten, ¿no os dais cuenta de que os mienten con las IA y en realidad son miles de chinos al otro lado?

Reconstruyen en 3D la cara de una persona a partir de la memoria de otra persona pensando en ella (ING) [29]

  1. "No dejes que la verdad te estropee una noticia" como regla del periodismo, en ciencia aplica demasiado a menudo, porque ¿para qué te vas a leer el paper si lo que te has imaginado vende más?

    El paper ya tiene un tiempito, es de septiembte, y no causó mucho revuelo. ¿Por qué? Porque, a diferencia de lo que el periodista imagina, no existe ningún dispositivo mágico que te lee el cerebro y saca la imagen. ¿Y por qué se ha puesto de moda en estos últimos días? Porque lo han publicado en Nature, y los periodistas no leen fuentes académicas porque salen demasiadas cosas al día, pero Nature te da cositas potencialmente publicables.

    Lo que describe el paper es que generan caras aleatorias pero con características distintas, por ejemplo narices más afiladas o más chatas, y la manera de extraer los datos de la mente de la persona es enseñarle las caras y preguntarle "¿del 1 al 6 cuánto se parece esta?". El avance está en cómo generan esas caras y cómo a partir de las respuestas de la persona usan un modelo estadístico para generar nuevas caras cada vez más parecidas.

    Link al paper descargable: www.researchgate.net/publication/327390153_Someone_Like_You_Modelling_

Ministro de Educación de Brasil usa chocolates para explicar los recortes presupuestarios en la educación superior [66]

  1. #13 no volveré a pedir un chocolate y media docena de churros

Investigadores belgas descubren método para engañar cámaras con IA [59]

  1. Leí la noticia ayer. He probado con DensePose (COCO), con una Resnet 50, FPD, una deep sort YOLOv3, y una facial landmark.... a ninguna de estas le engaña ese truquito jedi.

    Mira tú, con una "old fashion" YOLOv2 preentrenada, sí funciona. Y ya todos paranoicos que parece el fin del mundo...

    Mientras tanto, la gente que se dedica al single person tracking de supermercados, en los que identifican por ejemplo si coges la caja de cereales, tu cara, sabe quién eres y lo que te llevas.... riéndose de los cuatro matados de una universidad perdida en mitad de un monte que ni siquiera tienen medios para entrenar su propia red.

Estas son las razones por las que muchos programadores están empezando a aprender Python [126]

  1. #83 Si es más fácil que todo eso... mira el mercado, mira linkedin, lo que creas que se ajusta mejor a ti... Pero también ojito a la tendencia :-) Mientras R ha bajado en los últimos 6 años, python no ha hecho más que subir en demanda.
  1. #77 Sí... incluso node usando pixiedust... pero poco hay, no representa una cifra significativa.
  1. #69 Ojo... No es porque python sea la polla... A ver, pongamos cifras: Un data science con R cobra unos 40-50K de media en una capital, mientras que con deep learning y python lo habitual son 60-70k, y conozco al menos una persona por encima de los 100k en Barcelona.
    Pero la diferencia no es el lenguaje, son las matemáticas. Por eso digo que R se adapta mejor a alguien de económicas. El nivel de álgebra y cálculo requeridos en deep learning en investigación es bastante elevado, y es por eso por lo que se paga. Pero además cuando tienes una hipótesis matemática, necesitas implementarla, y normalmente no es programación tan sencilla, porque significa agregar un nuevo tipo de capa o cualquier otra cosa que usualmente implica tocar el core o ampliar la framework por defecto para poder probar tu hipótesis. En deep learning casi todo el trabajo que se hace es utilizar una topología ya definida por un tercero, pero en investigación esto no es así. Y eso es lo que se paga... Así que si te sientes cómodo con espacios de Hilbert, gradientes, tangentes hiperbólicas... adelante.

    Y yo lo llamo gris y aburrido porque significa hacer el mismo trabajo una y otra vez, una y otra vez... mientras que en investigación es siempre algo diferente.
  1. #56 Pues por ponerte un ejemplo de las cifras, busca en github "deep learning", y te saldrá la cantidade proyectos, y las cifras por lenguaje:

    19,226 Jupyter Notebook
    17,782 Python
    3,342 HTML
    791 C++
    648 MATLAB
    555 Java
    541 JavaScript
    332 TeX
    280 R
    267 Shell


    Así que en python hay 19226+17782=37008 proyectos al respecto, frente a los 280 de R.

    Me dedico profesionalmente a temas de deep learning, fundamentalmente generación de voz, computer vision, NLP,... Python es la herramienta principal usada por la comunidad, demandada, y lo es precisamente por la cantidad de posibilidades. Eso se representa también en la cantidad y tipo de salida laboral, python está altamente demandado y si ya hablamos de deep learning estaríamos hablando de salarios muy elevados por encima de la media de un desarrollador habitual. En R también hay salida, pero son trabajos más de data science, trabajos mucho más grises y mecánicos que no son los a los que estoy habituado, y además con menor salida laboral y peor rango salarial. Pero si sales de económicas, seguramente R se adapte más a lo que necesitas...
  1. #41 R es precisamente lo que se usa en data science cuando no sabes programar. Es un lenguaje que se imparte en la facultad en carreras como farmacia, economía,... pero no en informática. Así que dudo que sea una respuesta adecuada.

    Python es un buen lenguaje de programación y el que mejor se ha posicionado en temas de deep learning, fundamentalmente gracias al ecosistema de librerías. Por otro lado es muy potente, si participas en algún coding challenge verás que usualmente la gente que se posiciona dentro del top 10 es el lenguaje que suele elegir. Es un lenguaje bastante idóneo también para la realización de APIs, ha adoptado bastante bien el paso de REST hacia GraphQL, y tiene una comunidad abierta y activa.

    Pero su gran fuerte es el deep learning sin duda, con pytorch, theano, scikit, tensorflow... Y con su gran compañero Jupyter Notebook que lo hace el favorito para el trabajo de investigación.
  1. #1 Entonces, ¿qué lenguaje recomiendas que sí sea de programadores? Y más concreto, para dedicarse a temas de Deep Learning.

Youtube filtrando las búsquedas de Brie Larson y Capitana Marvel nos enseña un posible futuro de internet [217]

  1. #7 "Tecnicamente correcto, pero ESTE cpt.Marvel es la versión de 2012, nunca ha sido un personaje popular y como quien dice lo han "creado de nuevo" cada decada, y sigue sin cuajar."

    Ahá... no es un personaje popular, ¿no? No es como si las tramas del main-stream actual de Marvel fuesen sobre los inhumanos, no es como si tooooooodo Civil War 2 fuese sobre Capitana Marvel contra Iron Man, en este caso no por las identidades de los superhéroes sino por el pre-crimen (hay un personaje que predice el futuro...).
    No es como si fuese un personaje constante, miembro de los Vengadores durante las Secret Wars.
    No es como si hubiesemos leído cómo fue violada, como se dio al alcohol, etc...

    No es como si hubiese una nueva serie completa sobre una fan suya, Kamala Khan, que se convierte en Ms. Marvel, en la que aparece Capitana Marvel para apoyarla y mentorizarla mientras está en una lucha mucho más grandes (lo de Thanos se queda pequeño porque es un único universo... cuando hay riesgos que amenazan al multiverso ya son más gordos y ahí está Capitana Marvel...).

    A lo mejor lo que pasa es que estáis acostumbrados al sota, caballo y rey de los superhéroes de los años 60... pues te voy a dar una serie de noticias: Hulk es un chico oriental, Thor es una mujer, Spiderman es un chico afro-americano y ahora da descargas eléctricas, Iron Man es Riri que es una chica de color también, Ojo de Halcón también es una mujer...

    Ya os podéis ir acostumbrando.

Arruino la vida de los desarrolladores con mis revisiones de código y lo siento (Eng) [141]

  1. #71 Es que el Code Review no va de superioridad técnica, tal y como explico en un comentario mío de este hilo. Es más, independientemente de lo bueno que seas, el Code Review se debe pasar igual. No es "yo sé más, esto lo haces mal", y si en tu empresa es así, cambia de empresa.
  1. #65 No he dicho que sea técnicamente superior a él, sino que sé cómo funciona la programación. Igual que él, igual que millones de personas que se dedican a ello. Sobre todo cuando se a apoyado en una verja, con un palillo en la boca, a decir "sabrás tú desto".
  1. #53 ¿Sí? Cuéntame más. Como si yo no fuese profesional de esto, por favor, hazme un buen mansplaining
  1. #48 Te ha faltado acabar como David Broncano, con un "os rajo cabrones!"
  1. #46 Claro claro... Oye mira, dame 300.000 euros para hacerte una casa, pero no te preocupes por las calidades o los acabados, lo que importa es la fachada hombre.
  1. Bueno, el artículo es una muestra de cómo no es el proceso de Code Review.

    - El proceso de Code Review no es una muestra de superioridad técnica, que es lo que sugiere el autor
    - El proceso de Code Review no es una evaluación de la competencia del revisado, que es lo que sugiere el autor
    - El proceso de Code Review no es una batalla contra el developer

    Lo que saco en claro del artículo es que el autor tiene un ego que no le cabe en el cuerpo, y una carencia del conocimiento de qué es un code review, y carencia de empatía. Tras revisar su github, puedo confirmar que también tiene carencias en lo técnico. Así que es alguien que ha escrito un artículo aprovechando la libertad que hay de publicar cualquier cosa, y aquí se le ha meneado.

    En mi empresa cada PR debe ser aprobada por dos personas mediante Code Review. Esas dos personas pueden ser o no de su equipo. Esas dos personas pueden ser o no mejores técnicamente que el que ha subido el código. Y sobre todo, nadie está exento de ello, ni siquiera el mejor, si es que existe. En los proyectos Open Source, este proceso de Code Review es más global y hay más ojos, por ejemplo para que te acepten una PR en Node que toca el core, os aseguro que fácil fácil no es :shit:
    La finalidad del Code Review es:
    1. Que más personas comprendan los cambios que se están realizando y por qué
    2. Que más personas puedan ver los cambios y entender el impacto
    3. Que los que revisan puedan identificar posibles mejoras o cambios, con lo cual el revisado aprende
    4. O incluso al revés, que el revisado esté subiendo algo con patrones o técnicas que los revisores no conocían, y así las aprenden
    5. Cuestionar siempre el código, al menos un chequeo, incluso planteando cuestiones para verificar que es suficientemente bueno
    6. Chequear que se cumplen ciertas prácticas o normas no revisadas por los pre-commits o el CI.

    Así que, lo siento, pero como artículo solamente me parece un ejemplo de lo que no se debe hacer y de cómo no debe ser el comportamiento de un programador.

Esta persona no existe [203]

  1. #146 Pues... no estaría mal. Es una asignatura que tengo muy pendiente... soy demasiado técnico :-(
  1. #139 He calculado a ojo, al ritmo al que evoluciona menéame, cuánto tardará en permitir que en los artículos pongamos botones, o javascript para que hagan cosas, tal como comentas. Me salen 200 años. Si sigo vivo lo rehago.

    En cuanto lo del 99% de los interneteros... efectivamente, pero menéame es un microcosmos de internet en el que el 60% de la gente parece saber la hostia de informática, inteligencia artificial, etc... Y tampoco quería hacer un microblogging de libro como este meneo :-P
  1. Estoy enfadado con vosotros meneantes :-( Me curré el código para hacer un generador de imágenes, con 1000 tipos diferentes de cosas a generar, lo pongo en línea para que todos podáis tocar e incluso usarlo si no tenéis GPU o conocimientos de programación, me curro el artículo explicando cómo funciona y con menciones y ejemplos del generador facial de nvidia (lo que hay en estas fotos que están pregeneradas), con las explicaciones de cómo moverse por el espacio del generador para generar imágenes con relación entre ellas (cambiar fondo, movimiento, zoom)... Y nah, cero interés... Y llega esto que es simplemente enseñar algunas imágenes pregeneradas, con 0 contenido, y pum os encanta.

    Voy a necesitar una buambulancia :-(

¿Qué es y cómo funciona la "computación cuántica"? [63]

  1. #25 Es Q#, es parecido al que hay para quantum programing en python, pero integra con C#. La ventaja es que está pensado para máquinas con entrelazamiento... :-)
  1. #20 Ok, comprobemos tus conocimientos...

    ¿Qué estoy haciendo en este trozo de código y para qué crees que necesito devolver las medidas?

     operation something(m: Bool, a: Qubit) : Bool[] {
      mutable measurementM = false;
      mutable measurementA = false;
      using (register = Qubit[1]) {
       let b = register[0];
       if (m) { X(b); }
       CNOT(b, a);
       H(b);
       if (M(b) == One) { set measurementM = true; }
       if (M(a) == One) { set measurementA = true; }
       Reset(b);
      }
      return [measurementM, measurementA];
     }
  1. #17 Guau. Es verdad, me retiro, está claro que sabes muchísimo más que nadie de computación cuántica.
    Un bechi.
« anterior1

menéame