Hace 8 meses | Por RaulUrdaci a cadenaser.com
Publicado hace 8 meses por RaulUrdaci a cadenaser.com

Desde los años 70 del pasado siglo, se había descartado las aproximaciones polinómicas para calcular funciones de matrices. Ahora, investigadores de la Universitat Politècnica de València han demostrado que pueden ser más eficientes y precisas que las aproximaciones racionales, reduciendo el coste computacional. Las funciones de matrices tienen numerosas aplicaciones en campos como la robótica, la inteligencia artificial, mecánica cuántica, química cuántica, conectividad de redes, economía o aeronáutica, entre otras.

Comentarios

a

#6 me pregunto si Fancis hará una entrada en su blog sobre el tema para enterarme mejor... o menos todavia

Fortuna

#6 Ojo que las aproximaciones de Taylor en general no se aplican a las matrices, excepto para la función exponencial, seno y coseno.

Mariele

#6 tiene delito que lo publiquen en mdpi, esta editorial es tóxica

asircac

#6 Si la revisión por pares que han hecho de lo que afirman es una revisión en MDPI yo me esperaría antes de creerme una noticia…

BuckMulligan

#6 No sorprende que Taylor sea más rápido que Padé, aunque menos preciso. Lo grande es lo que supera a Paterson–Stockmeyer

ajavibp

#6 Y si el artículo es tan bueno, y la idea tan revolucionaria, ¿por qué está publicado en un MDPI?
Que conste que no me he leído el artículo, pero lo que digo es válido si sabes de ciencia independiente del contenido

a

#2 lo que no entiendo es la tabla de costes del articulo. En el nuevo metodo el coste es mayor? no tiene sentido. Lo estoy entendiendo al reves?

R

#3 Si, no sé... se referirá tal vez a la rapidez de ejecución... No está muy claro, la verdad.

johel

#3 #4 Estas interpretando mal el cuadro fijate; 3/4/5M es el coste de la operacion. A mismo coste el resultado de la aproximacion es mayor.

u_70n1

#3 Por el texto que acompaña al gráfico, entiendo que es el grado de las matrices que se pueden multiplicar a ese costo.... o sea... cuanto mayor es el grado, más eficiente es el algoritmo. Con el anterior algoritmo, con un costo de 3M se conseguía multiplicar matrices de grado 6... y con este matrices de grado 8.
La mejora es brutal, hay que tener en cuenta que un grado más de una matriz implica muchísimas operaciones adicionales.

a

#8 asi si tiene sentido. Gracias.
Al mismo coste, cuánto más puedes hacer entonces...

R

#8 Eso tiene sentido, sí.

u_70n1

#17 gracias por la explicación... me encaja más que lo que yo pensaba 😃 👍

SaulBadman

#3 Es que está al revés. Parece ser que es el número de matrices resueltas por un número fijo de operaciones realizadas.

a

#13 si les sale del alma actualizar los drivers, claro. Linux ya seria otro cantar.

Al final nadie hara nada

sauron34_1

#14 prácticamente seguro.

troll_hdlgp

#14 Huy que pena, por la arquitectura de los CUDA y la implementación hardware de las matrices que tienen, casualmente uno de los pasos imprescindibles es incompatible así que no se puede implementar.

Por otro lado las nueva generación GTX 5000 gracias a esto ahora será un 20% mas rápida que la anterior 4000 (sin esto hubiese sido un 10%) pero como es difícil de implementar en hardware, ahora cuestan el doble que la generación anterior.

(dos años después un hacer ruso consigue sacar una implementación que funciona en todas las generaciones desde la 1000 y encima es mas rápida que el de la propia NVIDIA)

Kleshk

#24 o directamente sale AMD y te dice: mira, tenemos la tecnología y hasta con unas Intel HD Graphics haces maravillas corriendo Crysis

( como han hecho con el DLSS que es compatible con todo )

balancin

#2 matemática verde

S

#2 Cualquier método de resolución de matrices que reduzca tiempo de cómputo significa además gran cantidad de ahorro energético

Menos mal. Ya hemos encontrado la forma de revertir el cambio climático. Todo el mundo tranquilo.

D

#1 Es más general. Esto vale para cualquier cálculo de casi cualquier función en varias dimensiones.

D

#1 Venia a lo mismo. Escalados, rotaciones, translaciones, todo ello basado en matrices.
A ver cuantos FPS extra se logran con la nueva aproximacion

Dectacubitus

#19 Ni solo FPS, también la base de la IA es el trabajo con matrices. A ver que TensorCores pueden hacer con esto.

A

#1 Y para comprar el pan, super importante, recuerda lo que te decía tu profesor de matemáticas el colegio.

PimientoRebelde

Me encanta que los nombres de los matemáticos haya que buscarlos con lupa, si es que salen todos. Espero que esta mierda no secuestre ni un minuto en los telenoticias al futbol, que es lo importante de verdad. 

pottokin

Al final usaremos Ruffinni

H

Es el año de Crysis en la calculadora

z3t4

Una nueva versión del truco de Carmac?
https://en.wikipedia.org/wiki/Fast_inverse_square_root

pedrobotero

UPV vs DeepMind

t

¡Venga señores! ¡Solo me quedan 2 días de agosto, últimos 2 días, para sus descubrimientos espectaculares! Aprovéchense, ¡que me los quitan de las manos!

c

#5 Sin leer el artículo estoy de acuerdo contigo....más que nada porque mdpi es la típica editorial predatoria en el mundo científico (ojo, que más de una vez saca un buen artículo), y si fuera tan revolucionario estaría publicado con una editorial con más reputación. O sea que sin quitarle méritos al artículo (desconozco si los tiene) me parece más eso de en verano aparecen más tiburones en las playas para rellenar noticiarios....

t

#11 Yo he perdido la cuenta de los descubrimientos de este agosto

e

#11 O que los del departamento de marketing ya han vuelto de vacaciones.

d

No se indica como lo han conseguido. Supongo que habrán usado una IA para conseguirlo.

m

Estaría bien que la noticia reportase cual es la ganancia exacta. Es un tanto vaga en ese aspecto.

C

UPV es Universidad del País Vasco.

juagar

#20 creo que el acrónimo de ambas es el mismo. En este caso, esto lo han hecho en la politécnica de valencia, no en el país Vasco.

#20 La vasca es UPC/EHU, la Politécnica de València es solo UPV.