EDICIóN GENERAL
270 meneos
1947 clics

Proyectos específicos de Coronavirus para la GPU disponibles en folding@home. ¡Únete a la lucha contra Covid-19! [Eng]

Tras el primer anuncio del director del F@H, el Dr. Greg Bowman, todos en los laboratorios de Folding@home han estado trabajando incansablemente para poner en marcha estos proyectos para que tú, yo y todos los que tengan un PC podamos ayudar a luchar contra esta pandemia. Únete a nosotros y dona tu GPU sin usar y (pronto) la potencia de cálculo de tu CPU para luchar contra el Coronavirus (y otras enfermedades, como el cáncer, el Parkinson, etc.). Traducción en el primer comentario.

| etiquetas: coronavirus , gpu , cpu , en casa , proyectos , pandemia , lucha
Me parece magnífico siempre y cuando los hallazgos sean de dominio público.
#3
Mmmm...
Creo que publicar los papers, cosa imprescindible en ciencia, no implica que los hallazgos prácticos derivados de esos papers no tengan patente.

Buscad por ahí la historia del sovaldi o de la insulina.
Los proyectos específicos de Coronavirus para la GPU están ahora disponibles en folding@home. Los proyectos de la CPU llegarán lo antes posible. Únete a nosotros en la lucha contra Covid-19!

Tras el primer anuncio del director del F@H, el Dr. Greg Bowman, todos en los laboratorios de Folding@home han estado trabajando incansablemente para poner en marcha estos proyectos para que tú, yo y todos los que tengan un PC podamos ayudar a luchar contra esta pandemia.

Únete a nosotros y dona tu GPU…   » ver todo el comentario
#1 Mil gracias por la difusión.
#1 Gracias por el enlace, ya tengo el cliente trabajando a tope con CPU y GPU. Hace como 8 años que no aporto a un proyecto de este estilo y este me parece el mejor momento.
#1 Esta caido? Funciona? No parece hacer nada.
#31 puede tardar un rato en empezar, entre que te asigna proyecto y tal.

Yo estoy contribuyendo con mi i7 y 2080ti, un granito de arena {0x1f617}
Tengo 12 Radeon RX 580 dedicadas a esto las 24h desde hace días.

github.com/FoldingAtHome/coronavirus
#7 Total, está cayendo el Bitcoin. :-P
#8 Minar bitcoin con GPU no es rentable desde hace años. Las uso para IA.
#9 por curiosidad, 1) solo ASIC hoy dia? fpgas también? Que está tirando hoy día de minado? 2) que softwares AI son compatibles con multi-rx580? Kaffe? 3) que estás entrenando?
#18 Hoy en día es más eficiente usar ASICs que FPGAs para minar Bitcoin, pero yo no soy minero.
Las uso con ROCm/MIOpen, actualmente para temas de análisis de yacimientos minerales.
#21 rocm funciona correctamente a la primera o hay que estar metiendo horas en configuraciones. Da vergüenza como de nefasto lo tienen todo, y que rápido abandonan los proyectos. solo he visto que rocm funcionaba con un conjunto muy pequeño de GPU-CPU, siendo la 580 y creo que alguna Vega las apropiadas, pero si te sale de ahí olvídate. Tú experiencia? Hoy día, para tus propósitos, si tuvieras que cogerte una grafica, tirarias a 1660S, rx580 (rango 200€) o directamente 2070 (450€)?
Entiendo que habrás estado con rocm-tensorflow?
#33 Usamos ROCm en Gentoo Linux, tenemos nuestro propio overlay privado donde tenemos ebuilds de todos los paquetes que necesitamos para nuestro stack. No lo he hecho yo, lo ha hecho nuestro devops. Se instala todo facilmente y sin fallos. Usamos TensorFlow para algunas cosas, pero principalmente corremos baterías de kernels de OpenCL para realizar cálculos. En un principio, por ahora, sólo usamos Radeon RX 580, no porque sea la mejor GPU para esto, que no lo es, sino porque en su momento…   » ver todo el comentario
#33 En cuanto a qué gráfica compraría yo, la verdad es que no te sabría decir, porque no soy experto. En mi PC, por ejemplo, tengo 2 RX 580, una para Linux y otra para macOS virtualizado bajo QEMU/KVM, que necesita GPU passthrough para poder tener aceleración gráfica. Me va bien con eso, no suelo jugar a videojuegos. Siempre he preferido ATI/AMD a NVIDIA porque principalmente uso Linux, por el tema de los drivers. Luego tengo también un iMac de 27" del 2011, pero su GPU no es compatible con Metal, por lo tanto a partir de macOS Mojave no tiene aceleración gráfica, así que me pasé a macOS virtualizado en Linux, porque paso de darle ni un duro más a Apple.
#35 gracias por las dos aclaraciones. Lo único que no estoy de acuerdo es en mejores drivers de AMD para Linux (cosa que quizás era cierta hace años). Tanto AMD cómo Nvidia dan asco, y te lo dice alguien "experto", sobre todo en AMD (podría escribir hojas sobre esto). Ahora mismo el que mejor lo está haciendo es Intel (igpu), cosa que no era así hace dos años. Es muy cambiante, pero en general olvídate de correr drivers propietarios AMD en una gpu de hace varios años (gcn <4).
Por…   » ver todo el comentario
#7 De donde sacas la pasta?
#15 Uno, que es una hormiguita. Trabajando.
#15 He pensado lo mismo, porque a unos 180€ la tarjetita... menos de 2160€ no se ha gastado.
Le debe gustar mucho trastear/trabajar con la inteligencia artificial, además de tener dinero de sobra.
#19 o está mintiendo abiertamente, que esto es internet y a menudo parecemos olvidarlo.
#20 No me hace falta mentir para nada. Tengo una empresa de software, nos dedicamos a automatización de procesos administrativos, industriales e IA para finanzas y análisis de todo tipo: mercado, organización corporativa, prospecciones geológicas, biología, etc. Creo que hay comentarios míos de hace bastante donde dije que tengo una empresa y que nos dedicamos a automatizar procesos y que nuestro trabajo es generar paro, es decir, hacer prescindible al humano para sustituirlo por software.

Y en cuanto a mi situación económica, es bastante boyante, no te voy a engañar. Y no me da vergüenza decir que si quiero, puedo chapar y no tener que trabajar más en mi vida.
#22 no he dicho que sea mentira, digo que la probabilidad de que lo sea es del 50%. Igual que el resto de lo que acabas de contar. No te lo tomes a mal, es la sana postura de alguien que lleva navegando por la red desde mediados de los noventa y sabe que internet es como la canción: de lo que ves créete la mitad, y de lo que no ves no te creas nada.
#7 Pues yo tengo una ATI Mach64 VESA y una S3 Virge DX/GX 2Mb PCI que no tengo dedicadas a esto las 24h desde hace días.
#16 Ya te queda menos para cargar el logo de inicio de Energy Star.
#7 Cuantos puntos al dia sacas con eso? Yo con 2 equipos me da una aproximacion de 55.000 puntos/dia. Supongo que tu debes sacar 50k por grafica xD
#27 Entre 350K y 375K ppd aproximadamente por cada GPU.
No acabo de encontrar el sentido. Si realmente se han diseñado supercomputadoras para casos como este, es hora de demostrarlo. ¿O es que estas supercomputadoras tienen un coste muy elevado? Para casos de emergencia como este, el coste debería ser 0 o simbólico. Vamos, los gobiernos deberían intervenir si efectivamente supone una auyda para frenar la pandemia.
#11 no sabría hasta que punto tiene sentido o es efectivo.

Sobre infraestructuras, existen supercomputadoras, clusteres gordos, federaciones de clústeres y cada vez más nubes, dedicadas al cálculo científico e investigación. A veces una institución es la propietaria del hardware y lo usa en exclusiva, otras veces los recursos son compartidos entre distintos proyectos y/o instituciones (por ejemplo CERN sigue distribuyendo bastante cálculo mediante grid entre sus socios en proyectos como ATLAS…   » ver todo el comentario
Instalado y funcionando, salvemos vidas.
Ya estoy contribuyendo, buena iniciativa. Gracias por compartir, @VladTaneev
#29 a los que tenéis buenos cacharros, por contribuir colectivamente, vosotros sois los campeones.
yay -S foldingathome-noroot . .. ...
#6 Uhh, no es software libre. Desinstalando...
Ya me lo he descargado.
En Debian SID no es posible instalar el programa de control ni el visor, sólo el cliente en sí... Pide paquetes que no existen en los repositorios.
Esto suena a los típicos artículos de Slashdot sobre como salvar el mundo haciendo no-sé-qué desde el ordeñador sin moverse de casa

menéame