Hace 4 años | Por --516568-- a reddit.com
Publicado hace 4 años por --516568-- a reddit.com

Tras el primer anuncio del director del F@H, el Dr. Greg Bowman, todos en los laboratorios de Folding@home han estado trabajando incansablemente para poner en marcha estos proyectos para que tú, yo y todos los que tengan un PC podamos ayudar a luchar contra esta pandemia. Únete a nosotros y dona tu GPU sin usar y (pronto) la potencia de cálculo de tu CPU para luchar contra el Coronavirus (y otras enfermedades, como el cáncer, el Parkinson, etc.). Traducción en el primer comentario.

Comentarios

v

#3
Mmmm...
Creo que publicar los papers, cosa imprescindible en ciencia, no implica que los hallazgos prácticos derivados de esos papers no tengan patente.

Buscad por ahí la historia del sovaldi o de la insulina.

Mosquitocabrón

#1 Mil gracias por la difusión.

j

#1 Gracias por el enlace, ya tengo el cliente trabajando a tope con CPU y GPU. Hace como 8 años que no aporto a un proyecto de este estilo y este me parece el mejor momento.

Peka

#1 Esta caido? Funciona? No parece hacer nada.

da3m0n

#31 puede tardar un rato en empezar, entre que te asigna proyecto y tal.

Yo estoy contribuyendo con mi i7 y 2080ti, un granito de arena 😗

r

Tengo 12 Radeon RX 580 dedicadas a esto las 24h desde hace días.

https://github.com/FoldingAtHome/coronavirus

D

#7 Total, está cayendo el Bitcoin.

r

#8 Minar bitcoin con GPU no es rentable desde hace años. Las uso para IA.

alcornoque

#9 por curiosidad, 1) solo ASIC hoy dia? fpgas también? Que está tirando hoy día de minado? 2) que softwares AI son compatibles con multi-rx580? Kaffe? 3) que estás entrenando?

r

#18 Hoy en día es más eficiente usar ASICs que FPGAs para minar Bitcoin, pero yo no soy minero.
Las uso con ROCm/MIOpen, actualmente para temas de análisis de yacimientos minerales.

alcornoque

#21 rocm funciona correctamente a la primera o hay que estar metiendo horas en configuraciones. Da vergüenza como de nefasto lo tienen todo, y que rápido abandonan los proyectos. solo he visto que rocm funcionaba con un conjunto muy pequeño de GPU-CPU, siendo la 580 y creo que alguna Vega las apropiadas, pero si te sale de ahí olvídate. Tú experiencia? Hoy día, para tus propósitos, si tuvieras que cogerte una grafica, tirarias a 1660S, rx580 (rango 200€) o directamente 2070 (450€)?
Entiendo que habrás estado con rocm-tensorflow?

r

#33 Usamos ROCm en Gentoo Linux, tenemos nuestro propio overlay privado donde tenemos ebuilds de todos los paquetes que necesitamos para nuestro stack. No lo he hecho yo, lo ha hecho nuestro devops. Se instala todo facilmente y sin fallos. Usamos TensorFlow para algunas cosas, pero principalmente corremos baterías de kernels de OpenCL para realizar cálculos. En un principio, por ahora, sólo usamos Radeon RX 580, no porque sea la mejor GPU para esto, que no lo es, sino porque en su momento pudimos adquirirlas tiradas de precio cantidades industriales en una liquidación, de forma que nos salió rentable montar nuestros propios rigs y dejar de depender de servicios externos.

De todas formas yo, aunque soy programador desde que era pequeño, no soy un experto en el tema del deep learning y la inteligencia artificial, aunque tengo conocimientos medios. Para eso están nuestros ingenieros.

r

#33 En cuanto a qué gráfica compraría yo, la verdad es que no te sabría decir, porque no soy experto. En mi PC, por ejemplo, tengo 2 RX 580, una para Linux y otra para macOS virtualizado bajo QEMU/KVM, que necesita GPU passthrough para poder tener aceleración gráfica. Me va bien con eso, no suelo jugar a videojuegos. Siempre he preferido ATI/AMD a NVIDIA porque principalmente uso Linux, por el tema de los drivers. Luego tengo también un iMac de 27" del 2011, pero su GPU no es compatible con Metal, por lo tanto a partir de macOS Mojave no tiene aceleración gráfica, así que me pasé a macOS virtualizado en Linux, porque paso de darle ni un duro más a Apple.

alcornoque

#35 gracias por las dos aclaraciones. Lo único que no estoy de acuerdo es en mejores drivers de AMD para Linux (cosa que quizás era cierta hace años). Tanto AMD cómo Nvidia dan asco, y te lo dice alguien "experto", sobre todo en AMD (podría escribir hojas sobre esto). Ahora mismo el que mejor lo está haciendo es Intel (igpu), cosa que no era así hace dos años. Es muy cambiante, pero en general olvídate de correr drivers propietarios AMD en una gpu de hace varios años (gcn

D

#7 De donde sacas la pasta?

r

#15 Uno, que es una hormiguita. Trabajando.

Conde_Lito

#15 He pensado lo mismo, porque a unos 180€ la tarjetita... menos de 2160€ no se ha gastado.
Le debe gustar mucho trastear/trabajar con la inteligencia artificial, además de tener dinero de sobra.

D

#19 o está mintiendo abiertamente, que esto es internet y a menudo parecemos olvidarlo.

D

#22 no he dicho que sea mentira, digo que la probabilidad de que lo sea es del 50%. Igual que el resto de lo que acabas de contar. No te lo tomes a mal, es la sana postura de alguien que lleva navegando por la red desde mediados de los noventa y sabe que internet es como la canción: de lo que ves créete la mitad, y de lo que no ves no te creas nada.

Conde_Lito

#7 Pues yo tengo una ATI Mach64 VESA y una S3 Virge DX/GX 2Mb PCI que no tengo dedicadas a esto las 24h desde hace días.

ruinanamas

#16 Ya te queda menos para cargar el logo de inicio de Energy Star.

j

#7 Cuantos puntos al dia sacas con eso? Yo con 2 equipos me da una aproximacion de 55.000 puntos/dia. Supongo que tu debes sacar 50k por grafica lol

r

#27 Entre 350K y 375K ppd aproximadamente por cada GPU.

maxmalkav

#11 no sabría hasta que punto tiene sentido o es efectivo.

Sobre infraestructuras, existen supercomputadoras, clusteres gordos, federaciones de clústeres y cada vez más nubes, dedicadas al cálculo científico e investigación. A veces una institución es la propietaria del hardware y lo usa en exclusiva, otras veces los recursos son compartidos entre distintos proyectos y/o instituciones (por ejemplo CERN sigue distribuyendo bastante cálculo mediante grid entre sus socios en proyectos como ATLAS o Alice).

Generalmente estos proyectos tienen asignada cierta fracción de los recursos de la infraestructura (horas de CPU, cantidad de RAM por núcleo reservado, espacio de almacenamiento en disco, cinta, etc). Esta infraestructura generalmente está operando al 100% de carga, meter nuevos trabajos de cómputo significa que hay que quitar y/o encolar los de proyectos que ya estaban haciendo uso del hardware, por lo que tampoco es algo que hagas en uno o dos días sin fastidiar otros cálculos que aún no han acabado y que ya han consumido muchas horas como para interrumpirlos. Estos recursos se solicitan formalmente y en cada sitio tienen su coste, burocracia, subvenciones y acuerdos.

Sobre usar hardware doméstico para hacer computación distribuída .. tengo entendido que hace años era más común. También es cierto que ciertos proyectos abandonaron esta opción porque este modelo de computación en hardware de voluntarios tiene que lidiar con los problemas de una infraestructura super heterogénea, super distribuída y con cero fiabilidad: al haber hardware de todo tipo y potencia, es difícil estimar cuanto tiempo es el prudencial antes de dar una tarea por muerta y solicitar a otra máquina que la vuelva a calcular, tienes clientes entrando y saliendo todo el rato del pool, dejándote tareas a medias que tendrás que recalcular en otros nodos. En definitiva, es muy costoso en tema de orquestación, comprobación de fallos y reenvío de trabajos de cómputo.

Sinceramente, no sé qué tipo de afiliación pueden tener los proyectos que van a usar el software que anuncian y si disponen de otros recursos para cómputo, lo normal es que cualquier proyecto medio serio tenga acceso a hardware profesional para cómputo científico, me parecería muy triste (y raro) que dependiesen únicamente de hardware de voluntarios.

Jesuo

Instalado y funcionando, salvemos vidas.

p

Ya estoy contribuyendo, buena iniciativa. Gracias por compartir,@VladTaneev

D

#29 a los que tenéis buenos cacharros, por contribuir colectivamente, vosotros sois los campeones.

Jakeukalane

yay -S foldingathome-noroot . .. ...

Jakeukalane

#6 Uhh, no es software libre. Desinstalando...

El_Cucaracho

Ya me lo he descargado.

D

En Debian SID no es posible instalar el programa de control ni el visor, sólo el cliente en sí... Pide paquetes que no existen en los repositorios.

Mariele

Esto suena a los típicos artículos de Slashdot sobre como salvar el mundo haciendo no-sé-qué desde el ordeñador sin moverse de casa