Tecnología, Internet y juegos
151 meneos
1155 clics
Proxmox lanza la versión 8.4 de su plataforma de virtualización con soporte para vGPU NVIDIA y mejoras clave para entornos empresariales

Proxmox lanza la versión 8.4 de su plataforma de virtualización con soporte para vGPU NVIDIA y mejoras clave para entornos empresariales

Proxmox Server Solutions GmbH, desarrollador líder de software de virtualización de código abierto, ha anunciado el lanzamiento oficial de Proxmox Virtual Environment (VE) 8.4, su plataforma de gestión de entornos virtualizados. Esta nueva versión marca un hito con la incorporación de funcionalidades que refuerzan su propuesta como alternativa sólida a soluciones comerciales, mejorando tanto la eficiencia operativa como la experiencia de usuario.

| etiquetas: proxmox , virtualización , vgpu , vm , lxc , vmware , nvidia , gpl
70 81 1 K 343
70 81 1 K 343
Se publicitan como: "Proxmox Server Solutions GmbH, desarrollador líder de software de virtualización de código abierto......"

Y realmente son: Empaquetadores de una distribución linux especializada en virtualización. Desarrollador lider en scripts de servicio y frontales web para virtualización.

* Repasemos los principales pilares de la virtualización de código libre y abierto en linux:
linux-kvm.org/page/Main_Page -> Creado por RedHat y principal mantenedor.…   » ver todo el comentario
#8 Si, es un entorno de gestión de virtualizacion, ya lo dicen ellos. Otras piezas fundamentales son (o eran) pacemaker y corosync.
#8 Es la empresa que lo lleva y da soporte, algo imprescindible en el mundo empresarial.

Si no te gusta como lo hace, seguro lo puedes hacer mejor.
#8 ¿y? Creo que los que usan (usamos) Proxmox ya sabemos lo que es y en que se basa, es Debian con alguna modificación cogida de Ubuntu (p.e. ZFS) y añadido herramientas y entorno de administración, pero insisto... ¿Y?
Cc #10
#11 ZFS no está cogida de Ubuntu.
#13 sí, me explico, Debian no lo lleva "de serie" por ser "talibanes" del tema de las licencias opensource bla bla bla y Proxmox cogió la implementación de ZFS de Ubuntu (que al ser derivada de Debian ya se curraron ellos la integración con el kernel, simplificando).
Y, si no me equivoco, pues no estoy del todo seguro, la implementación de Ubuntu no es exactamente OpenZFS.
#14 ¿La integración con el kernel? xD xD

Lo que hay que oír.El proyecto linux-zfs ya hace todo eso. Lo único que no hace Debian es distribuir los paquetes binarios.

packages.debian.org/bookworm/zfs-dkms
#15 que no te enteras joder, quieres ir de listo y estás hablado de otra cosa. Proxmox es Debian con un kernel propio, sacado en parte de Ubuntu, - junto con otras cosas que han sacado de Ubuntu, como por ejemplo el ZFS (la implementación)-. Vas de listo y estás quedando en evidencia, ahora solo falta que me digas que no es Linux, que eso es kernel o lo del GNU Linux y las otras perogruyadas típicas... :palm: :wall:
Y por cierto, las distribuciones no solo "distribuyen binarios", los compilan, cada distro "a su manera", y los distribuyen.
Lo que hay que oír....
#16 Aunque el kernel sea de Ubuntu la implementación no difiere del proyecto zfs-linux. ¿Ahora Ubuntu hace su propia implementación?
#17 y dale, cada sistema compila el código a su manera, con distintos parámetros, optimizaciomes e incluso incluyendo o excluyendo diferentes "partes", -por ejemplo el NGINX que lleva Ubuntu incluye el módulo rtmp y el de Debian no-. Otro ejemplo muy típico es samba, que hay bastantes diferencias ente distribuciones.
Déjalo anda, no quieras tener razón por que sí, solo consigues quedar en evidencia....
#18 Ya se que cada uno se lo guisa y come, pero justo ZFS no es una de esas partes. La única diferencia es que uno distribuye el binario y otra no. NO hay optimizacionis de Ubuntu sobre ZFS.
#22 y dele... Mira, paso, que voy a saber yo, si apenas llevo 11 años en los foros de Proxmox, y que solo he hecho 3 informes exhaustivos para empresas que tenían que decir si implementar Proxmox o no... Tienes razón ¿ya estás contento? Hoy ya te han dado la razón, hoy ya dormirás tranquilo creyendo que sabes muchísimo!
#25 Dale Si llevas todo ese tiempo seguro que sabes explicar que hace Ubuntu con ZFS que parece nadie más hace, que es de lo que va la conversación.
#28 y quien ha dicho nada de que haga algo que "nadie hace"? Desde luego tu sigues eh? :wall: :wall: :wall:
#25 Por curiosidad, que recomendaste a esas empresas en los informes exhaustivos?
Por qué yo llevo meses estudiando alternativas a VMware, pero no termino de encontrar nada que me convenza... Proxmox es lo que más cerca está, pero sigo echando en falta un sistema de ficheros distribuido como VMFS para compartir en el cluster de hosts (Ceph no me parece alternativa, es muy lento, yo necesito mucho rendimiento), y no veo más alternativa que el NFS de toda la vida, pero no veo que eso sea el futuro.
Estoy acostumbrado a usar FiberChanel con switches Cisco MDS para el almacenamiento, y a nivel infraestructura parece que su sucesor será NVME/TCP, creo que el camino va por ahí.
#38 Me apunto a la pregunta, últimamente estoy en una situación similar y creo que me está convenciendo open nebula a falta de montar una maqueta y probarlo con nodos kvm y puede que alguno lxcd.

Para el almacenamiento estoy a ver si pillo una cabina que pueda replicar en otra y meterle multipath, aunque aún no me queda claro de cuan factible sería. Como digo estoy en fase exploratoria y ver que montan los demás nunca es mala idea.
#38 #46 a ver, lo que no he mencionado és que por el medio había una denuncia de Siemens vía la BSA por tener Solid Edge pirata y eso llevó a un "registro judicial" (se presento la secretaria judicial, és un tema administrativo) y realizo una auditoría de todo el software de la empresa y posteriormente un juicio del cual no voy a entrar en detalles porqué tampoco los sé todos pero el resumen es que la empresa necesito pasarlo absolutamente todo a otros sistemas por tanto facilitó la…   » ver todo el comentario
#47 #38 #46 añado un punto que se me olvidó, si no lo han arreglado, si se caen dos nodos o más del clúster como se te pase por la cabeza reiniciar algún otro de los nodos ese ya no arrancaba por falta de quorom (hay un procedimiento para poder arrancarlo en estos casos, cosas del corosync), y eso era un punto en contra pero lo aceptaron pues tenían personal de IT en plantilla, sinó és una putada gorda.
#48 Eso depende del numero de modos. Como minimo necesitas 3
#52 lo sé, y aunque el quorum se puede configurar, de serie viene con uno menos del total de nodos que tengas, por eso lo que decía que si caen dos los demás, si quieren arrancar, no podrán.
Hay otros inconvenientes en un clúster, como por ejemplo no poder repetir nombre si sacas uno, etc pero como Proxmox, "a mano", deja tocar casi todo, puedes ir apañando cosas pero aveces te puede pone en algún apuro....
#52 por cierto, añado a #54 que el máximo de nodos que he metido un un clúster es sólo de 7, nunca he testado un clúster mayor y desconozco su comportamiento con mayor número de nodos...
#46 mi experiencia con intentar multipath en un entorno Proxmox (hará unos 4 o 5 años) no fue nada prometedora, la verdad, aunque, como dije en otro comentario, donde eso no era requisito se metió ZFS en cada nodo con replicación ente ellos y en algunos casos un "bind mount" del contenedor contra un fs en el nodo que lo alojaba, el cual estaba montado contra un servidor NFS, pero que conste que eso no es, ni de lejos, HA, pero sí lo que se necesitaba en esos proyectos.
Cc #38
#46 Si tienes recursos hardware suficientes, sin duda para almacenamiento, Ceph
#38 no veo más alternativa que el NFS de toda la vida,
NFS no es distribuido
Ceph es cojonudo. En lo suyo, probablemente lo mejor que hay
#50 Y para que quiero que sea distribuido? Nunca he usado VSAN de VMWare, ni Nutanix (que son el paradigma de almacenamiento distribuido), yo lo que quiero es que todos los host tengan un almacenamiento común, y salvo que tengas un Filesystem como VMFS no veo otra alternativa que el NFS de toda la vida (vamos, la carpeta de red de siempre).
Cephs es lento, no me sirve.
#56 Ceph es distribuido. Si no necesitas almacenamiento distribuido, Ceph no es una buena opción.

Las opciones son NFS o SCSI / FiberChannel dependiendo de las necesidades
#58 No necesito que sea distribuido, necesito que sea rápido y compartido entre todos los hosts, y como el artículo inicialmente trataba de usar Proxmox, y este no dispone de un Filesystem de cluster (como el VMFS de VMWare) no puede usar un sistema de bloque como FC o iSCSI, así que sólo veo que quede la alternativa de NFS.
#58 #59 Ceph distribuído es interesante y es por donde van los tiros al menos durante la última década.

En lo personal prefiero una SAN con replica a otra y meter multipath a ambas SAN (si están en local) sobre todo por rendimiento y porque son sólidas como una roca.

Lo que quiero descubrir es si puedo conseguir algo similar con hardware que en lugar de fibra use iscsi o nvm/tcp y si puedo meterle eso a diferentes nodos, haciendo que cada cual se preocupe de sus vms pero permitiendo…   » ver todo el comentario
#60 En principio no hay problema en conectar el mismo target a varios nodos al tiempo... mientras solo lo uses en uno.
Conectas el target al destino y migras. Lo he hecho a pequeña escala sin problemas.
#62 Cierto, lo que quiero ver es si eso me viene ya integrado en la gestión de la solución de virtualización que elija (proxmox, open nebula, lo que sea) o si tengo que cocinarlo a mano. Teniendo en cuenta que un error lleva a currupción de datos y que si tengo que crear un target para cada nodo o para cada vm cada cosa tiene sus implicaciones.

Si es manual en las pruebas que haga ya tendría que ser muy superior a ceph en rendimiento para que no termine usando ceph :-D
#62 Estás al borde de tener un filesystem corrompido, y lo sabes... ten mucho cuidado con eso.
Para eso existe VMFS en VMware, que es lo que por desgracia le falta a Proxmox, que sólo lo veo viable usando NFS para compartir el almacenamiento entre todos los host del cluster.
#65 No si no se usan los dos discos al tiempo. No hay ningún problema. Conectar el target no supone acceso al disco (si se configura bien). Cuando la.maquina arranca en el nuevo nodo ya está parada en el anterior.

Llevo tiempo haciéndolo sin problemas

Proxmox soporta Ceph, que es similar a VMFS por lo que entiendo.
#67 No, para nada, Cephs sería más similar a VSAN de VMWare, o a Nutanix, es un sistema de almacenamiento distribuido donde al menos necesitas 3 nodos (en Cephs mínimo recomendable con 5 nodos, si no es lento de cojones...) que se sincronizan por la red para mantener varias copias de cada dato.
VMFS es un sistema de ficheros de cluster que admite que varios nodos lo tengan montado a la vez y todos ellos lean y escriban simultáneamente, es lo ideal para almacenamientos SAN tipo ISCSI, FC, NVME over TCP, etc.
Lo más parecido a VMFS sería ReFS de Microsoft o OCFS2 de Oracle.
#68 Entonces es como un GFS , Lustre o GlusterFS o si, OCFS2... hay un monton de FS de ese tipo.

Respecto a si es ideal o no, depende del uso. Si de lo que se trata es de ofrecer un disco para una VM no le veo la ventaja sobre por ejemplo LVM+iSCSI, o iSCSI a secas facilitando discos (que no espacio de almacenamiento)
#60 Es correcto todo lo que dices, al final volvemos a mi pregunta inicial de este hilo de mensajes, existe algo en Proxmox que me permita compartir entre todos los hosts de un clustrer un almacenamiento de bloque tipo SAN? (ya sea FC, iSCSI, NVME over TCP, etc), y me temo que la respuesta es que no, no existe, porque necesitaría un Filesystem como VMFS.
Por tanto la única opción es el NFS de toda la vida, es decir, un sistema NAS de carpeta compartida en red, pero no SAN.
#64 vmfs es un filesystem en cluster si no me equivoco y como tal se compararía con cosas como ocfs2, gfs2 en incluso gluster y ceph dependiendo de como los montes.

ocfs2 diría que no tiene el mismo rendimiento que vmfs pero igual [ RDMA(infiniband) | fibra | nvme/tcp | iscsi ] + ocfs2 te cunde más que nfs a pelo, nfs a pelo no es precisamente lo que más rendimiento tiene.

En ese punto puedes plantearte que es lo más importante y según eso sacrificar una cosa u otra, por ejemplo puedes usar…   » ver todo el comentario
#66 Lo que busco en general es una alternativa al VMFS de VMWare para Proxmox, pensando en almacenamiento SAN (ya sea iSCSI, FC, NVME/TCP, etc), pero no creo que exista, podría ser OCFS2 de Oracle, pero creo que está abandonado desde hace bastante tiempo...
Respecto al NFS, no es que quiera usarlo, es que no veo otra alternativa, en todo caso siempre sería sobre un almacenamiento profesional de primer nivel, tipo cabina NetApp o un cluster HNAS de Hitachi (trabajo bastante con almacenamiento Hitachi, para mi de lo mejorcito que existe en el mercado profesional).
#69
Lo más similar entonces es ocfs2 y gfs2 que diría que no están abandonados ya que entre otras cosas están integrados en el kernel pero probablemente no te van a dar el mismo rendimiento que vmfs sobre todo por latencias.

Si que creo que si tienes una buena san y tiras de fc o rdma puedas superar a nfs en rendimiento con uno de los anteriores.

Hasta aquí las opciones que se me ocurren sin renunciar a nada.

Otra opción es que cada vm esté en su propio volume group y usar clvm para…   » ver todo el comentario
#71 OCFS2 está abandonado desde hace muchos años, este hilo de Proxmox de 2018 ya habla del mismo tema que yo comento ahora, que no existe para Proxmox un Filesystem de cluster equivale a VMFS, lo cual es un problema si quieres usar una SAN como almacenamiento (ya sea por iSCSCI, FC, NVME/TCP, etc), y ya comentan las alternativas de OCFS2 y GFS2, pero sinceramente no las veo viables en 2025 si ya estaban abandonadas en 2018.…   » ver todo el comentario
#72 Por mi parte he encontrado lo que necesito en opennebula

docs.opennebula.io/6.10/open_cluster_deployment/storage_setup/lvm_driv

«This is the recommended driver to be used when a high-end SAN is available. The same LUN can be exported to all the Hosts while Virtual Machines will be able to run directly from the SAN.»

Por lo que a priori puedes montar targets de una san en todos los hosts.

Inconvenientes:

1: No es proxmox, así que si te has decidido ya por…   » ver todo el comentario
#72 #73

Añado

Inconvenientes:

4: No es compatible con los nodos de computo lxc ( este solo maneja nfs/ceph/local datastores)

En mi caso,
- El punto 1 no me duele

- Al punto 2 le buscaré un workaround para los pocos casos muy específicos que necesito (igual ni me hace falta si las máquinas stateless van por otro lado, a las malas las pocas que necesito así las puedo montar en otro datastore más lento)

- El punto 3 tengo que ver, espero que no sea bloqueante

- El punto 4 no me duele…   » ver todo el comentario
#74 Gracias por el aporte, le echaré un vistazo, pero otro problema del que no hemos hablado y también entra en juego, son los backups, y tambien me refiero a backups de verdad, de una herramienta profesional que te permita hacer muchas cosas con los backups.

Actualmente dependiendo del caso uso Rubrik y Veeam, ambos tienen sus cosas buenas y malas, pero el que más me gusta es Rubrik, es una pasada lo rápido que hace copias en paralelo de muchas máquinas a la vez, está pensado a lo grande para…   » ver todo el comentario
#75 Ahí la cabina que elijas puede jugar un papel interesante si tiene cosas como NDMP (o lo que sea que tenga Hitachi).

Si no ya depende te lo que tengas y necesitas, opennebula ofrece integración con restic, rsync y poco más salvo lo que te cocines tú mismo.
#30 es que a eso me refiero, Debian no lo ponía por el tema de licenciamiento (y así lo he dicho en #14) y Proxmox desde hace tiempo que sí lo lleva ya en la instalación, permitiendo montarlo todo ya "a la primera" en ZFS, y lo cogieron, al menos en parte, de Ubuntu.
#33 Sí, ya.

Pero las distros grandes no se atreven a meterlo en el kernel porque nadie se fía de Oracle.

En realidad, el problema reside en la interpretación de la compatibilidad de la licencia CDDL con GPL.

Siempre puedes cargarlo como módulo o compilarlo tú. Como ya he mencionado, yo me he pasado hace poco a zfsbootmenu+debian+incus para un par de máquinas en casa y estoy muy contento.
#45 En casa yo estoy con void + zfsbootmenu pero tiro de docker en lugar de incus, sin vms
#11 Incorrecto.

ZFS era de Sun Microsystems, y fue adquirido por Oracle (el demonio) con la compra de Sun (como Java y alguna otra cosa).
Existe hace tiempo OpenZFS, un fork para evitarse líos con Oracle (nadie se fía de Oracle).

Ubuntu incluía ZFS como opción para instalación desde usb, pero lo quitaron en el último LTS, creo. Puedes instalar ZFS y cargar el módulo, para usarlo en otros discos que no sean el de arranque, o liarte a intentar modificar la instalación para tener ZFS en el disco de arranque.

O puedes usar ZFSbootmenu (docs.zfsbootmenu.org/en/v3.0.x/) como base instalar cualquier distro encima.

Yo uso zfsbootmenu+debian+incus (en lugar de proxmox).

Mucho mejor para mi uso.
#10 El soporte de RedHat es mucho mejor para el mundo empresarial. Tienen muchos mas recursos en esos proyectos para, por ejemplo corregir problemas. RH sí se podría llamar "desarrollador líder de software de virtualización de código abierto".

Incluso empresas como canonical tienen mas recursos puestos en esos proyectos y el soporte empresarial se podría considerarse superior.

Lo que no me gusta es que se publiciten con cosas que no hacen como algo exclusivo existiendo empresas mucho mas comprometidas y mas punteras que ellos. Un poco de honestidad les falta en su publicidad.
Tremenda competencia a Vmware ESXi. Muy buen producto. Ah, y software libre.
#2 Ese es VMWare
#3 Que también ahora es gratis ¿no?
#4 Tras la que han liado como para fiarse, además que hay detrás unas condiciones muy concretas. Quizá a alguien le convenza, a mí desde luego no.
#5 #4 Como sufridor de la tecnología de VMWARE durante años.. Hasta la compra por Broadcom, era una gran tecnología: cara y con muchas puntillas para licenciarla, pero bien montada muy fiable. Jaleos con el tema de montar BBDD Oracle pero no tanto su culpa como por culpa de Oracle para meterte sus Exadatas.

Desde la compra de Broadcom, un caos. Noticias que no lo son, rumores, cambios en el modelo de licenciamiento que triplican los precios, que luego no llegan..

Si ya tenías algo muy bien montado y duro, te toca sufrirlos y pelearlos. Si tenías algo efímero o empiezas de cero, no te acerques a VMWARE ahora ni aunque te lo regalen.
#6 #19 ...Y si vierais el jaleo desde dentro, como empleado (por ahora) de VMware, ya es para alucinar. Mucha suerte a Proxmox.
#20 ¿Has vivido todas las compras?, cuenta
#29 No, según tengo entendido Tom Krause participó en el proceso de compra de VMware por parte de Broadcom pero se fue antes de que se completase.
#21 No, sólo esta última. Entré en VMware hace unos 3 años y me encontré una empresa que mostraba amabilidad con el empleado, se potenciaba el teletrabajo, tenías posibilidad de hacer una buena carrera dentro de la compañía... El ambiente era muy bueno en general. Después de la compra todo ha sido correr en círculos e intentar salvar tu culo de las…   » ver todo el comentario
#43 Me suena la historia y la estoy viviendo...

Conozco un poco a T.K., he estado en varias reuniones con él y lo que describes lleva su firma.

Supongo que sabes que ahora está dirigiendo el DOGE a tiempo parcial. El "hombre de hacha" le llaman.
#20 Por curiosidad, conoces o has vivido la experiencia "T.K." (Krause)?
#6 En mi empresa yo no soy el que monta estas cosas, pero el que lo hace, tiene un discurso identico al tuyo.

Por cierto. Yo para mis cosas (profesionales, pero no dejan de ser entornos de pruebas) VirtualBox me da todo lo que necesito.

A ver que tal, ahora que me voy a meter en el mundo de los microservicios.
#40 Para entornos personales o hasta laboratorios o entornos de desarrollos-pruebas, te vale cualquiera. Nosotros tiramos mucho de Hyper-v porque en nuestro contrato, los primeros 30 días podías usar casi todo gratuitamente y era cuando pasaban esos 30 cuando ya tenías que registrar y pagar.

Ahora bien, si tienes un entorno en VMARE con varios blades en producción, decenas o centenares de cores metidos dando servicios a mucha vcpu e ingenieros haciendo que eso funcione bien... Antes saldrás de las drogas que salir de ahi. Te queda sufrir en silencio y ver si se calman
#4 no se si vmware sera libre. Pero gratis y libre no son lo mismo
#4 no, la version de prueba es gratis.
Con proxmox solo pagas por el soporte y/o hardware certificado.
#2 ni regalado
Ahora que proxmox esta soportado por fujitsu de manera oficial en sus servidores ni loco vamos a volver a vmware y sus cambios de licenciamiento
Como se ha comentado más arriba proxmox no ha inventado la Cocacola pero la ha democratizado. La instalación es fácil, la GUI está bien y el tema de la HA también. Vamos, lo que han hecho es facilitar las cosas .
La única carencia es el tema de docker mucha gente es lo único que conoce y justo no lleva de serie.
Por cierto hablando de facilitar, incluyo los ya conocidos scripts que facilitan aún más

community-scripts.github.io/ProxmoxVE/
#34 Lleva LXC, son contenedores como Docker
#35 Son contenedores pero no "como docker". Es decir podman si es más "como docker" pero Lxc son algo más distintos. Bueno da igual, el tema es que docker es un estandar de facto para el sector del desarrollo. La cantidad de doc, foros e información no oficial disponible es muy distinta.
#36 Pero es que la competencia tampoco lo lleva, nada te impide montar una VM para docker o incluso montar docker en el host, que no deja de ser una Debian, suerte con eso en vmware o hyper-V
#37 No conozco a la competencia solo digo que a la mayoría de desarrolladores que le comento la existencia de proxmox y me preguntan, cuando les digo que no lleva docker por defecto, me dicen que: si no tiene contenedores entonces para qué sirve.... Aunque te parezca mentira mucha gente identifica contenedor unicamente con docker, para ellos no existe nada más.
#35 "como docker" no. Son sustancialmente distintos
Lo de Broadcom cargándose el estándar en virtualización es para estudiarlo.

Lo que no entiendo es como vmware, que repito es el estándar en virtualización, ha cambiado tantas veces de dueño. Algo raro tiene que haber ahí para que empresas como Emc o Dell la hayan vendido poco después de comprarla.
#19 software o lineas de código cogidos de otros proyectos open source? Agujeros de seguridad difíciles de tapar? O simplemente por hacer caja?

Algo hay desde luego.
#19 66BN de razones para Dell magnífico negocio, pues compró todo EMC incluido vmware en 2016 por 67BN, se ha quedado con la tecnología de almacenamiento de EMC. Además broadcom no ha aprovechado la supremacía en el mercado de virtualización de vmware complicando las cosas con nuevo modelo de licenciamiento, no respetando los acuerdos con los OEM, etc lo cual le lleva a perder clientes por miles que miran no caer en la misma trampa con otras opciones opensource.
#24 Eso es lo que no entiendo, todo el mundo con el que hablo, a no ser que sea un carajal cambiar, está mirando opciones, sobre todo mucha gente que tiene pagado Windows Server Datacenter e Hyper-V no era opción como hipervisor, ahora está cambiando o se lo plantean.

Caso similar con Citrix. Habrá quien no pueda cambiar por costes, pero en el caso de despliegues pequeños o medianos, la gente está mirando no volver a ser cautivo de estas empresas chupasangres.
#27 En efecto grandes bancos de la City siguen con Citrix y ya llevan varios sustos.
Como producto en sí, para según qué tamaño de negocio y criticidad, está bien, claro, pero ojo... El nivel máximo de soporte tiene un SLA de "tiempo de primera respuesta" de 2 horas dentro de jornada laboral y son 1060€ por CPU/socket. La jornada laboral, por cierto, es de 7:00 a 17:00 (CET/CEST, hora de Austria)

También se preocupan de puntualizar que el "soporte técnico" es via web y mail exclusivamente, solo cubre la última versión estable y tiene un máximo de 3…   » ver todo el comentario
comentarios cerrados

menéame