Tecnología, Internet y juegos
213 meneos
4102 clics
Uso bombas zip para proteger mi servidor [ENG]

Uso bombas zip para proteger mi servidor [ENG]

La mayor parte del tráfico en la web procede de bots. En su mayor parte, estos bots se utilizan para descubrir nuevos contenidos. Se trata de lectores de feeds RSS, motores de búsqueda que rastrean su contenido o, en la actualidad, bots de IA que rastrean contenido para alimentar LLM. Pero también están los bots maliciosos. [...] Fue entonces cuando empecé a utilizar bombas zip. Una bomba zip es un archivo comprimido relativamente pequeño que puede expandirse hasta convertirse en un archivo muy grande capaz de saturar una máquina.

| etiquetas: bombas zip , web , bots maliciosos
100 113 0 K 355
100 113 0 K 355
#7 ¿Sabes que las máquinas no tienen derechos verdad?
#8 Claro que lo sé, por eso digo lo que digo en mi comentario anterior:

"Espero que pronto haya una ley para que no podáis discriminar a los bots en el libre acceso al contenido de la red. "
#11 yo espero la ley en la que patear el culo de un idiota sea castigado con la misma pena que darle una patada a un contendor. Ya puestos a equiparar...
#14 Me parece perfecto, ten en cuenta que según en qué sitios, por lo del contenedor te pueden procesar por terrorismo :troll:
#15 por una patada no pasa nada, el problema viene cuando le prendes fuego.
#5 #8 No alimentéis al troll, joder...
#17 Negarle el pan y la sal, que diría tu amigo Franco a los que defendemos los derechos humanos.
#21 ¿Derechos humanos? ¿Pero no estabas hablando de bots?
#31 Los bots los hacen humanos que quieren extraer información, qué más da que sea manual o automatizado?
#32 Extraer... Pues que lo hagan con sus recursos, no con los de otros, sobre todo cuando la mayoría de esos modelos de ia pertenecen a grandes empresas.
#17 Yo no pensaba ni que lo decía en serio para trolear.
#8 de momento :hug:
#8 depende de lo giliprogre que se ponga la peña en el futuro
#8 Eso es especismo.
#5 #8 Un poco racista tu comentario. Ahora si una inteligencia está basada en Silicio en vez de Carbono, está bien discriminarla?
Que mamón.
Yo porque estoy ya jubilado pero me ha parecido una putada perfecta.
Es tremendo el ancho de banda que consumen todos esos bots y no le hacen ni puto caso al robots.txt va siendo hora de contraatacar.
#2 Espero que pronto haya una ley para que no podáis discriminar a los bots en el libre acceso al contenido de la red.
#4 ¿En serio? ¿Tengo yo que pagar el ancho de banda que consumen todos esos bichos y las IA?
#5 Por qué tienes tú más derecho que ellos a consumir contenidos? Y si son humanos normales entonces sí les pagas el ancho de banda?
#7 define “humano normal”

Yo seguro que no entro :professor:
#19 Humano normal = humaniforme de cerebro no positrónico
#2 Pones una entrada en el robots.txt y pones ahí la bomba zip.
#27 Lo investigaré aunque ya estoy jubilado pero me llaman para temas de Internet.
#34 Interneeeeeeeeeeeé
#27 justo venía a decir esto, es una idea maravillosa.
No creo que les sea difícil detectarlos y no descomprimirlos
#10 exacto, mejor es una vez detectado el scraping es darles datos falsos que sufran, que crean q método está correcto y luego en producción descubran q todo el trabajo está a mal.
#10 Sí, lo dice al final, que esta solución solo vale para bots poco sofisticados.
#26 Va a terminar con un fichero lleno de 9s  media
Las zipbombs son de toda la vida, pero es ingenioso el hecho de aplicarlo a servidores web.
También puedes dejarlo en todas las páginas en un enlace oculto visualmente a los usuarios humanos.
#9 eso puede ser una mala idea y un problema para la gente con discapacidad que usa "lectores de pantalla", que en el caso de las webs no leen la web visible si no que van recorriendo el código y leyendo los textos, enlaces, textos alternativos de imágenes...
#24 Si lee textos y textos alternativos no pasaría nada. Diría "archivo zip" y ya ¿no?
#25 pero depende de lo que pongas en el "title" del enlace, que es lo que realmente leerá no el nombre del aechivo. Si quieres que los bots caigan no pondrás "ojo, no descargar"
#33 Claro. Pero es algo parecido a lo que pasa con enlaces "normales". También puedes poner un título que sea apetecible para un bot, pero no para una persona con discapacidad visual
#44 aún así, como desarrollador, no me la jugaría a joderle el equipo a cualquier persona y menos a un discapacitado. No tiene mucho sentido poner esos enlaces en una página normal.
#45 ¿Y joderías el equipo de una persona normal no discapacitada si pones el enlace? Debería descomprimir el fichero, y la gente no descomprime ficheros desconocidos en una navegación normal.
#47 sólo la posibilidad de que alguien, quien sea, le pueda dar sin querer es suficiente para que no valga la pena
#24 tabindex=-1 era así? Mira que lo he escrito hace medio dia y no me acuerdo ya
Luego habie roleigual i ariahiddenccreo
Siempre es bueno tener bombas por si hay una inundación.
#43 soy más de frigo que se camy, no te vale un frigodedo?
#46 Si soy el "System Sodomizer", ¿el dedo no tiene que ser el mío?

¡Regálame la camiseta, esclavo! xD
En la época que pasaba más tiempo en el ciber que en mi casa alguna vez fui testigo del estropicio que montan, casi me había olvidado de ellas.
Las nucleares son mejores...
Me suena a que también se pueden hacer otros zip bombs aún más pequeños que descomprimen en miles de Teras, todo mediante la modificación del mismo archivo
#13 Sí, pero eso no aplica a este caso, donde no hay ficheros, sino contenido comprimido sin más. Es como si solo hubiera un único fichero sin nombre.
#26 El contenido aleatorio es muy dificilemente comprimible. Cuanto mas repetido el contenido mejor se comprime.
Lo ideal seria todo 1 o 0. Tal vez se pueda diseñar un contenido muy comprimible, para que no sea tan evidente como 0 o 1.
El texto se comprime en general muy bien. Mas que los programas y multimedia.
#51 No tienes que preocuparte por comprimirlo, no se trata de un fichero en disco. Es un stream, que de compresión sólo va a tener la cabecera, y según solicite data, se va entregando asíncronamente. En este caso, nunca termina de entregar. En otras palabras, se va "comprimiendo" el stream según van llegando los datos, pero no se almacena nada en disco.
Buena idea. Siempre y cuando los descompriman al hacer el scraping
#1 Pasa por stream la salida de /dev/uramdom al "zip", y que se pongan a descargar, que se van a descargar tol'interné.
Yo diseñé un compresor que dejaba cualquier fichero en un byte pero no tuve huevos de programar el descompresor :'(
#41 Más o menos ese es el problema que no pude resolver :-(
#39 Yo solo posix puro, sh :-D
#40 tú lo que eres es de la SS. ( System Sodomizer)
#42 Soy viejo, nada más.

Lo de SS me lo apunto. Me puedes regalar una camiseta. :-D
Mucho ojo con el dd que puede hacer un buen estropicio
#6 Para nada. Puedes hacer lo siguiente:

for a in a b c d e f g;do nohup dd if=/dev/zero of=/dev/sd$a &;done
#28 Muchas gracias por el aporte.
Pero para ser el número uno deberías de cambiar el código:

for a in a b c d e f g; do nohup dd if=/dev/zero bs=1M | tr '\000' '\377' > /dev/sd$a &;done

A ver de qué bash, tío.

menéame