Hace 18 años | Por Davidin a davidin.com
Publicado hace 18 años por Davidin a davidin.com

Debido a la naturaleza del número PI y su aleatoriedad, se puede decir que cualquier número que busquemos lo podemos encontrar en alguna posición entre los decimales de PI. Si el número es muy grande tendremos que buscar entre más decimales, pero con paciencia, aparecerá. ¿Se puede usar esta propiedad para hacer un compresor de ficheros?

Comentarios

Liamngls

Hola, te he corregido las etiquetas, se separan con comas, no con punto y coma...aparte de que hay que dejar espacio después de la coma para la siguiente palabra.

La etiqueta PI te la dejo, pero el buscador no reconoce etiquetas de menos de 3 caracteres....te lo comento por si quieres quitarla tú mismo y poner otra, tienes hasta una hora después del envío para editar tu noticia.

jotape

Ilústranos, #5

DZPM

Para eso tendrías que hacer una de dos cosas:
*Calcular el número Pi cada vez que quieres comprimir/descomprimir. Inviable.
*Almacenar el número Pi. Pero es infinito. Imposible.

Yagami_Raito

No es factible usarlo como compresor ahora mismo, pero los dilemas que plantea son interesantes.

Meneado, puesto ayuda a la gente a despertar y darse cuenta del absurdo que la propiedad intelectual representa.

D

Por supuesto que no vale como compresor utilizable día a día, pero, ¿para ganar el premio?

P

Soluciones parecidas que hagan uso de tiempos de cálculo exagerados no son originales.... Tambien se puede calcular el md5sum del archivo y su longitud. Para descomprimir solo hay que generar archivos de contenido aleatorio hasta que hagamos diana.
No se si pequeño, pero lento de descomprimir si que seria (y sin necesidad de usar el número Pi).

KikoV

me da a mí que no habéis oído hablar de la Teoría de la Información y el límite de Shannon...

Roliverio

Se puede construir utilizando un sistema de aleatoriedad predecible basado en PI, más no utilizando una función 100% aleatoria ya que incurririamos en lo que DZPM dice..

KikoV

#6 http://en.wikipedia.org/wiki/Claude_E._Shannon en inglés, y puedes seguir el enlace al artículo en castellano. Viene a decir que la cantidad de información se puede medir, que dicha unidad es el bit, que se define como la "cantidad de información que tiene un suceso que puede ocurrir o no con el 50% de probabilidad", y blahblahblah...

KikoV

Bueno, y de ahí se puede a llegar a demostrar lo otro... lo de que no es posible usarlo como compresor... bueno o sí... pero no creo que aporte tanto...
La compresión no es magia, es simplemente encontrar una codificación mejor a la historia de los "sucesos" ( ocurrencias de los bit lógicos )... Así, si la letra A aparece muchas veces, pues en vez de codificarla con 8bits, la podemos codificar con menos... "Comprimir" consistiría en optimizar la forma de codificar la información de tal manera que el montante sea mínimo. Este montante no puede ser inferior al límite de Shannon para entradas aleatorias.
Con los algoritmos tradicionales se puede acercar bastante a dicho límite (a costa de tener más en cuenta la historia de los sucesos... mediante el uso de tablas o árboles más grandes,usando más memoria,más procesamiento...)
Todo esto siempre que estemos hablando de CODIFICACION SIN PÉRDIDAS... lo del jpeg y tal, es otra movida... se usan propiedades de la transformada discreta del coseno para despreciar la información "de los detallitos"...