Hace 7 años | Por mr_b a aatishb.github.io
Publicado hace 7 años por mr_b a aatishb.github.io

Empecemos con un puzle. ¿Por qué el primer GIF nos parece normal pero el segundo nos parece totalmente extraño? Aunque en realidad el segundo GIF es el primero reproducido al revés, hay algo que nos resulta chocante, algo que, simplemente, sabemos que nunca ocurre. Pero hay una cosa más rara aún. Si hiciésemos zoom y pudiésemos grabar el movimiento de los átomos, al reproducirlo al revés todo sería consistente con las leyes de la física. Y, aún así, sabemos que eso nunca sucede.

Comentarios

mikeoptiko

#4 Siempre pensé que la entropia en menéame en ocasiones es una variable injusta para valorar si eres o no un spammer. Me explico con un ejemplo: Un blog de mierda enlaza a un video de youtube viral haciendo un mimimo comentario o titulandolo rollo "no te vas a creer lo que pasa en este video". Si veo eso enlazo a la fuente original que es youtube. Lo mismo pasaría si fuera una publicación en facebook. El tema es que si hago esto muchas veces el sistema me pondrá entropia baja. Y en ningún caso hice spam.

En resumen, facebook y youtube deberían de estar fuera del cálculo de entropia. Y de paso no le damos visitas a mierdablogs que se dedican a fusilar contenido ajeno en su beneficio.

D

#15 El tema es que deberías enviar de más sitios que YouTube y Facebook. La idea es que los usuarios utilicen muchas fuentes en sus envíos, y no solo unas pocas.

mikeoptiko

#64 insisto en que estoy de acuerdo con la diversidad pero la fuente original deberia de prevalecer sobre copias o sucedaneos que sólo quieren clicks.

D

#67 Desde luego, nadie lo discute. Siempre es mejor enviar la fuente original. El problema viene si lo único que envías son vídeos o cosas vistas en el Face.
Ahí te baja la entropía.

Herumel

#1 y #3 Creo que ya no se usa, determinaba de una manera muy cuadriculada, cuanta diversidad de envíos habías realizado, de manera que si solo enviabas envíos de pocos sitios web quedaba muy claro.
#4 Lo aclara, pero ya se quitó hace tiempo, por que perjudicaba mucho a las nuevas cuentas.

Por cierto@admin habría alguna manera de que privadamente cada usuario pudiera saber a través de los años, o como foto fija en qué temas en concreto ha comentado.

Creo que no sería muy difícil implementar eso, relacionar tag con comentarios con un contador, así podríamos saber si comentamos más noticias políticas, ciencia, cultura, actualidad, etc... y si ya tuviera un histórico sobre que temas nos hemos movido sería la leche.

Creo que no es difícil, y todo solo privado.

D

#18 Bueno, no estoy tan seguro que lo hayan quitado, si vas a la página de cualquier perfil verás su entropía.

Herumel

#25 Ostia, pues yo juraría que por un tiempo lo quitaron, me acuerdo mucho mucho, hace años, de a los spamers echarles en cara su entropia y que luego ya no la encontré y deje de hacerlo, anonadado me hallo.

gustavocarra

#27 Ahora sólo te falta encontrar una hache para esa hostia.

joffer

#18 Estoy conforme, pero no veo la necesidad de que sea privado.

mefistófeles

#10 eheheh111 Te has adelantado por nanosegundos...malditos oportunistas!

Varlak_

#12 que es un nanosegundo? una medida de tiempo valenciana?

Varlak_

#23 era bromi

soundnessia

Algo que se usa en menéame

Snow7

#1 ... para determinar mediante complejas e ininteligible fórmulas el karma de cada usuario.

D

#1 Aquí se estila más la trolltopía

mandelbr0t

#2 Yo mantengo una lucha continua contra el aumento de la entropía en mi casa. Aunque sé que es una batalla perdida.

Findeton

Según entiendo la entropía es proporcional al número de estados microscópicos (esta molécula está exactamente aquí y va a tal velocidad, esta otra allá) que se corresponden con el mismo estado macroscópico (definido por características mucho más generales/macroscópicas como que este fluido tiene tal temperatura y presión...).

T

#9 Más importante, creo yo, es saber que la entropía es como una medida de la energía que deja de ser aprovechable en el Universo cuando un determinado cambio de estado en un sistema tiene lugar. Es decir, cuando un sistema en estado A pasa a un estado B en un proceso que no es reversible, la entropía del Universo aumenta porque la cantidad de energía en el mismo con capacidad para realizar trabajo ha disminuido.

U5u4r10

#36 No termino de entender por qué no es reversible. Dice que los estados extremos son más improbables, pero no imposibles.

T

#41 Estas mezclando conceptos, la irreversibilidad de un proceso no tiene nada que ver con la alcanzabilidad de un estado.

A ver, suponte que tienes 1 litro de agua a una temperatura T1 y otro litro de agua a una temperatura T2. Si los mezclas obtendrás en el equilibrio dos litros de agua a una temperatura T3, intermedia entre T1 y T2. Si quieres volver al estado inicial, con los dos litros de agua a la temperatura T3 unicamente no puedes conseguirlo, tienes que recurrir a otros sistemas sí o sí para conseguirlo, los cuales cambiaran a su vez de estado. Por lo tanto, el proceso no es reversible, ya que para devolver al litro de agua a su temperatura T1 y al otro litro de agua a la temperatura T2, otra región del Universo o del ambiente ha tenido que cambiar de estado.

U5u4r10

#43 Lo que yo digo es que, según el artículo, en cantidades extremadamente pequeñas de agua, hay una pequeña posibilidad de que los niveles de energía se ordenen acumulándose en unos pocos átomos y dando lugar a una menor entropía.

T

#69 No, lo que dice el artículo es que a nivel microscópico pueden haber ciertos puntos en los que, el calor vaya desde el foco frío al foco caliente... Pero solo a nivel microscópico, a nivel macroscópico siempre sucederá que el flujo neto de calor será desde el foco caliente hasta el foco frío, porque por cada punto microscópico que suceda lo contrario hay muchísimos más en los que no es así. Por lo tanto, la entropía del Universo siempre aumenta.

i

#9 me la quedo. Me ha gustado tu definición

chemari

Muy interesante, y muy curradas las animaciones interactivas!

borteixo

#14 yo me estoy partiendo con el "That escalated quickly."

S

#20 Bigote Arrocet

D

El término entropía, que significa literalmente “cambio en,” fue utilizado en 1851 por primera vez por Rudolf Clausius, uno de los formuladores de la segunda ley de la termodinámica. Una definición rigurosa de la entropía necesita consideraciones estadísticas y probabilísticas. Aun así, su naturaleza puede ser ilustrada cualitativamente con los siguientes ejemplos, cada uno de ellos demuestra un aspecto de la entropía.

D

#6 ¿y esos ejemplos?

D

La entropía nivel madre: "que mi cuarto no esta desordenado, simplemente es entropícamente perfecto"

D

Joder, qué listos somos en mnm, artículo científico en inglés, subiendo a portada en cero coma...

Gol_en_Contra

#11 Y si comentarios del PP con calzador (de momento).

xyria

#13 Entropía es lo que hará que gobierne el PP después de las próximas elecciones, en unos meses... lol lol lol

Porque todo indica que ese será el estado de equilibrio -ser porculizados --que nos gusta a los españoles.

Ojo, no me entero mucho con esto de la entropía.

Varlak_

#11 hombre, tiene dibujitos de ovejitas y eso, es bastante facilón.

neuron

Cuanto más complejo más entropia, cuanto menos complejo, menos dinámico, menos cambios, más ciclos repetitivos, menos entropia. o viceversa, que no me acuerdo ahora

eddard

Muy interesante el artículo, sobretodo porque es de esos conceptos que entiendes pero no conoces en profundidad y ayuda a asentar ciertos conceptos. Está explicado para la abuela del autor, con ovejas y tal y no es muy técnico....

D

Einstein decía: "todo orden es el primer paso para un nuevo caos". La tecnología evoluciona, las personas se adaptan, las empresas innovan y se reorganizan y todo camina hacía un nuevo equilibrio. El cambio no tiene porque producir desorden o ser irreversible.

D

#55 En macro, si; la termodinámica estadístistica, tambien. Pero hay otras físicas en los que el tiempo es la distancia entre sucesos causales o el tiempo es reversible y puede correr en las dos direcciones. Y aún yo no he ido a esa clase. Ergo en mi universo ( puede sustituirse por ignorancia) aún no hay causalidad entre la entropía y el correr del tiempo.

f

#53 Ah pues evidentemente influyen dos factores, el curso y la asignatura donde se explique, ese comentario en concreto es para 4 eso donde esta todo mucho mas simplificado, cuando doy clase por ejemplo en ingenieria tardo unas 4h en explicarlo.

D

Este envío es de lo mejorcito que he visto en Menéame últimamente.

D

> Para que suceda lo primero, antes debe suceder lo segundo

S

#38 Le dirá: "No contestes a tus mayores"

D

Este artículo debería ser de obligatoria lectura si visitas la casa de Homer Simpson.

D

Dos noticias más abajo un hombre desafía la entropía: en lugar de granjas y ovejas, usa maleteros y cabras: La Policía interviene una cabra en el maletero de un coche en un control de alcoholemia

Hace 7 años | Por --99859-- a 20minutos.es

Varlak_

#28 Que obsesión con el tamaño.

f

#55 Que estan correlacionados esta claro, pero que sea una causa efecto es bastante mas dificil de demostrar.

o

Entropía es lo que yo te metía

D

¿qué no es?

Varlak_

#5 no es una zanahoria. Siguiente.

D

#19 demuéstralo...grandes aseveraciones requieten de grandes pruebas

f

Yo cuando doy clase lo resumo asi: es la parte del calor que no se puede transformar en trabajo.

CerdoJusticiero

#32 ¿Y qué haces si algún alumno te pregunta por qué la entropía y el calor tienen distintas unidades?

f

#38 Pues le explio que el calor se divide en anergia y exergia medida en julios, la anergia es la entropia y es el calor por grado siendo: S=Q/T

CerdoJusticiero

#49 Me parece una forma bastante espinosa de explicarlo porque esa equivalencia sólo sirve para procesos isotermos. De hecho en tu segundo comentario vuelves a decir la anergia es la entropia y es el calor por grado en lugar de la entropía está asociada a la anergia pero bueno, tú sabrás cómo lo entienden mejor (no sé en qué curso impartes clase).

f

#50 Basicamente se explica en termodinamica, donde se estudian motores isotermos e isoentropicos, es muy diferente explicarlo por ejemplo en Quimica que se tiene mas a hablar de desorden.

El tema de la entropia es bastante mas dificil de entender de lo que puede parecern a primera vista.

CerdoJusticiero

#51 Me refería a que no es lo mismo la explicación que se les puede dar en 3º de la ESO o en 2º de la licenciatura en Físicas.

katinka_aäå

...there are 59 million billion... E.d. 59 trillion.
...like 10^24 (a million billion billion)... a fucking lot.

f

#56 Ten en cuenta que los billones nuestros y los ingleses son distintos, para nosotros un billon es un millon de millones, para ellos es mil millones.

katinka_aäå

#58 Cierto, me he dejador ceros por doquier. Fucking short scale english.

D

El artículo es perfecto. No creo haber leído nunca algo tan completo y profundo y al mismo tiempo tan didáctico y fácil de seguir.
Ojalá fuese así toda la física!

sahueso

No entiendo como pueden usar la palabra 'puzle'cuando existe la palabra 'rompecabezas' que significa lo mismo pero en español. Pff, en fin.

MasQueNada

¿Es la entropía lo que hace que el tiempo sea unidireccional?

f

#46 No es directamente una consecuencia, pero la entropia no puede disminuir solo aumentar con el tiempo, por lo que digamos que ambos terminos estan "correlacionados" sin embargo no se puede hablar de causalidad entre entropia y tiempo, al menos no todavia lol.

MasQueNada

#52 Interesante sentirse un físico por un momento.
https://link.springer.com/article/10.1007/s10955-009-9897-8

D

La entropía? Lo que me cuelga más y más cada día.

Peter_Feinmann

#62 ¿la papada?

D

#71 Surely you're joking, mr...

S

Arieh Ben-Naim tiene una serie de libros donde lo explica de manera sencilla. Este esta bastante bien:

https://www.amazon.com/Entropy-Demystified-Second-Reduced-Common/dp/9812832254