SlideShare una empresa de Scribd logo
ENTROPÍA
Entropía (termodinámica) la  entropía  (simbolizada como  S ) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.
Evidencias  Cuando se plantea la pregunta: ¿por qué ocurren los sucesos de la manera que ocurren, y no al revés? se busca una respuesta que indique cuál es el sentido de los sucesos en la naturaleza. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que eventualmente el trozo caliente se enfriará, y el trozo frío se calentará, logrando al final una temperatura uniforme. Sin embargo, el proceso inverso, el trozo caliente calentándose y el trozo frío enfriándose es muy improbable a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
La función termodinámica entropía, es central para la segunda Ley de la Termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Puesto que un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de mayor probabilidad. La entropía, coloquialmente, puede considerarse como el desorden de un sistema, es decir, cuán homogéneo está el sistema. Un ejemplo doméstico, sería el de lanzar un vaso de cristal al suelo, este tenderá a romperse y esparcirse mientras que jamás conseguiremos que lanzando trozos de cristal se forme un vaso.
Otro ejemplo domestico: Tenemos dos envases de un litro de capacidad conteniendo, respectivamente, pintura blanca y pintura negra. Con una cucharita, tomamos pintura blanca, la vertemos en el recipiente de pintura negra y mezclamos. Luego tomamos con la misma cucharita pintura negra, la vertemos en el recipiente de pintura blanca y mezclamos. Repetimos el proceso hasta que tenemos dos litros de pintura gris, que no podremos reconvertir en un litro de pintura blanca y otro de pintura negra. La entropia del conjunto ha ido en aumento hasta llegar a un maximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogeneo). La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay una relación entre la entropía y la espontaneidad de una reacción química, que viene dada por la energía de Gibbs .
Ecuaciones   Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la integral curvilínea de   sólo depende de los estados inicial y final, con independencia del camino seguido ( δQ  es la cantidad de calor absorbida en el proceso en cuestión y  T  es la temperatura absoluta). Por tanto ha de existir una f(x) del estado del sistema, S=f(P,V,T), denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2 es:
Téngase en cuenta que como el calor no es una función de estado se usa  δQ  en lugar de dQ. La entropía física, en su forma clásica, está definida por la ecuación o más simplemente, cuando no se produce variación de temperatura (proceso isotérmico): donde  S  es la entropía,  la cantidad de calor intercambiado entre el sistema y el entorno y  T  la temperatura absoluta en kelvin). Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico.   El  significado de esta ecuación es el siguiente: Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta. De acuerdo con la ecuación, si el calor se transfiere al sistema, también lo hará el grado de entropía. Si la temperatura aumenta, la entropía disminuye. Y viceversa. Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin. Cuando el sistema evoluciona irreversiblemente, la ecuación de Clausius se convierte en una inecuación:
Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. No obstante, sumando un término positivo al segundo miembro, podemos transformar de nuevo la expresión en una ecuación: Al termino σ p , siempre positivo, se le denomina producción de entropía y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. En el caso de darse un proceso reversible y adiabático, según la ecuación, dS=0, es decir, el valor de la Entropía es constante y además constituye un proceso isoentrópico.
Cero absoluto   Sólo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema es necesario fijar la entropía del mismo en un estado determinado. La Tercera ley de la termodinámica fija un estado estándar:  para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto (0 K). Esta magnitud permite definir la Segunda ley de la termodinámica, de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea, aun cuando siga cumpliéndose la condición de conservación de la energía del sistema (Primera ley de la termodinámica).
Entropía y reversibilidad   La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los   alrededores: Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y  Q=W . Pero en la práctica real el trabajo es menor ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles.Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas, dando como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global. Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como  "la energía no puede crearse ni destruirse" ,  la entropía puede crearse pero no destruirse . Podemos decir entonces que  "como el Universo es un sistema aislado, su entropía crece constantemente con el tiempo".  Esto marca un sentido a la evolución del mundo físico, que llamamos  "Principio de evolución". Cuando la entropía sea máxima en el universo, esto es, exista un equilibrio entre todas las temperaturas y presiones, llegará  la muerte térmica del Universo  (enunciado por Clausius). Toda la energía se encontrará en forma de calor y no podrán darse transformaciones energéticas.
Interpretación estadística de la entropía   En los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros, desarrollaron las ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente influenciada por el concepto de entropía.Una de las teorías termodinámicas estadísticas (la de Maxwell-Boltzmann), establece la siguiente relación entre la entropía y la probabilidad termodinámica: Donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es la función logaritmo neperiano).La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Boltzmann en el Zenmtralfriedhof de Viena, quien se suicidó en 1906, profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época.El significado literal de la ecuación es el siguiente: La cantidad de entropía de un sistema es proporcional al logaritmo natural de su número de microestados posibles. Uno de los aspectos más importantes que describe esta ecuación, es la posibilidad de dar una definición absoluta al concepto de la entropía. En la descripción clásica de la termodinámica, carece de sentido hablar del valor de la entropía de un sistema, siendo relevantes sólo los cambios en la misma. En cambio, la teoría estadística, permite definir la entropía absoluta de un sistema.
Relación de la entropía con la teoría de la información Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física de los agujeros negros. Según la nueva teoría de Jacob D. Bekenstein el bit de información sería equivalente a una superficie de valor 1/4 del área de Planck. De hecho, en presencia de agujeros negros la segunda ley de la termodinámica sólo puede cumplirse si se introduce la entropía generalizada o suma de la entropía convencional ( Sconv ) más un factor dependiente del área total ( A ) de agujeros negros existente en el universo, del siguiente modo:   Donde,  k  es la constante de Boltzmann,  c  es la velocidad de la luz,  G  es la constante de la gravitación y es la constante de Planck racionalizada. Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del horizonte de sucesos. Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teoría y ha propuesto un mecanismo nuevo para la conservación de la entropía en los agujeros negros. Simplemente, al realizar un trabajo, se ocupa muy poca energía; la entropía se encarga de medir la energía que no es usada y queda reservada en un cuerpo.

Más contenido relacionado

PPTX
Termodinamica irreversibilidad
PDF
Cuestionario unidad 4
PPTX
PPT
Presentacion Termodinamica 5
PDF
Fisica genral u5
PPTX
Entropia
PPTX
procesos adiabáticos, isotérmicos e isobáricos.
PPTX
Termodinámica
Termodinamica irreversibilidad
Cuestionario unidad 4
Presentacion Termodinamica 5
Fisica genral u5
Entropia
procesos adiabáticos, isotérmicos e isobáricos.
Termodinámica

La actualidad más candente (20)

PDF
2 termot sustancias_puras_2010_11
PPTX
Termodinámica
PDF
Termodinamica aplicada a sistemas vivos
PPTX
ENTALPIA
PDF
Balance de energía. Sistemas abiertos, cerrados y en una superficie.pdf
PPTX
Ecuacion de nernstfin
DOCX
Equilibrio Termico
PDF
Problemas calor trabajo primera ley
DOCX
Informe Calor específico
PPTX
Conceptos basicos de Termodinamica
PPTX
Gases ideales
RTF
Tecnologia de los materiales
PPTX
Entropia (Fisica-Termodinamica)
PPTX
Ciclo Ericsson
PDF
67786760 ejercicios-resueltos-de-gases-ideales-y-gases-reales-roldan
DOCX
Van ness capitulo 3 orihuela contreras jose
PDF
Convección libre y convección forzada
PPTX
Ciclo carnot
DOCX
Transmisión De Calor En Régimen No Estacionario: Determinación De Las Propied...
PPTX
Dilatacion volumetrica
2 termot sustancias_puras_2010_11
Termodinámica
Termodinamica aplicada a sistemas vivos
ENTALPIA
Balance de energía. Sistemas abiertos, cerrados y en una superficie.pdf
Ecuacion de nernstfin
Equilibrio Termico
Problemas calor trabajo primera ley
Informe Calor específico
Conceptos basicos de Termodinamica
Gases ideales
Tecnologia de los materiales
Entropia (Fisica-Termodinamica)
Ciclo Ericsson
67786760 ejercicios-resueltos-de-gases-ideales-y-gases-reales-roldan
Van ness capitulo 3 orihuela contreras jose
Convección libre y convección forzada
Ciclo carnot
Transmisión De Calor En Régimen No Estacionario: Determinación De Las Propied...
Dilatacion volumetrica
Publicidad

Destacado (15)

PPT
Entropia
PPTX
Entropia en procesos industriales
PPTX
Entropia
PPTX
Entropia, Origen Del Concepto Entropy, Origin Of The Concept
PPT
Entropia 2° principio de la termodinamica
PPTX
La teoría del todo (Stephen Hawking)
PPTX
La teoria del todo - Eladio García
PPTX
teoria de cuerdas
PPT
La teoria de todo
PPTX
La teoría de cuerdas
DOCX
La teoría del todo
PPTX
Entropia y entalpia_TERMODINAMICA
PPT
ENTROPIA-ENTALPIA
PPTX
Ondas gravitacionales
Entropia
Entropia en procesos industriales
Entropia
Entropia, Origen Del Concepto Entropy, Origin Of The Concept
Entropia 2° principio de la termodinamica
La teoría del todo (Stephen Hawking)
La teoria del todo - Eladio García
teoria de cuerdas
La teoria de todo
La teoría de cuerdas
La teoría del todo
Entropia y entalpia_TERMODINAMICA
ENTROPIA-ENTALPIA
Ondas gravitacionales
Publicidad

Similar a EntropíA (20)

PDF
Entropia
PPTX
Entropía
DOCX
ENTROPIA
PPTX
Kevin sanches presentacion termodinamica
PPTX
Entropia y neguentropia
DOCX
Enunciados De Entropia
PPTX
Entropía
PDF
Entropia
PPTX
termodinamica
PPTX
Presentación 1
PDF
Semana 1 Entropía en termodinámica II.pdf
PPTX
Termodinamica presentacion
PDF
Leyes II Y III Termodinamica (1).pdf
PPTX
revista Andrew Pereira
PPT
Termodinamica avanzada
DOC
PPTX
Entropia.pptx termodinamica-biologiaaaaaa
PPTX
Wilmer bravo presentacion slideshare
PPTX
Termodinamica prueba
Entropia
Entropía
ENTROPIA
Kevin sanches presentacion termodinamica
Entropia y neguentropia
Enunciados De Entropia
Entropía
Entropia
termodinamica
Presentación 1
Semana 1 Entropía en termodinámica II.pdf
Termodinamica presentacion
Leyes II Y III Termodinamica (1).pdf
revista Andrew Pereira
Termodinamica avanzada
Entropia.pptx termodinamica-biologiaaaaaa
Wilmer bravo presentacion slideshare
Termodinamica prueba

EntropíA

  • 2. Entropía (termodinámica) la entropía (simbolizada como S ) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.
  • 3. Evidencias Cuando se plantea la pregunta: ¿por qué ocurren los sucesos de la manera que ocurren, y no al revés? se busca una respuesta que indique cuál es el sentido de los sucesos en la naturaleza. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que eventualmente el trozo caliente se enfriará, y el trozo frío se calentará, logrando al final una temperatura uniforme. Sin embargo, el proceso inverso, el trozo caliente calentándose y el trozo frío enfriándose es muy improbable a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
  • 4. La función termodinámica entropía, es central para la segunda Ley de la Termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Puesto que un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de mayor probabilidad. La entropía, coloquialmente, puede considerarse como el desorden de un sistema, es decir, cuán homogéneo está el sistema. Un ejemplo doméstico, sería el de lanzar un vaso de cristal al suelo, este tenderá a romperse y esparcirse mientras que jamás conseguiremos que lanzando trozos de cristal se forme un vaso.
  • 5. Otro ejemplo domestico: Tenemos dos envases de un litro de capacidad conteniendo, respectivamente, pintura blanca y pintura negra. Con una cucharita, tomamos pintura blanca, la vertemos en el recipiente de pintura negra y mezclamos. Luego tomamos con la misma cucharita pintura negra, la vertemos en el recipiente de pintura blanca y mezclamos. Repetimos el proceso hasta que tenemos dos litros de pintura gris, que no podremos reconvertir en un litro de pintura blanca y otro de pintura negra. La entropia del conjunto ha ido en aumento hasta llegar a un maximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogeneo). La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay una relación entre la entropía y la espontaneidad de una reacción química, que viene dada por la energía de Gibbs .
  • 6. Ecuaciones Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la integral curvilínea de sólo depende de los estados inicial y final, con independencia del camino seguido ( δQ es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura absoluta). Por tanto ha de existir una f(x) del estado del sistema, S=f(P,V,T), denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2 es:
  • 7. Téngase en cuenta que como el calor no es una función de estado se usa δQ en lugar de dQ. La entropía física, en su forma clásica, está definida por la ecuación o más simplemente, cuando no se produce variación de temperatura (proceso isotérmico): donde S es la entropía, la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin). Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico. El significado de esta ecuación es el siguiente: Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta. De acuerdo con la ecuación, si el calor se transfiere al sistema, también lo hará el grado de entropía. Si la temperatura aumenta, la entropía disminuye. Y viceversa. Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin. Cuando el sistema evoluciona irreversiblemente, la ecuación de Clausius se convierte en una inecuación:
  • 8. Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. No obstante, sumando un término positivo al segundo miembro, podemos transformar de nuevo la expresión en una ecuación: Al termino σ p , siempre positivo, se le denomina producción de entropía y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. En el caso de darse un proceso reversible y adiabático, según la ecuación, dS=0, es decir, el valor de la Entropía es constante y además constituye un proceso isoentrópico.
  • 9. Cero absoluto Sólo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema es necesario fijar la entropía del mismo en un estado determinado. La Tercera ley de la termodinámica fija un estado estándar: para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto (0 K). Esta magnitud permite definir la Segunda ley de la termodinámica, de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea, aun cuando siga cumpliéndose la condición de conservación de la energía del sistema (Primera ley de la termodinámica).
  • 10. Entropía y reversibilidad La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los alrededores: Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q=W . Pero en la práctica real el trabajo es menor ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles.Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas, dando como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global. Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como "la energía no puede crearse ni destruirse" , la entropía puede crearse pero no destruirse . Podemos decir entonces que "como el Universo es un sistema aislado, su entropía crece constantemente con el tiempo". Esto marca un sentido a la evolución del mundo físico, que llamamos "Principio de evolución". Cuando la entropía sea máxima en el universo, esto es, exista un equilibrio entre todas las temperaturas y presiones, llegará la muerte térmica del Universo (enunciado por Clausius). Toda la energía se encontrará en forma de calor y no podrán darse transformaciones energéticas.
  • 11. Interpretación estadística de la entropía En los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros, desarrollaron las ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente influenciada por el concepto de entropía.Una de las teorías termodinámicas estadísticas (la de Maxwell-Boltzmann), establece la siguiente relación entre la entropía y la probabilidad termodinámica: Donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es la función logaritmo neperiano).La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Boltzmann en el Zenmtralfriedhof de Viena, quien se suicidó en 1906, profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época.El significado literal de la ecuación es el siguiente: La cantidad de entropía de un sistema es proporcional al logaritmo natural de su número de microestados posibles. Uno de los aspectos más importantes que describe esta ecuación, es la posibilidad de dar una definición absoluta al concepto de la entropía. En la descripción clásica de la termodinámica, carece de sentido hablar del valor de la entropía de un sistema, siendo relevantes sólo los cambios en la misma. En cambio, la teoría estadística, permite definir la entropía absoluta de un sistema.
  • 12. Relación de la entropía con la teoría de la información Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física de los agujeros negros. Según la nueva teoría de Jacob D. Bekenstein el bit de información sería equivalente a una superficie de valor 1/4 del área de Planck. De hecho, en presencia de agujeros negros la segunda ley de la termodinámica sólo puede cumplirse si se introduce la entropía generalizada o suma de la entropía convencional ( Sconv ) más un factor dependiente del área total ( A ) de agujeros negros existente en el universo, del siguiente modo: Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de la gravitación y es la constante de Planck racionalizada. Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del horizonte de sucesos. Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teoría y ha propuesto un mecanismo nuevo para la conservación de la entropía en los agujeros negros. Simplemente, al realizar un trabajo, se ocupa muy poca energía; la entropía se encarga de medir la energía que no es usada y queda reservada en un cuerpo.