Entropía de Tsallis
En física, la entropía de Tsallis es una generalización de la entropía estándar de Boltzmann. Es útil para estudiar los intercambios de información entre sistemas que no están en equilibrio.
Origen
Edwin T. Jaynes formuló la mecánica estadística como un problema de maximización entrópica. Puso de manifiesto que cualquier problema en la mecánica estadística de los sistemas en equilibrio, la maximización de la entropía de Shannon se reduce a encontrar el conjunto de probabilidades para las que la entropía de Shannon es máxima bajo un conjunto de ligaduras que especifican las condiciones macroscópicas, que pueden proceder de la teoría o de datos experimentales.
Si las ligaduras son la condición de normalización y la conservación de la energía (i.e. ), entonces sólo existe una única solución para la distribución de probabilidades en equilibrio térmico que es la distribución exponencial de Boltzmann (o Maxwell-Boltzmann-Gibbs): donde Z es un factor de normalización que a garantiza la conservación de probabilidad. La variable Z recibe el nombre de función de partición y su definición es tal que:
La distribución de Boltzmann describe el conjunto canónico, que se aplica a cualquier situación donde un sistema está en equilibrio térmico e intercambiando energía con su entorno.
Ahora bien, el principio de máxima entropía solo implica situaciones de equilibrio, que solamente comprenden un subconjunto pequeño de los problemas en física.
Para sistemas que no están en equilibrio, se debe adoptar una forma de actuar diferente. Para entender la mecánica estadística del no-equilibrio parece razonable pensar que hemos de explorar el uso de otras medidas de entropía diferente, más generales que la de Shannon.
Fundamentalmente, Jaynes mostró que la entropía de Shannon y la distribución exponencial asociada de estados se aplican solamente para sistemas de equilibrio. Cabe preguntarse entonces qué otro tipo de entropías permiten obtener variacionalmente la distribución de estados no-exponencial que presentan los sistemas fuera del equilibrio (ley de potencias, fractalidad, etc).
De hecho, existen otras funciones de entropía que satisfacen otros requisitos diferentes a los planteados por Shannon, como la Entropía de Rényi, la cual ha resultado ser muy útil para el Análisis multifractal.
Existen numerosos sistemas en la naturaleza y en el comportamiento humano para los que la distribución de estados asociada se aproxima por una ley de potencias.
Una ley de potencias es algo que se comporta para grandes como con . Las distribuciones de probabilidad de tipo potencia decrecen mucho más lentamente que las de tipo exponencial, por tanto tienen propiedades estadísticas muy diferentes. Además, no se comportan tan bien como las exponenciales, en particular, el momento de orden m-ésimo de una distribución de potencia no existe cuando .
«Las distribuciones de tipo potencia se han observado en fenómenos tan diversos como la energía de los rayos cósmicos, la turbulencia de los fluidos, los terremotos, fluctuaciones de precios, la expansión de las urbes, la frecuencia del uso de las palabras, entre otras muchas cosas.»
Está claro que las leyes de potencia no pueden explicarse por la mecánica estadística de equilibrio, donde las distribuciones resultantes son siempre exponenciales. Una propiedad común de todos los sistemas que obedecen leyes de potencia es que siempre corresponden a sistemas de no-equilibrio.
La ubicuidad de las leyes de potencia sugiere que debe existir una mecánica estadística del no-equilibrio cuya distribución de probabilidad sea de este tipo, de forma análoga a la distribución exponencial dentro de los sistemas en equilibrio.
Dentro de simulaciones de sistemas caóticos se ha evidenciado que tales sistemas pueden estar de forma metaestable con distribuciones de tipo potencia durante periodos de tiempo muy largos antes de caer en el equilibrio.
«Desde un punto de vista puramente estadístico se establecen entonces funciones de entropía permitidas para estos casos en que la distribución de estados asociada es de tipo potencia.»
La entropía que modela correctamente este tipo de sistemas es la entropía de Tsallis.
Definición
La entropía de Tsallis[1][2] de la distribución de probabilidad discreta se define por
donde .
Para la entropía de Tsallis se reduce a la entropía de Gibbs estándar.
Usando el formalismo variacional de Jaynes para la mecánica estadística, uno puede maximizar esta función entropía con las ligaduras adecuadas para obtener funciones de distribución que tienen un comportamiento de tipo ley de potencias para . Estas funciones se denominan q-exponenciales y se definen por
cuando
cuando
La entropía de Tsallis tiene la propiedad de no aditividad
Por lo que se trata de una entropía no extensiva.
Significado
La entropía de Tsallis es una medida de falta de información. En particular, el conocimiento perfecto del estado microscópico de un sistema da lugar a que , y la incertidumbre máxima produce entropía máxima .[3][4]
Véase también
Referencias
- 1938-2012,, Cover, T. M.,. Elements of information theory (Second edition edición). ISBN 9780471748816. OCLC 70862892.
- «Article». Information Sciences 4 (2): 57-81. 1995-09. ISSN 0020-0255. doi:10.1016/0020-0255(94)00075-m.
- 1974-, Nielsen, Michael A., (2003). <>.. Higher Education Press. ISBN 7040135027. OCLC 659931411.
- Tsallis, Constantino (1 de julio de 1988). «Possible generalization of Boltzmann-Gibbs statistics». Journal of Statistical Physics (en inglés) 52 (1-2): 479-487. ISSN 0022-4715. doi:10.1007/BF01016429. Consultado el 23 de mayo de 2018.