エントロピー(英: entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」[注 1]を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者のエドウィン・ジェインズ(英語版)のようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者[誰?]もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーはサディ・カルノーにちなんで[要出典]一般に記号 S を用いて表される。 エントロピーは、ルドルフ・クラウジウスの造語である。ギリ
![エントロピー - Wikipedia](https://cdn-ak-scissors.b.st-hatena.com/image/square/4a4448d1a86609894d997c2adc7cc77632260500/height=288;version=1;width=512/https%3A%2F%2Fupload.wikimedia.org%2Fwikipedia%2Fcommons%2Fthumb%2F2%2F22%2FCarnot_heat_engine_2.svg%2F1200px-Carnot_heat_engine_2.svg.png)