Энтропия (от греч. en - en - в, внутрь и troph - trope - поворот, превращение) 

Энтропией называется функция состояния термодинамической системы. Понятие абсолютной величины энтропии отсутствует. В любых процессах поддается определению только величина ее изменения.

В термодинамике величиной энтропии измеряется степень рассеяния, т.е. перехода в тепловую энергию, любого другого вида энергии, содержащейся в системе. Любая термодинамическая изолированная от внешнего мира система стремится к выравниванию температур всех ее частей, т.е. к максимальному возрастанию энтропии в ней. Система, имевшая неравновесное тепловое состояние, переходит к равновесному, когда процессы теплопередачи прекращаются. 

В статистической физике энтропия трактуется как мера вероятности пребывания системы в данном состоянии. Чем больше беспорядка, тем больше энтропия. Любая система постепенно переходит к своему более вероятному состоянию. В процессе этого в ней увеличивается беспорядок, нарастает хаос, а значит и увеличивается энтропия. 

Понятие энтропии используется в химии, биологии, информатике и т.д. 

Примеры возрастания энтропии хорошо известны. К ним относятся: процессы остывания и нагревания предметов, пока тепловые потоки не затухают; любые виды разрушений; зарастание огородов сорняками; случаи потерь информации на жестком диске компьютера под воздействием вирусов и даже возрастание домашнего хаоса, требующее от нас периодических уборок в квартире. 

В науке общепринято, что, кроме начальных этапов формирования Вселенной, вплоть до образования галактик, во всех природных процессах в неживой природе  энтропия возрастает. 

Живые объекты (см. Жизнь), производя подобных себе, упорядочивают окружающую неживую материю, выстраивая из нее живые организмы. 

Разумная деятельность человека чаще всего ведет к созданию маловероятных состояний материи. К ним относятся практически все созданные им изделия, произведения, сооружения и т.д.