Энтропия — фундаментальная физическая величина, характеризующая меру неупорядоченности, хаотичности или неопределенности системы, являющаяся центральным понятием термодинамики, статистической механики и теории информации. В термодинамике энтропия определяется как отношение теплоты к температуре и характеризует степень необратимости процессов в изолированных системах. В статистической механике энтропия связана с количеством микросостояний, соответствующих данному макросостоянию системы. В теории информации энтропия Шеннона характеризует среднее количество информации, содержащейся в сообщении, и меру неопределенности случайной величины. Энтропия является экстенсивной величиной и подчиняется второму началу термодинамики, согласно которому в изолированных системах энтропия может только возрастать или оставаться постоянной. Концепция энтропии имеет важное значение для понимания процессов самоорганизации, эволюции сложных систем и принципов работы информационных систем.
ЭНТРОПИЯ — термин энциклопедии по психиатрии.