3. Что такое вечный двигатель второго рода? Какое начало термодинамики запрещает его существование?
Объясните с точки зрения законов термодинамики, почему в жарком климате Средней Азии коренное население традиционно предпочитало тёплые халаты лёгкой одежде и горячий чай прохладительным напиткам.
§ 7 Энтропия
– Валяться нужно, – с глубокой убеждённостью отвечал Горбовский.
– Это философски необходимо. Бессмысленные движения руками и ногами неуклонно увеличивают энтропию Вселенной. Я хотел бы сказать миру: «Люди! Больше лежите! Бойтесь тепловой смерти!»
Мы убедились в том, что в естественных природных процессах постоянно происходит переход свободной энергии в связанную, а степень хаотичности движения молекул постоянно возрастает. По-видимому, требуется найти величину, которая бы позволила измерить соотношение обоих видов энергии и служить мерой её необратимого рассеивания. Такая величина была введена в 1865 г. Р. Клаузиусом и названа
Рис. 15. Р. Клаузиус
Клаузиус определил изменение энтропии как отношение изменения общей теплоты в системе к её абсолютной температуре:
Следовательно, по мере поступления в систему теплоты её энтропия будет возрастать, а по мере потери теплоты – уменьшаться. Но из формулы следует, что степень изменения энтропии зависит ещё и от температуры, при которой происходит этот процесс. Рассмотрим, как изменится энтропия при отдаче или получении теплоты внутри системы.
Возьмём два одинаковых предмета, например кирпича, температура одного из которых равна
В предыдущем параграфе мы говорили о том, что все самопроизвольные процессы сопровождаются выравниванием температуры в различных частях системы и переходом части свободной энергии в связанную энергию. Теперь мы видим, что этот процесс неизбежно сопровождается возрастанием некой физической величины, которую называют энтропией. Отсюда можно сделать вывод, что именно энтропия является мерой связанной, не способной совершать работу энергии. Математически это утверждение выражают уравнением Гиббса – Гельмгольца:
где
Это уравнение объединяет первое и второе начала термодинамики. Из него следует, что вся энергия, которой обладает система, не может быть превращена в работу. Работу можно совершать только за счёт затраты свободной энергии, а она, как следует из уравнения Гиббса – Гельмгольца, меньше, чем полная энергия системы:
Чем больше энтропия системы, тем меньше доля свободной энергии в полной энергии этой системы, тем меньшую работу она может совершать. Если система изолирована и в ней протекают самопроизвольные процессы, то в соответствии с первым началом термодинамики её полная энергия не меняется. Однако в соответствии со вторым началом её
В связи с этим возникает проблема, которая в течение многих лет волновала не только физиков, но и писателей-фантастов. Вселенная, как предполагают, является изолированной системой. А так как второе начало термодинамики утверждает, что в изолированных системах энтропия непрерывно возрастает, пока не достигнет максимума, то и энтропия Вселенной должна постоянно возрастать. Следовательно, когда-нибудь вся свободная энергия Вселенной перейдёт в связанную, температуры всех тел в ней выравняются, и никакую работу в ней совершить уже будет невозможно. Этот «конец света» Р. Клаузиус назвал
Вернёмся к вопросу о том, что же всё-таки представляет собой энтропия. Только что мы убедились в том, что увеличение энтропии сопровождается выравниванием температуры в различных частях системы. Однако запас свободной энергии в системе может сохраняться даже в том случае, когда значения температуры во всех её участках равны. Это может быть в случае, когда внутри сосуда, содержащего какой-либо газ, дует ветер. С молекулярной точки зрения это означает, что, хотя средние скорости движения молекул во всех частях сосуда равны по
Рис. 16. Л. Больцман
Но если скорости различаются, то энтропия в системе не максимальна, и в ней можно совершить какую-либо работу. Например, можно установить вертушку, которая будет вращаться под действием ветра и производить электрическую энергию. Значит, для того чтобы энтропия стала действительно максимальной, а вся имеющаяся в системе энергия – связанной, необходимо, чтобы не только средние скорости всех молекул были бы одинаковы по абсолютному значению во всех участках системы, но и все направления движения этих молекул были равновероятны.
Такое движение молекул называют беспорядочным или хаотичным. Следовательно, энтропия может служить мерой хаотичности движения молекул или мерой беспорядка в их движении. Такое статистическое обоснование энтропии предложил австрийский физик Людвиг Больцман (1844–1906), заложивший начало науки, которую называют
1. С какой целью было введено понятие энтропии?
2. Как изменяется энтропия при протекании самопроизвольных процессов?
3. Что обозначают буквы в уравнении Гиббса – Гельмгольца:
4. Что такое «тепловая смерть Вселенной»? Вспомните, встречали ли вы какие-либо научно-популярные статьи на эту тему.
5. Что измеряется энтропией на молекулярном уровне?
Прочитайте и обсудите в классе научно-фантастический рассказ Айзека Азимова «Последний вопрос», посвящённый «тепловой смерти Вселенной».
§ 8 Энтропия и вероятность
Вопрос. Во сне приснились мышата и крысята в клетке, их было так много, я их кому-то показываю и открываю клетку, они разбегаются, а я их ловлю и в клетку обратно запихиваю! Вроде всех собрала обратно! К чему это?
Ответ. Всякий процесс сопровождается равномерным распределением в пространстве и, соответственно, ростом энтропии. Обратный процесс возможен только с использованием внешнего воздействия.
Итак, что же можно измерить с помощью энтропии? Если бы всё сводилось только к движению молекул и тепловым процессам, понятие энтропии не получило бы такого широкого распространения и популярности и не вышло бы за границы термодинамики.
Энтропию можно использовать при изучении самых различных явлений, а не только тех, которые сводятся к кинетической энергии молекул. Что же именно может характеризовать энтропия в универсальной картине мира? Очевидно, то же самое, что и в термодинамике, – степень беспорядка и хаоса.
Предположим, что у нас имеется некоторое число ячеек, в которые можно помещать одинаковые предметы в любом количестве.
Рис. 17. Схема возможных распределений шариков по ячейкам
В самом простом случае будем иметь дело всего с двумя ячейками и с четырьмя шариками, которые можно произвольно раскладывать по этим ячейкам. Обозначим ячейки как А и Б, а шарики пронумеруем – 1, 2, 3 и 4. Как можно распределить четыре шарика по двум ячейкам? На первом этапе мы не будем принимать во внимание номера шариков, а просто посмотрим, сколько их в каждой ячейке (рис. 17).
Легко убедиться в том, что существует пять вариантов расположения шариков. Обозначим их как состояния I, II, III, IV и V. Теперь обратим внимание на номера шариков и будем учитывать не только,
А теперь сравним вероятности того, что при случайном перемешивании шариков реализуется какое-либо из пяти возможных макросостояний. Вспомним сведения, которые мы получили ранее. Вероятность события определяется отношением числа благоприятных событий к общему числу возможных событий. В данном случае общее число событий равно 1 + 4 + 6 + 4 + 1 = 16, т. е. четыре шарика можно распределить по двум ячейкам шестнадцатью способами. Поскольку состояния I и V можно реализовать единственным способом, вероятность того, что все шарики окажутся в ячейке А, так же как и вероятность того, что все они попадут в ячейку Б, будет равна 1∕16. Вероятность того, что в ячейке А (или Б) окажется один шарик, а остальные попадут в другую ячейку, равна 4/16. Вероятность же того, что шарики расположатся равномерно, по два в каждой ячейке, составит 6/16. Можно подсчитать эти вероятности для любого числа ячеек и для любого числа шариков (или молекул), и всякий раз мы будем убеждаться в том, что чем равномернее распределены предметы по ячейкам, тем вероятнее такое распределение. В этом нетрудно убедиться на любом примере. Насыплем в стакан с водой немного сахарного песка.
Сначала наибольшая концентрация сахарного сиропа будет возле дна стакана, но со временем сахар растворится, и концентрация выравняется по всему объёму.
Рис. 18. Реализация состояния III
Представить, что молекулы сахара самопроизвольно соберутся в некоторой части сосуда, практически невозможно, потому что вероятность такого события ничтожно мала.
Таким образом, вероятность состояния с равномерным распределением оказывается наибольшей по сравнению со всеми другими возможными состояниями, и все естественные процессы направлены в сторону достижения этого наиболее вероятного состояния. Но мы также знаем, что в результате всех природных процессов происходит увеличение энтропии. Напрашивается вывод, что между вероятностью существования данного состояния и энтропией должна существовать связь. Эта связь действительно существует, и впервые её охарактеризовал Л. Больцман. Он имел в виду термодинамические процессы, а мы будем рассуждать в рамках наших ячеек и шариков.
Будем называть, как это сделал Больцман, наши состояния I–V
где
Состояние I, так же как и состояние V, определяется единственным микросостоянием. Так как логарифм единицы по любому основанию равен нулю, то и энтропия этих состояний равна нулю. Это значит, что в этих состояниях существует абсолютный порядок. Число микросостояний, которые определяют макросостояния I и IV, равно четырём, а значит, энтропия каждого из них равна log 4. Величина этого логарифма зависит от того, какое основание для логарифмирования мы выберем. Вообще говоря, основание может быть любым, так как в зависимости от этого изменится только коэффициент пропорциональности. Но по причинам, о которых вы узнаете в дальнейшем, нам будет удобно выбрать основание 2. Тогда энтропия макросостояний I и IV будет равна двум. Самым «беспорядочным» из наших макросостояний будет состояние III, которое может осуществиться шестью микросостояниями. Следовательно, энтропия этого, наиболее вероятного, состояния равна логарифму 6 по основанию 2, что составляет приблизительно 2,6.
1. Что такое макро– и микросостояние?
2. Чему равна энтропия макросостояния, которое обеспечивается единственным микросостоянием?
3. Почему макросостояние, при котором число шариков в каждой ячейке одинаково, оказывается наиболее вероятным?
4. Какие у создателей статистической физики были основания сопоставить вероятность состояния с его энтропией?
Предположим, что у нас имеется 6 шариков, которые могут быть распределены по двум ячейкам.
A. Составьте таблицу, в которой будут указаны все возможные макросостояния.
Б. Составьте таблицу, в которой будут указаны все микросостояния для каждого макросостояния.
B. Найдите вероятность каждого макросостояния.
§ 9 Информация
Любое живое существо постоянно передаёт во внешний мир какие-то сигналы, а также получает сигналы из окружающей его среды.
Рис. 19. К. Шеннон
Человеку свойственна непрерывная познавательная деятельность, в течение жизни он постоянно узнаёт что-то новое и что-то в устной или письменной форме сообщает другим людям. Мы постоянно передаём окружающим и получаем от них знаки и сообщения, содержащие сведения о мыслях, чувствах, мнениях или желаниях. Мир этих сообщений и способов их передачи кажется необъятным, не поддающимся никакому строгому формальному описанию, тем более в математической форме.
Тем не менее в первой половине XX в. встал вопрос о необходимости введения количественной характеристики для передаваемых и принимаемых сообщений. Эта количественная характеристика вскоре получила название
Как можно измерить информацию? Прежде всего, надо уяснить, что информация – это не характеристика сообщения, а характеристика отношения между сообщением и его потребителем. Одно и то же сообщение может содержать огромную информацию для одного потребителя и нулевую – для другого, например для человека, незнакомого с языком, на котором передано это сообщение.
Логично предположить, что количество содержащейся в сообщении информации зависит от того, насколько это сообщение было неожиданным. Ведь если мы заранее знали всё, о чём нам сообщили, то никакой информации нам это сообщение не дало. Но как измерить степень неожиданности строгой количественной мерой? Допустим, получив сообщение, мы не узнали ничего нового. Это означает, что результат был известен нам и до сообщения и мы могли предугадать его с вероятностью, равной единице. Значит, единичной вероятности соответствует нулевая информация. Но если мы не были уверены в правильном ответе на интересующий нас вопрос, мы вместе с точным ответом получаем и какую-то информацию. Определить её количество можно, если представить себе, что такое самый простой вопрос. Очевидно, это такой вопрос, на который можно ответить либо «да», либо «нет».
Рис. 2 0. Лаборатория «Белл» в Мюррей Хилл (Нью-Джерси, США), работая в которой в 1948 г. Клод Шеннон опубликовал статью «A Mathematical Theory of Communication», одну из основополагающих работ по теории информации.
Если мы не имеем заранее никаких предположений, то, независимо от того, каким будет ответ, мы получаем одно и то же количество информации. Это количество представляет собой единицу информации и называется
В том случае, когда ответ нельзя получить сразу, требуется задавать дополнительные вопросы. Самой эффективной для спрашивающего будет такая стратегия, когда он задаёт вопросы с возможными ответами «да» или «нет», причём вероятности получить тот или иной ответ кажутся ему одинаковыми. На этом строится широко известная игра в угадывание известного человека или кого-нибудь из присутствующих. Угадывающий мысленно разбивает ответы на две, как ему кажется, равновероятные части и задаёт вопрос, ответ на который может быть положительным или отрицательным. Каждый раз он получает информацию, равную одному биту. Количество полученной при угадывании информации равно числу вопросов, которые пришлось задать игроку. Искусство угадывания зависит от того, каким образом должен быть поставлен вопрос. Приведём один из возможных примеров такой игры. Допустим, требуется угадать Исаака Ньютона. Можно представить, что игра проходит следующим образом.
1.
Как уже говорилось, количество содержащейся в сообщении информации неодинаково для каждого получателя этого сообщения и зависит от его предварительного знания. Поэтому объективно можно определить только
Предположим теперь, что в тексте наугад выбрана одна из 32 букв кириллицы (не будем учитывать «ё»). Как должен поступить человек, не знающий языка, чтобы, действуя наугад, узнать эту букву? Очевидно, он должен сначала выяснить, в какой половине алфавита находится эта буква. Затем он должен разбить эту половину, состоящую из 16 букв, на две восьмёрки и задать соответствующий вопрос. С помощью третьего вопроса он определит четвёрку, с помощью четвёртого – пару букв и, наконец, в результате
1. Может ли информация полностью определяться сообщением?
2. В каком случае сообщение не содержит информации?
3. Какое сообщение содержит 1 бит информации?
4. В каком случае и для какого получателя информация, содержащаяся в сообщении, оказывается наибольшей?
5. Где в биологии используется подобное пошаговое (повопросное) движение с двумя возможными вариантами ответов («да»/«нет»)?
Попросите вашего одноклассника загадать кого-нибудь из ваших общих знакомых. Задавая вопросы, на которые он может отвечать «да» или «нет», определите, кого он загадал. Оцените в битах объём полученной вами информации.
§ 10 Информация, вероятность и энтропия
Быть объектом удивления приятно уже потому, что с этим связан почёт.