Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта. Благодаря им мы улучшаем сайт!
Принять и закрыть

Читать, слущать книги онлайн бесплатно!

Электронная Литература.

Бесплатная онлайн библиотека.

Читать: Естествознание. Базовый уровень. 11 класс - Владислав Иванович Сивоглазов на бесплатной онлайн библиотеке Э-Лит


Помоги проекту - поделись книгой:

3. Что такое вечный двигатель второго рода? Какое начало термодинамики запрещает его существование?

Задания

Объясните с точки зрения законов термодинамики, почему в жарком климате Средней Азии коренное население традиционно предпочитало тёплые халаты лёгкой одежде и горячий чай прохладительным напиткам.

§ 7 Энтропия

– Валяться нужно, – с глубокой убеждённостью отвечал Горбовский.

– Это философски необходимо. Бессмысленные движения руками и ногами неуклонно увеличивают энтропию Вселенной. Я хотел бы сказать миру: «Люди! Больше лежите! Бойтесь тепловой смерти!»

Аркадий и Борис Стругацкие. Полдень, XXII век

Мы убедились в том, что в естественных природных процессах постоянно происходит переход свободной энергии в связанную, а степень хаотичности движения молекул постоянно возрастает. По-видимому, требуется найти величину, которая бы позволила измерить соотношение обоих видов энергии и служить мерой её необратимого рассеивания. Такая величина была введена в 1865 г. Р. Клаузиусом и названа энтропией (от греч. «энтропиа» – внутреннее движение) (рис. 15).


Рис. 15. Р. Клаузиус

Клаузиус определил изменение энтропии как отношение изменения общей теплоты в системе к её абсолютной температуре:

∆S = ∆Q/T.

Следовательно, по мере поступления в систему теплоты её энтропия будет возрастать, а по мере потери теплоты – уменьшаться. Но из формулы следует, что степень изменения энтропии зависит ещё и от температуры, при которой происходит этот процесс. Рассмотрим, как изменится энтропия при отдаче или получении теплоты внутри системы.

Возьмём два одинаковых предмета, например кирпича, температура одного из которых равна T1, а второго – T2, причём T1 > T2, т. е. первый кирпич горячее второго. Приведём их в тепловой контакт, т. е. позволим им свободно обмениваться между собой теплотой. При этом система в целом останется изолированной. Если внешняя теплота в систему не поступает и своей теплоты система не теряет, то суммарное количество теплоты в ней остаётся постоянным. Что же будет происходить в такой системе? Очевидно, что через некоторое время горячий кирпич отдаст холодному какое-то количество теплоты ∆Q, а холодный ровно столько же её получит. Поскольку горячий кирпич теплоту потеряет, мы будем считать эту теплоту отрицательной (-∆Q), а теплоту, полученную холодным кирпичом, – положительной. Посмотрим, как изменится значение энтропии при такой теплопередаче. Горячий кирпич отдал теплоту в количестве ∆Q. Следовательно, его энтропия уменьшилась на величину ∆Q/T1. А холодный кирпич получил то же количество теплоты, и его энтропия увеличилась на величину ∆Q/T2. Но T1 > T2, и, следовательно, уменьшение энтропии горячего кирпича по абсолютной величине оказывается меньше, чем увеличение энтропии холодного кирпича. Получается, что естественный процесс передачи теплоты от более нагретого тела менее нагретому сопровождается ростом энтропии. До тех пор пока горячее тело будет остывать, а холодное за его счёт нагреваться, энтропия изолированной системы будет расти. В конце концов, температуры обоих тел сравняются, и процесс теплопередачи прекратится. В этом случае ∆Q = 0 и ∆S = 0, т. е. количество энтропии будет оставаться постоянным. Поскольку передача теплоты от менее нагретого тела более нагретому невозможна, изменение энтропии никогда не может быть отрицательным. Следовательно, ∆S ≥ 0, т. е. энтропия в изолированных системах никогда не уменьшается, что также можно считать одной из формулировок второго начала термодинамики. Это же положение можно выразить и так: «Все природные процессы сопровождаются увеличением энтропии».

В предыдущем параграфе мы говорили о том, что все самопроизвольные процессы сопровождаются выравниванием температуры в различных частях системы и переходом части свободной энергии в связанную энергию. Теперь мы видим, что этот процесс неизбежно сопровождается возрастанием некой физической величины, которую называют энтропией. Отсюда можно сделать вывод, что именно энтропия является мерой связанной, не способной совершать работу энергии. Математически это утверждение выражают уравнением Гиббса – Гельмгольца:

U = F + TS,

где U – полная внутренняя энергия, которой обладает система, F – свободная энергия этой системы, а TS – её связанная энергия, которая, как мы видим, равна произведению абсолютной температуры системы на её энтропию.

Это уравнение объединяет первое и второе начала термодинамики. Из него следует, что вся энергия, которой обладает система, не может быть превращена в работу. Работу можно совершать только за счёт затраты свободной энергии, а она, как следует из уравнения Гиббса – Гельмгольца, меньше, чем полная энергия системы:

F = U – TS.

Чем больше энтропия системы, тем меньше доля свободной энергии в полной энергии этой системы, тем меньшую работу она может совершать. Если система изолирована и в ней протекают самопроизвольные процессы, то в соответствии с первым началом термодинамики её полная энергия не меняется. Однако в соответствии со вторым началом её свободная энергия постепенно превращается в связанную.

В связи с этим возникает проблема, которая в течение многих лет волновала не только физиков, но и писателей-фантастов. Вселенная, как предполагают, является изолированной системой. А так как второе начало термодинамики утверждает, что в изолированных системах энтропия непрерывно возрастает, пока не достигнет максимума, то и энтропия Вселенной должна постоянно возрастать. Следовательно, когда-нибудь вся свободная энергия Вселенной перейдёт в связанную, температуры всех тел в ней выравняются, и никакую работу в ней совершить уже будет невозможно. Этот «конец света» Р. Клаузиус назвал «тепловой смертью Вселенной». Несмотря на то что тепловая смерть ожидалась не ранее чем через несколько миллиардов лет, многих это ожидание стало всерьёз беспокоить. Предпринимались многочисленные попытки опровергнуть гипотезу тепловой смерти, но все они казались не очень убедительными, и беспокойство в обществе сохранялось. Однако последние исследования показывают, что эта гипотеза неверна, потому что Клаузиус и его последователи не принимали во внимание многие существующие во Вселенной факторы, и прежде всего наличие гравитации.

Вернёмся к вопросу о том, что же всё-таки представляет собой энтропия. Только что мы убедились в том, что увеличение энтропии сопровождается выравниванием температуры в различных частях системы. Однако запас свободной энергии в системе может сохраняться даже в том случае, когда значения температуры во всех её участках равны. Это может быть в случае, когда внутри сосуда, содержащего какой-либо газ, дует ветер. С молекулярной точки зрения это означает, что, хотя средние скорости движения молекул во всех частях сосуда равны по модулю, направление движения этих молекул неодинаково вдоль различных координат. Если ветер дует преимущественно вдоль оси X, то это означает, что средняя скорость движения молекул вдоль этой оси больше, чем вдоль осей Y и Z.


Рис. 16. Л. Больцман

Но если скорости различаются, то энтропия в системе не максимальна, и в ней можно совершить какую-либо работу. Например, можно установить вертушку, которая будет вращаться под действием ветра и производить электрическую энергию. Значит, для того чтобы энтропия стала действительно максимальной, а вся имеющаяся в системе энергия – связанной, необходимо, чтобы не только средние скорости всех молекул были бы одинаковы по абсолютному значению во всех участках системы, но и все направления движения этих молекул были равновероятны.

Такое движение молекул называют беспорядочным или хаотичным. Следовательно, энтропия может служить мерой хаотичности движения молекул или мерой беспорядка в их движении. Такое статистическое обоснование энтропии предложил австрийский физик Людвиг Больцман (1844–1906), заложивший начало науки, которую называют статистической физикой (рис. 16). Однако впоследствии выяснилось, что понятие энтропии выходит далеко за рамки термодинамики и является одним из наиболее фундаментальных в исследовании окружающего нас мира.

Проверьте свои знания

1. С какой целью было введено понятие энтропии?

2. Как изменяется энтропия при протекании самопроизвольных процессов?

3. Что обозначают буквы в уравнении Гиббса – Гельмгольца:

U = F + TS?

4. Что такое «тепловая смерть Вселенной»? Вспомните, встречали ли вы какие-либо научно-популярные статьи на эту тему.

5. Что измеряется энтропией на молекулярном уровне?

Задания

Прочитайте и обсудите в классе научно-фантастический рассказ Айзека Азимова «Последний вопрос», посвящённый «тепловой смерти Вселенной».

§ 8 Энтропия и вероятность

Вопрос. Во сне приснились мышата и крысята в клетке, их было так много, я их кому-то показываю и открываю клетку, они разбегаются, а я их ловлю и в клетку обратно запихиваю! Вроде всех собрала обратно! К чему это?

Ответ. Всякий процесс сопровождается равномерным распределением в пространстве и, соответственно, ростом энтропии. Обратный процесс возможен только с использованием внешнего воздействия.

Трактовка сновидений

Итак, что же можно измерить с помощью энтропии? Если бы всё сводилось только к движению молекул и тепловым процессам, понятие энтропии не получило бы такого широкого распространения и популярности и не вышло бы за границы термодинамики.

Энтропию можно использовать при изучении самых различных явлений, а не только тех, которые сводятся к кинетической энергии молекул. Что же именно может характеризовать энтропия в универсальной картине мира? Очевидно, то же самое, что и в термодинамике, – степень беспорядка и хаоса.

Предположим, что у нас имеется некоторое число ячеек, в которые можно помещать одинаковые предметы в любом количестве.


Рис. 17. Схема возможных распределений шариков по ячейкам

В самом простом случае будем иметь дело всего с двумя ячейками и с четырьмя шариками, которые можно произвольно раскладывать по этим ячейкам. Обозначим ячейки как А и Б, а шарики пронумеруем – 1, 2, 3 и 4. Как можно распределить четыре шарика по двум ячейкам? На первом этапе мы не будем принимать во внимание номера шариков, а просто посмотрим, сколько их в каждой ячейке (рис. 17).

Легко убедиться в том, что существует пять вариантов расположения шариков. Обозначим их как состояния I, II, III, IV и V. Теперь обратим внимание на номера шариков и будем учитывать не только, сколько шариков находится в каждой ячейке, но и какие именно шарики там находятся. Мы увидим, что для каждого из состояний существует разное число способов размещения шариков. Состояние I можно осуществить единственным способом, поместив все четыре шарика в ячейку А. Состояние II допускает четыре способа распределения: в ячейке Б может оказаться любой из четырёх шариков. Состояние III (рис. 18) можно реализовать шестью способами. Наконец, состояния IV и V можно осуществить с помощью соответственно четырёх и одного вариантов, так же как и состояния II и I.

А теперь сравним вероятности того, что при случайном перемешивании шариков реализуется какое-либо из пяти возможных макросостояний. Вспомним сведения, которые мы получили ранее. Вероятность события определяется отношением числа благоприятных событий к общему числу возможных событий. В данном случае общее число событий равно 1 + 4 + 6 + 4 + 1 = 16, т. е. четыре шарика можно распределить по двум ячейкам шестнадцатью способами. Поскольку состояния I и V можно реализовать единственным способом, вероятность того, что все шарики окажутся в ячейке А, так же как и вероятность того, что все они попадут в ячейку Б, будет равна 1∕16. Вероятность того, что в ячейке А (или Б) окажется один шарик, а остальные попадут в другую ячейку, равна 4/16. Вероятность же того, что шарики расположатся равномерно, по два в каждой ячейке, составит 6/16. Можно подсчитать эти вероятности для любого числа ячеек и для любого числа шариков (или молекул), и всякий раз мы будем убеждаться в том, что чем равномернее распределены предметы по ячейкам, тем вероятнее такое распределение. В этом нетрудно убедиться на любом примере. Насыплем в стакан с водой немного сахарного песка.

Сначала наибольшая концентрация сахарного сиропа будет возле дна стакана, но со временем сахар растворится, и концентрация выравняется по всему объёму.


Рис. 18. Реализация состояния III

Представить, что молекулы сахара самопроизвольно соберутся в некоторой части сосуда, практически невозможно, потому что вероятность такого события ничтожно мала.

Таким образом, вероятность состояния с равномерным распределением оказывается наибольшей по сравнению со всеми другими возможными состояниями, и все естественные процессы направлены в сторону достижения этого наиболее вероятного состояния. Но мы также знаем, что в результате всех природных процессов происходит увеличение энтропии. Напрашивается вывод, что между вероятностью существования данного состояния и энтропией должна существовать связь. Эта связь действительно существует, и впервые её охарактеризовал Л. Больцман. Он имел в виду термодинамические процессы, а мы будем рассуждать в рамках наших ячеек и шариков.

Будем называть, как это сделал Больцман, наши состояния I–V макросостояниями. Макросостояние определяется тем, сколько шариков находится в данной ячейке, и не интересуется тем, какие шарики там находятся. В противоположность этому микросостояние определяется тем, какие именно шарики в какой ячейке находятся. Понятно, что, для того чтобы определить микросостояние, требуется более глубокое и внимательное изучение (например, цифры на шариках могут быть едва заметными), поэтому оно так и называется. Разным макросостояниям соответствует различное число микросостояний. Чем более равномерным является распределение шариков по ячейкам, тем больше вероятность такого макросостояния и тем больше микросостояний ему соответствует. Но для такого состояния характерна и наибольшая энтропия. Из этого Больцман сделал вывод, что энтропию данного макросостояния можно измерить числом микросостояний, которым оно определяется. Более точно, энтропия пропорциональна логарифму этого числа. В физике энтропию принято обозначать буквой S, поэтому формулу, выведенную Больцманом, можно представить так:

S = klog W,

где k – коэффициент пропорциональности, а W – число микросостояний, соответствующих данному макросостоянию.

Состояние I, так же как и состояние V, определяется единственным микросостоянием. Так как логарифм единицы по любому основанию равен нулю, то и энтропия этих состояний равна нулю. Это значит, что в этих состояниях существует абсолютный порядок. Число микросостояний, которые определяют макросостояния I и IV, равно четырём, а значит, энтропия каждого из них равна log 4. Величина этого логарифма зависит от того, какое основание для логарифмирования мы выберем. Вообще говоря, основание может быть любым, так как в зависимости от этого изменится только коэффициент пропорциональности. Но по причинам, о которых вы узнаете в дальнейшем, нам будет удобно выбрать основание 2. Тогда энтропия макросостояний I и IV будет равна двум. Самым «беспорядочным» из наших макросостояний будет состояние III, которое может осуществиться шестью микросостояниями. Следовательно, энтропия этого, наиболее вероятного, состояния равна логарифму 6 по основанию 2, что составляет приблизительно 2,6.

Проверьте свои знания

1. Что такое макро– и микросостояние?

2. Чему равна энтропия макросостояния, которое обеспечивается единственным микросостоянием?

3. Почему макросостояние, при котором число шариков в каждой ячейке одинаково, оказывается наиболее вероятным?

4. Какие у создателей статистической физики были основания сопоставить вероятность состояния с его энтропией?

Задания

Предположим, что у нас имеется 6 шариков, которые могут быть распределены по двум ячейкам.

A. Составьте таблицу, в которой будут указаны все возможные макросостояния.

Б. Составьте таблицу, в которой будут указаны все микросостояния для каждого макросостояния.

B. Найдите вероятность каждого макросостояния.

§ 9 Информация

Есть у меня шестёрка слуг,Проворных, удалых,И всё, что вижу я вокруг, —Всё знаю я от них.Они по знаку моемуЯвляются в нужде.Зовут их: Как и Почему,Кто, Что, Когда и Где.Р. Киплинг

Любое живое существо постоянно передаёт во внешний мир какие-то сигналы, а также получает сигналы из окружающей его среды.


Рис. 19. К. Шеннон

Человеку свойственна непрерывная познавательная деятельность, в течение жизни он постоянно узнаёт что-то новое и что-то в устной или письменной форме сообщает другим людям. Мы постоянно передаём окружающим и получаем от них знаки и сообщения, содержащие сведения о мыслях, чувствах, мнениях или желаниях. Мир этих сообщений и способов их передачи кажется необъятным, не поддающимся никакому строгому формальному описанию, тем более в математической форме.

Тем не менее в первой половине XX в. встал вопрос о необходимости введения количественной характеристики для передаваемых и принимаемых сообщений. Эта количественная характеристика вскоре получила название информация. Официально создателем теории информации считается американский инженер и математик Клод Шеннон (1916–2001), опубликовавший свою работу в этой области в 1948 г., хотя ещё в начале XX в.  у него были предшественники (рис. 19). Работая в компании «Белл», Шеннон занимался процессами передачи сообщений, а во время Второй мировой войны много времени уделял процедуре шифрования (рис. 20). Перед исследователями, занимавшимися проблемами связи, стоял вопрос, как передать полезное сообщение с максимальной точностью и минимальными затратами. Для этого требовалось знать, сколько информации попало к потребителю и сколько её потерялось в процессе передачи. Поэтому количество информации необходимо было измерить.

Как можно измерить информацию? Прежде всего, надо уяснить, что информация – это не характеристика сообщения, а характеристика отношения между сообщением и его потребителем. Одно и то же сообщение может содержать огромную информацию для одного потребителя и нулевую – для другого, например для человека, незнакомого с языком, на котором передано это сообщение.

Логично предположить, что количество содержащейся в сообщении информации зависит от того, насколько это сообщение было неожиданным. Ведь если мы заранее знали всё, о чём нам сообщили, то никакой информации нам это сообщение не дало. Но как измерить степень неожиданности строгой количественной мерой? Допустим, получив сообщение, мы не узнали ничего нового. Это означает, что результат был известен нам и до сообщения и мы могли предугадать его с вероятностью, равной единице. Значит, единичной вероятности соответствует нулевая информация. Но если мы не были уверены в правильном ответе на интересующий нас вопрос, мы вместе с точным ответом получаем и какую-то информацию. Определить её количество можно, если представить себе, что такое самый простой вопрос. Очевидно, это такой вопрос, на который можно ответить либо «да», либо «нет».


Рис. 2 0. Лаборатория «Белл» в Мюррей Хилл (Нью-Джерси, США), работая в которой в 1948 г. Клод Шеннон опубликовал статью «A Mathematical Theory of Communication», одну из основополагающих работ по теории информации.

Если мы не имеем заранее никаких предположений, то, независимо от того, каким будет ответ, мы получаем одно и то же количество информации. Это количество представляет собой единицу информации и называется бит.

В том случае, когда ответ нельзя получить сразу, требуется задавать дополнительные вопросы. Самой эффективной для спрашивающего будет такая стратегия, когда он задаёт вопросы с возможными ответами «да» или «нет», причём вероятности получить тот или иной ответ кажутся ему одинаковыми. На этом строится широко известная игра в угадывание известного человека или кого-нибудь из присутствующих. Угадывающий мысленно разбивает ответы на две, как ему кажется, равновероятные части и задаёт вопрос, ответ на который может быть положительным или отрицательным. Каждый раз он получает информацию, равную одному биту. Количество полученной при угадывании информации равно числу вопросов, которые пришлось задать игроку. Искусство угадывания зависит от того, каким образом должен быть поставлен вопрос. Приведём один из возможных примеров такой игры. Допустим, требуется угадать Исаака Ньютона. Можно представить, что игра проходит следующим образом.

1. «Это государственный деятель?» – «Нет!» – 2. «Занимался искусством?» – «Нет!» – 3. «Занимался наукой?» – «Да!» – 4. «Биологией?» – «Нет!» – 5. «Физикой?» – «Да!» (Теперь можно угадывать либо по времени, в котором жил этот учёный, либо по его национальности. Первый вариант представляется более простым, так как большинство известных нам учёных жили либо в XIX, либо в XX в. Поэтому можно поставить следующие вопросы.) – 6. «Живёт в наше время?» – «Нет!» – 7. «Жил в прошлом веке?» – «Нет!» (Значит, он жил либо в XIX в., либо раньше.) – 8. «Жил в девятнадцатом веке?» – «Нет!» (Значит, этот человек либо из Древней Греции, либо из XVI–XVIII вв., уточним.) – 9. «Жил после пятнадцатого века?» – «Да!» (Большинство учёных этого времени жили в Англии, Италии или во Франции, поэтому попробуем угадывать по национальности.) – 10. «Англичанин?» – «Да!» (Повезло! Из всех англичан, занимавшихся в это время наукой, самым известным был Ньютон. Теперь можно попробовать угадать напрямую.) – 11. «Ньютон?» – «Да!!!» Ответ найден. Для этого потребовалось задать одиннадцать вопросов. Значит, мы получили одиннадцать бит информации? Не совсем так. Дело в том, что при таком угадывании многое зависит от интуиции и везения. Если бы мы начали угадывать национальность не с Англии, а сначала поинтересовались бы, не является ли он итальянцем, а потом – французом, нам пришлось бы задать на два вопроса больше. Наоборот, если бы мы не стали уточнять, какой именно наукой занимался учёный, а продолжали бы интересоваться, в какое время он жил, мы могли бы сэкономить два вопроса. Таким образом, оценка полученной информации, равная 11 битам, является очень приблизительной.

Как уже говорилось, количество содержащейся в сообщении информации неодинаково для каждого получателя этого сообщения и зависит от его предварительного знания. Поэтому объективно можно определить только максимальное количество этой информации, предполагая, что получатель заранее не имеет никаких знаний по этому вопросу. Предположим, что нам сказали, что Юпитер является самой большой планетой Солнечной системы. Какая информация содержится в этом сообщении? Для того, кто это знал заранее, – никакой. Для того, кто предполагал, но сомневался, – определённое количество, точно оценить которое трудно. Поэтому вычислим максимальную информацию, которую получает человек, не имеющий никакого понятия о планетах, и знает только их названия и то, что всего их имеется восемь. Сколько вопросов он должен задать, чтобы узнать, какая из этих планет самая большая? Для удобства он располагает все планеты в алфавитном порядке: Венера, Земля, Марс, Меркурий, Нептун, Сатурн, Уран, Юпитер. Можно попробовать, конечно, просто перечислять планеты в этом порядке, но такой способ угадывания будет неудачным потому, что придётся задать семь вопросов и получить на все ответ «нет», пока мы не доберёмся до самой большой, но последней по алфавиту планеты. Поэтому правильнее будет поступить так: разделить все планеты на две равные группы и спросить, принадлежит ли самая большая к одной из них. Поскольку наш персонаж ничего не знает о планетах, кроме их названий, он может спросить: «Буква, с которой начинается название этой планеты, стоит в алфавите до Н?» – и получить отрицательный ответ. Вторым вопросом будет «Находится ли эта буква после С?». Ответом будет «да». Теперь осталось только выяснить, Уран это или Юпитер, с помощью одного вопроса. Таким образом, человеку, абсолютно несведущему в данной области, достаточно задать три вопроса, чтобы получить верный ответ. Следовательно, информация, содержащаяся в сообщении «Юпитер – самая большая планета Солнечной системы», равна 3 битам.

Предположим теперь, что в тексте наугад выбрана одна из 32 букв кириллицы (не будем учитывать «ё»). Как должен поступить человек, не знающий языка, чтобы, действуя наугад, узнать эту букву? Очевидно, он должен сначала выяснить, в какой половине алфавита находится эта буква. Затем он должен разбить эту половину, состоящую из 16 букв, на две восьмёрки и задать соответствующий вопрос. С помощью третьего вопроса он определит четвёрку, с помощью четвёртого – пару букв и, наконец, в результате пятого вопроса он узнает загаданную букву. Следовательно, информация, указывающая на определённую букву тридцатидвухбуквенного алфавита, равна 5 битам.

Проверьте свои знания

1. Может ли информация полностью определяться сообщением?

2. В каком случае сообщение не содержит информации?

3. Какое сообщение содержит 1 бит информации?

4. В каком случае и для какого получателя информация, содержащаяся в сообщении, оказывается наибольшей?

5. Где в биологии используется подобное пошаговое (повопросное) движение с двумя возможными вариантами ответов («да»/«нет»)?

Задания

Попросите вашего одноклассника загадать кого-нибудь из ваших общих знакомых. Задавая вопросы, на которые он может отвечать «да» или «нет», определите, кого он загадал. Оцените в битах объём полученной вами информации.

§ 10 Информация, вероятность и энтропия

Быть объектом удивления приятно уже потому, что с этим связан почёт.

Аристотель


Поделиться книгой:

На главную
Назад