Сесар Идальго
Как информация управляет миром
Cesar Hidalgo
WHY INFORMATION GROWS
© 2015 by Cesar Hidalgo. All rights reserved
© Райтман М. А., перевод на русский язык, 2016
© ООО «Издательство «Э», 2016
Пролог
Вечная война
Вселенная состоит из энергии, материи и информации, однако именно информация делает Вселенную интересной. Без информации Вселенная представляла бы собой аморфный суп. В ней отсутствовали бы формы, структуры, апериодические порядки и фрактальные закономерности, которые делают Вселенную такой красивой и сложной.
Тем не менее информация встречается редко. Она скрывается, пытаясь сопротивляться извечному стремлению Вселенной к беспорядку – к увеличению энтропии. Эта книга посвящена росту объема информации и механизмам, которые позволяют информации бороться со случайностью и расти. К этим механизмам относятся как естественные процессы, способствующие возникновению информации, так и социальные и экономические механизмы, которые ускоряют темп увеличения объема информации в обществе. В этой книге говорится о росте объема информации, то есть об усилении физического порядка, что делает нашу планету уникальной, богатой и неравномерной, начиная от атомов и заканчивая экономиками.
Большая часть этой книги посвящена нашей планете и живущим на ней видам. Это связано с тем, что с космической точки зрения наша планета представляет собой особенное место. Мы знаем о многих местах нашей Вселенной, в которых сконцентрировано больше материи и энергии, чем на Земле, но нам неизвестны места, в которых было бы сконцентрировано больше информации. Нейтронные звезды являются настолько плотными, что чайная ложка их вещества весит больше, чем Эмпайр-стейт-билдинг. Черные дыры настолько массивны, что они искажают геометрию пространства. Энергия также присутствует в огромном количестве в миллиардах звезд нашей галактики, однако ее не так много на нашей планете. Таким образом, особенностью нашей планеты является не материя или энергия, а физический порядок, или информация. Для информации наша планета представляет то же, что черная дыра для материи или звезда для энергии. Наша планета – это место посреди бесплодной Вселенной, где информация живет, растет и прячется.
Однако откуда же берется информация? Почему информация сосредоточена на нашей планете и как жизнь способствует росту ее объема? Какие социальные и экономические механизмы обеспечивают постоянное увеличение объема информации в обществе? Как социальное накопление информации улучшает нашу способность накапливать еще больше информации? И как механизмы, способствующие росту объема информации, обусловливают социальную и экономическую неравномерность мировой экономики?
Далее мы узнаем о том, что собой представляет информация, откуда она берется и чем вызван рост ее объема. Мы узнаем о природных, социальных и экономических механизмах, которые помогают информации бунтовать против энтропии. Мы узнаем о механизмах, которые помогают информации выигрывать небольшие битвы, стоически сражаясь в единственной истинной войне нашей Вселенной – в войне между порядком и беспорядком, между энтропией и информацией.
Введение
От атомов до людей и экономик
Людвиг был несчастным человеком. Стала ли смерть его сына последней каплей? Или он страдал от критики со стороны своих коллег? Может быть, он слишком любил атомы?
Во время летних каникул Людвиг покончил с собой. Его младшая дочь Эльза обнаружила его повешенным. Она отказывалась говорить об этом эпизоде на протяжении всей своей жизни.
Конечно, я говорю о Людвиге Больцмане. Он был не только успешным ученым, но и неуверенным в себе человеком. Людвиг внес важный вклад в наше понимание природы. Тем не менее его научные выводы не избежали критики.
Людвиг верил в атомы в то время, когда многие из его коллег считали их не более чем удобной аналогией. Их скептицизм беспокоил его. С одной стороны, он знал, что находится на верном пути. Он показал, что эмпирическое поведение газов может быть обусловлено коллективным движением молекул или атомов. Это открытие предоставило ему косвенные доказательства существования атомов, но не дало способа их непосредственного наблюдения.
Отсутствие прямых доказательств сделало Людвига уязвимым к критике его коллег. Физик и философ Эрнст Мах утверждал, что наука должна сосредоточиваться только на отношениях между непосредственно наблюдаемыми величинами. Такие дополнительные теоретические конструкты, как атомы Больцмана, были недопустимы.
Однако у Людвига были неприятности не только с обществом. На протяжении десятилетий он пытался объяснить происхождение физического порядка. Его попытки, несмотря на научную плодотворность, также оказались безуспешными. Предсказания теории Людвига противоречили тому, что он хотел показать. Его повседневный опыт демонстрировал, что порядок вокруг него увеличивается: цветы цветут, деревья растут, а общество, в котором быстро развивается индустриализация, каждый день разрабатывает новые устройства. Тем не менее теория Людвига предсказывала, что порядок должен не расти, а исчезать. Это объясняло, почему горячее тело остывает, почему завитки молока рассеиваются в кофе и почему шепот исчезает в ветре. Людвиг показал, что микроструктуры Вселенной пожирают порядок, делая его эфемерным. Однако он понимал, что это было не все и что ему были неизвестны механизмы, которые помогают информации пересекать пределы.
Рост порядка беспокоил Людвига. Его тревога может быть понятна только ученому. Он знал, что в его теории чего-то не хватает, однако не мог определить, чего именно. К концу жизни Людвиг устал от сражений с людьми и природой. Он попытался решить проблему с помощью веревки, после чего осталась лишь оболочка из атомов, которая начала устойчивый, но однозначный распад, как и предсказывала его теория.
В 1906 году Людвиг покончил с собой, но не с философскими проблемами, которые его волновали. Чтобы объяснить происхождение физического порядка, Людвиг связал явления различных пространственных масштабов, в основном атомы и газы.[1] Несмотря на то, что сегодня это имеет смысл, во времена Людвига работа с разными пространственными масштабами являлась практикой, нарушающей негласный договор между учеными. Многим коллегам Людвига наука представлялась чем-то вроде иерархии русских матрешек с новыми структурами, возникающими на каждом уровне. Такое видение делало пересечение границ ненужным. Экономика не нуждалась в психологии, а психологии не нужна была биология. Биология не нуждалась в химии, а химия – в физике. Объяснение газов с точки зрения атомов, хотя и не было таким же нелепым, как объяснение поведения человека, исходя из биологических предпосылок, считалось предательством этой негласной договоренности. Больцман «согрешил», пытаясь объяснить макроскопические свойства газов движением атомов.
Двадцатый век подтвердил верность взгляда Людвига на атомы и, в меньшей степени, оправдал его страсть к пересечению академических границ. Квантовая механика помогла объединить атомы Людвига с химией и материаловедением. Молекулярная биология и биохимия позволили объединить биологию клетки с химическими свойствами населяющих ее белков. Параллельно этому биология подружилась с психологией, когда теория Дарвина легла в основу объяснения человеческого поведения.[2] Тем не менее не все взаимообогащение имело место у известных научных границ. В этих междисциплинарных танго существовала концепция, которая танцевала сразу со всеми партнерами. Это была идея
Информация являлась объектом восхищения для Людвига. Это то, что ускользало от него и что он неустанно стремился объяснить: почему порядок во Вселенной стремится сойти на нет при его нарастании на Земле.
В ХХ веке продолжился не только рост объема информации, но и попытки ученых понять это явление. Однако на этот раз изучение информации было вдохновлено не красотой природы, а ужасами войны. Во время Второй мировой войны у конкурирующих армий возникла потребность в общении с использованием секретных кодов. Эти коды вызывали необходимость в расшифровке перехваченных сообщений, что стало причиной изучения информации с помощью математических методов.
Кодирование и декодирование сообщений являлось математической задачей, которая была слишком интересной, чтобы оставить ее после окончания войны. Математики продолжили формализацию идеи информации, однако встроили свои попытки в контекст коммуникационных технологий, превзойдя потребность в расшифровке перехваченных сообщений. Математики, которым удалось достичь успеха, стали известны в мире в качестве первых информационных теоретиков или кибернетиков. Среди этих пионеров были Клод Шеннон, Уоррен Уивер, Алан Тьюринг и Норберт Винер.
В 1950-х и 1960-х годах идея информации взяла науку штурмом. Информация была принята во всех академических областях в качестве мощной концепции, пересекающей границы разных наук. Информация не была ни микроскопической, ни макроскопической[3]. Ее можно было записать на глиняных табличках или плотно упаковать в цепочке ДНК. Для многих практических целей масштаб информации был не важен. Эта независимость от масштаба сделала идею информации привлекательной для ученых всех областей, которые приняли эту концепцию и наделили ее особенностями своей дисциплины.
Биологи восприняли эту идею в результате исследования того, как гены кодируют наследственную информацию. Инженеры, вдохновленные работами Шеннона, изобретали передатчики и приемники, оплетая мир аналоговыми и цифровыми сетями. Ученые, работавшие в сфере компьютерных технологий, психологи и лингвисты предприняли попытки смоделировать мозг с помощью электронных мыслящих машин. После того как ХХ век изжил атомный дух времени, новым тузом в руке у каждого стала информация.
Идея информации также нашла свое место в социальных науках, и в частности в экономике. Фридрих Хайек, австрийский экономист и современник Шеннона, утверждал, что цены передают информацию о предложении и спросе на товары. Это помогло выявить информацию, необходимую для работы «невидимой руки» Смита. Как писал Хайек, «в системе, в которой знание соответствующих фактов распределено среди многих людей, цены могут координировать их отдельные действия».[4]
Идея информации также помогла экономистам понять некоторые важные проблемы рынка. Джордж Акерлоф прославился, показав, что рынки могут не работать, если люди обладают асимметричной информацией о качестве товаров, которые они хотели бы обменять.[5] Параллельно с этим Герберт Саймон, эрудит, который внес вклад в экономику, организационную теорию и сферу искусственного интеллекта, выдвинул идею ограниченной рациональности, которая сосредоточивалась на поведении экономических субъектов, имеющих ограниченную информацию о мире.
На протяжении ХХ века идея информации постепенно приобрела глобальное значение. Однако по мере роста ее популярности мы стали забывать о телесности информации, которая тревожила Больцмана. Слово
В 1949 году Клод Шеннон и Уоррен Уивер опубликовали небольшую книгу под названием «Математическая теория связи». В ее первом разделе Уивер описал концептуальные аспекты информации. Во втором разделе Шеннон описал математику того, что теперь нам известно как теория информации.
Для правильного понимания теории информации Шеннону и Уиверу нужно было отстраниться от слова «информация» в его разговорном смысле. Уивер описал это различие в начале своего эссе: «Слово “информация” в данной теории используется в особом смысле, и его не следует путать с обычным способом употребления. В частности, понятие “информация” нельзя путать с понятием “значение”».[6]
Шеннон также отметил это в начале своего раздела, используя аргументы из области инженерии вместо семантических различий: «Фундаментальная проблема связи заключается в точном или приблизительном воспроизведении в одной точке сообщения, взятого из другой точки. Часто эти сообщения имеют значение… Эти семантические аспекты коммуникации [относящиеся к смыслу сообщения] не имеют отношения к инженерной задаче».[7]
Однако почему Шеннон и Уивер так стремились отделить информацию от значения? На это были как технические, так и философские причины. С технической точки зрения Шеннон был заинтересован в строительстве машин, которые могли бы передавать информацию независимо от смысла сообщения. Смешение информации со значением сбивало с толку при решении инженерной задачи. С философской точки зрения Шеннон и Уивер понимали, что их слова «информация» и «значение» относятся к принципиально различным понятиям. Люди и некоторые машины способны интерпретировать сообщения и наделять их смыслом. Однако то, что передается по проводам или посредством электромагнитных волн, это не значение, а всего лишь информация.
Людям сложно отделить информацию от значения, поскольку мы склонны к интерпретации сообщений. Мы наделяем сообщения смыслом автоматически, ошибочно полагая, чтозначение сообщения заключается в самом сообщении. Однако это не так. Это только иллюзия. Значение выводится из контекста и уже имеющегося знания. Значение – это интерпретация, которую познающий субъект, например человек, дает сообщению, но которая отличается от физического порядка, передающего данное сообщение, а также от самого сообщения. Значение возникает тогда, когда сообщение достигает формы жизни или машины, способной обрабатывать информацию. Оно не заключено в чернильных пятнах, звуковых волнах, лучах света или электрических импульсах, передающих информацию.
Подумайте о фразе «11 сентября». Когда я произношу эту фразу, большинство американцев автоматически вспоминают об атаке на башни-близнецы в 2001 году. Чилийцы обычно думают о государственном перевороте в 1973 году. Однако, произнося фразу «11 сентября», я могу просто сказать своим студентам о том, что в этот день я планирую вернуться в Массачусетский технологический институт. Как видите, значение придаете вы. Оно не является частью сообщения, хотя так может показаться. Значение – это то, что мы бесшовно присоединяем при интерпретации сообщений, поскольку людям свойственно интерпретировать проявления физического порядка. Однако эта цельность не означает то, что значение и информация являются одним и тем же.
Чтобы создать машину, которая могла бы передавать информацию, независимо от значения сообщения, Шеннону требовалась формула для оценки минимального количества символов, необходимых для кодирования сообщения. Основываясь на работе Гарри Найквиста и Ральфа Хартли, Шеннон приблизительно определил объем информации, требуемый для передачи сообщения через чистый или подверженный помехам канал. Он также оценил экономичность коммуникации, обусловленную корреляциями в структуре сообщений, например тем фактом, что в английском языке буква
Совпадение формул Шеннона и Больцмана говорит о физической природе информации. Эта физическая реальность имеет решающее значение для понимания того, как изучение атомов может помочь нам разобраться в экономике. По большей части естественные науки сосредоточивались на описании нашей Вселенной, начиная с атомов и заканчивая людьми, соединяя простоту атома со сложностью жизни.[9] Социальные науки фокусировались на связях между людьми, обществом и экономикой, рассматривая человека в качестве основополагающего блока – социального и экономического атома, если можно так выразиться. Тем не менее это разделение не обошлось без потерь, поскольку механизмы, позволяющие информации накапливаться, преодолевают барьеры, отделяющие неживое от живого, живое от социального и социальное от экономического.
Поэтому я посвящу следующие страницы описанию механизмов, которые способствуют росту объема информации на всех уровнях, начиная с атомов и заканчивая экономиками. Не от атомов к людям или от людей к экономике, как это обычно делается. Это поможет нам навести мосты между физическими, биологическими, социальными и экономическими факторами, которые способствуют накоплению информации, а также ограничивают нашу способность ее обрабатывать. К способности обработки информации относится вычисление, и на уровне человека она требует «программного обеспечения», которое мы называем «знанием» и «ноу-хау». В результате получится книга об истории нашей Вселенной, основанной не на стреле времени, а на стреле сложности.
И это именно стрела сложности, то есть роста объема информации, определяет историю нашей Вселенной и живущих в ней видов. Миллиарды лет назад, вскоре после Большого Взрыва, наша Вселенная не могла создавать порядок, который восхищал Больцмана и который все мы воспринимаем как должное. С тех пор наша Вселенная двигалась к беспорядку, как предсказывал Больцман, однако параллельно с этим она создавала места, в которых концентрировались огромные объемы физического порядка или информации. Наша планета является явным примером такого места.
Волна звезд, предшествовавшая образованию нашей Солнечной системы, синтезировала атомные элементы, необходимые для появления форм жизни. К этим элементам относятся углерод, кислород, кальций, азот и железо. Из останков этих звездных предков сформировалось новое поколение звезд. На этот раз планеты, которые кружили вокруг них, были богаты химическими веществами, необходимыми для развития жизни. Наша планета, возраст которой составляет четыре или пять миллиардов лет, с тех пор использовала это химическое богатство для того, чтобы стать примером особенной сложности. На протяжении миллиардов лет объем информации на нашей планете продолжал расти: сначала в химическом составе, затем в простых формах жизни, а в последнее время – в нас. Во Вселенной, которая в основном представляет собой пустое пространство, наша планета является оазисом, где объем информации, знания и ноу-хау продолжает увеличиваться благодаря энергии солнца, а также самоусиливающимся механизмам, под которыми мы понимаем жизнь.
Тем не менее путь от физики звезд до форм жизни, которые населяют нашу планету, включает всего два пункта на временной шкале сложности и информации. Эволюция информации преодолевает все границы, распространяясь даже на информацию, порождаемую нашей экономикой и обществом. Информация, понимаемая в широком смысле как физический порядок, это то, что производит наша экономика. Это
Однако произвести информацию нелегко. Вселенной с трудом удается это делать. Наша способность порождать информацию и производить предметы, инфраструктуры и институты, которые мы ассоциируем с процветанием, требует от нас борьбы с постоянным стремлением к беспорядку, характеризующему нашу Вселенную и беспокоившему Больцмана. Для борьбы с беспорядком и обеспечения роста объема информации наша Вселенная использует несколько приемов. К этим приемам относятся неравновесные системы, накопление информации в твердых телах и способность материи производить вычисления. Вместе три эти механизма способствуют росту объема информации на небольших островках или в пакетах, где информация может накапливаться и скрываться, например в нашем теле или нашей планете.
Таким образом, накопление информации и наша способность ее обрабатывать определяет стрелу роста, затрагивающую физическое, биологическое, социальное и экономическое и простирающуюся от момента возникновения Вселенной до современной экономики. Именно рост объема информации объединяет возникновение жизни с ростом экономики и появление сложности с истоками богатства.
Тем не менее рост объема информации происходит неравномерно не только во Вселенной, но и на нашей планете. Он происходит в своеобразных пакетах, способных порождать и хранить информацию. Города, фирмы и группы представляют собой пакеты, в которых наши виды накапливают потенциал для производства информации. Разумеется, способность этих городов, фирм и групп порождать информацию является крайне неравномерной. Некоторые способны производить информацию, которая воплощает научно фантастические концепции. Другим до этого еще далеко.
Таким образом, исследуя сущность информации и причины ее накопления, мы проследим эволюцию не только физического, но и экономического порядка. Мы объединим основные физические принципы с теорией информации, а также с теориями социального капитала, экономической социологии, теориями познания и практиками промышленной диверсификации и экономического развития. Разбираясь в причинах роста объема информации, мы проследим эволюцию процветания, поговорим о богатых и бедных странах, о продуктивных и непродуктивных командах, о роли институтов для нашей способности аккумулировать знания, а также о механизмах, которые ограничивают способность людей производить пакеты физически воплощенной информации. Мы отойдем на шаг назад от традиционных подходов к пониманию социальных и экономических явлений. Вместо этого мы попытаемся сгенерировать описание, которое стремится интегрировать физические, биологические, социальные и экономические механизмы для объяснения постоянного роста того, что не является
Часть I
Биты в атомах
Глава 1
Секрет путешествия во времени
Стул, на котором я ожидал рождения своей дочери, был не очень удобным. Моя жена Анна и я приехали в Главный госпиталь Массачусетса в 6:30 вечера в ту субботу. Мы оставались дома, пока развивались ее схватки, и решили направиться в больницу, когда интервал между ними сократился до нескольких минут. Ее схватки усилились во время медицинской сортировки, но обезболивающий укол, который ей сделали пару часов спустя, дал необходимый отдых. На часах было 2:00. Ночь прошла спокойно. Слышался только периодический шум прибора, измеряющего ее давление. Комнату освещали несколько дисплеев и уличные фонари, отражающиеся в реке Чарльз. В этой полутьме я видел только Анну, мирно отдыхающую на кровати. Я держал ее за руку и ждал рождения нашей дочери, сидя в кресле, которое, как я уже говорил, не было особенно удобным.
В 3:00 утра медсестра сказала нам, что Анне пора тужиться. Анна была полностью готова, и наша дочь Айрис начала одно из важнейших путешествий в своей жизни. Жене потребовалось всего двадцать шесть минут, чтобы вытолкнуть Айрис в руки нервничающего, но сосредоточенного студента-медика, который принял ее. Двадцать шесть минут кажется коротким временем для родов, и это действительно так. Тем не менее я утверждаю, что путешествие, которое Айрис проделала в ту ночь, представляло собой не просто продвижение по нескольким сантиметрам родовых путей в течение двадцати шести минут, а 100-тысячелетнее путешествие из далекого прошлого в неизвестное будущее. За двадцать шесть минут Айрис проделала путь из древности чрева своей матери в современность общества XXI века. Рождение, в сущности, представляет собой путешествие во времени.
До той ночи, за исключением нескольких звуков, мир для Айрис представлял собой тот же мир, что и для младенцев сто тысяч лет назад. Она находилась в утробе матери и слышала в основном только голоса родителей, не представляя сложности окружающего ее современного мира. В ночь ее рождения все изменилось.
Айрис родилась в 3:26 утра в комнате, освещенной не солнечными лучами, а флуоресцентными светильниками и лампами накаливания. Ее бабушка и дедушка, которые с тревогой ожидали новостей, впервые увидели ее лицо во вложении в электронном письме. Музыка, наполнившая палату после рождения Айрис, была не пением птиц и не шелестом деревьев, а лилась из динамиков планшетного компьютера, который повиновался приказам алгоритма, выбравшего для нас песню.[10] В ту ночь Айрис за несколько минут проделала путь в несколько сантиметров, однако в более глубоком смысле она совершила намного более длительное путешествие. В ночь своего рождения она переместилась из далекого прошлого в поистине фантастическое настоящее.
Несмотря на то, что путешествие Айрис имеет для меня особое значение, ее способ путешествия во времени не является редкостью. Рождение в XXI веке представляет собой чуждый опыт для большинства детей. Мир XXI века значительно отличается от того, в котором эволюционировал наш вид. Это сюрреальный мир, наполненный материальными объектами, которые до своего появления представлялись в воображении. Палата, в которой родилась Айрис, была полна материальных объектов, однако современным этот мир делали не эти объекты. Различие между миром, в котором родилась Айрис, и миром ранних гоминид заключается не в телесности материи, а в способе ее организации. Этот физический порядок представляет собой информацию. Ночному рождению Айрис способствовали не объекты, а заключенная в них информация и практическое использование знания и ноу-хау, которые неявно присутствуют в этих объектах. Палата, в которой родилась Айрис, была освещена не только лампами, но и пониманием электричества, энергии и материалов, используемых в этих лампах. В ту ночь Айрис было тепло благодаря не случайному скоплению нитей, а одеялам, сотканным из материи, знаний и воображения. Как это ни парадоксально, но Айрис родилась в реальном мире, который, хотя и является материальным, имеет свое происхождение в воображении. Этот мир отличается от того, в котором эволюционировал наш вид, только способом организации материи.
Тот факт, что объекты являются воплощением информации и воображения, может показаться очевидным. Информация – это фундаментальный аспект природы, который старше самой жизни. Кроме того, по мере развития жизни накопление информации происходило с ускорением. Рассмотрим репликацию таких информационно насыщенных молекул, как ДНК и РНК. Репликация ДНК и РНК является процессом воспроизведения не материи, а заключенной в ней информации. Живые организмы представляют собой хорошо организованные структуры, которые обрабатывают и производят информацию. Тем не менее мы сосредоточим свое внимание не на способности генерировать информацию, заключенную в наших клетках, а на той способности, которая возникла с появлением людей и общества. Люди – это особые животные в плане информации, поскольку в отличие от других видов мы развили способность кодировать большие объемы информации вне нашего тела. Наивно полагать, что речь идет об информации, закодированной в книгах, нотах, аудио– и видеозаписях. Еще до освоения письма мы воплощали информацию в артефактах или предметах, начиная со стрел и каменных топоров и заканчивая микроволновыми печами и Интернетом. Таким образом, наша способность производить стулья, компьютеры, скатерти и бокалы является простым ответом на вечный вопрос: в чем разница между нами, людьми, и всеми другими видами? Ответ заключается в том, что мы умеем создавать физические инстанциации объектов, которые мы представляем в своем воображении, в то время как другие виды ограничены тем, что создает природа.[11]
На следующих страницах я опишу физические, социальные и экономические механизмы, которые объясняют рост объема информации в нашем мире и в нашей Вселенной. Эти механизмы отвечают за создание физического порядка, который сделал рождение Айрис как материальным, так и волшебным. С одной стороны, мы изучим физику информации. В результате мы поймем сущность информации и физические механизмы, способствующие ее появлению. Тем не менее физика информации способна объяснить лишь простейшие формы физического порядка. Чтобы объяснить порядок, пронизывающий наше современное общество, потребуется выйти за рамки физики и исследовать социальные и экономические процессы, которые позволяют группам людей производить информацию. К этим процессам относится образование социальных и профессиональных сетей, в которых заключена способность социальной обработки информации. Эта способность включает в себя накопление знаний и ноу-хау.
Знания и ноу-хау являются двумя основными способностями, которые относятся к вычислению и имеют решающее значение для накопления информации в экономике и обществе. Тем не менее знания и ноу-хау – это не одно и то же. Проще говоря, знание включает в себя отношения или связи между объектами. Эти отношения часто используются для того, чтобы спрогнозировать последствия действия, не совершая его.[12] Например, мы знаем, что употребление табака увеличивает вероятность развития рака легких, и мы можем использовать эту связь, чтобы предсказать последствия курения, не употребляя табак.
Ноу-хау отличается от знания тем, что оно включает в себя не выражаемую словами способность выполнять некоторые действия.[13] Например, большинство из нас знает, как ходить, хотя мы не знаем, как нам это удается. Большинство из нас знает, как определять и называть изображенные объекты, хотя нам неизвестно, каким образом мы выполняем эти задачи восприятия и вербализации. Большинство из нас умеет распознавать объекты с разных углов, узнавать лица, переваривать пищу и улавливать эмоции, хотя мы и не можем объяснить, как мы это делаем. Однако нам удается совершать эти действия благодаря тому, что у нас есть ноу-хау. Ноу-хау – это не выражаемая словами вычислительная способность совершать действия, которая накапливается как на уровне индивида, так и на уровне коллектива.
Невыражаемая словами природа ноу-хау кажется странной, поскольку из-за нее мы можем чувствовать себя автоматами, не осознающими своих действий. Тем не менее в этом нет ничего странного. Марвин Мински, один из отцов искусственного интеллекта, однажды сказал: «Ни один созданный компьютер не осознает того, что он делает, однако большую часть времени мы тоже этого не осознаем».[14]
Другое отличие, о котором мне следует упомянуть, заключается в разнице между информацией, являющейся
По большей части я буду использовать слово «информация», подразумевая физический порядок, воплощенный в объектах. Я подробно рассмотрю это определение в следующей главе. Я использую это определение, потому что оно помогает мне сформулировать более простую теорию роста объема информации, в которой физический порядок, независимо от того, являлась ли целью его создания необходимость в передаче значения, развивается вместе со способностью Вселенной производить вычисления. В социальном и экономическом контексте эта вычислительная способность включает в себя как знания, так и ноу-хау.
Таким образом, для объяснения роста объема информации в природе и обществе мы изучим совместную эволюцию физического порядка, знания и ноу-хау, которые позволяют нашей Вселенной порождать этот физический порядок. При этом мы перейдем от простейших физических систем, в которых информация возникает спонтанно, до сложного устройства нашего общества, где для дальнейшего накопления информации появляется необходимость в знании и ноу-хау.
Случай с обществом и экономикой является наиболее сложным, поскольку здесь накопление знаний и ноу-хау становится весьма ограниченным. Как и информация, заключенная в объектах, знания и ноу-хау всегда должны быть физически воплощены. Тем не менее, в отличие от информации, носителями знания и ноу-хау являются люди и сообщества людей, чей потенциал воплощения знания и ноу-хау является ограниченным. Конечность человека и формируемых им сообществ ограничивает нашу способность накапливать и передавать знания и ноу-хау, что приводит к скоплениям знаний и ноу-хау в определенных местах, обусловливающих глобальное неравенство. Таким образом, необходимость того, чтобы знания и ноу-хау были воплощены в людях и сообществах людей, может помочь объяснить неравномерность развития стран мира. Этим идеям посвящены части III и IV книги, и для их подтверждения я буду использовать данные о продуктах, создаваемых группами людей в разных местах, поскольку продукты, которые состоят из информации, являются выражением знания и ноу-хау, доступных в конкретном месте.
Таким образом, центральными понятиями, которые я буду использовать для описания процесса роста объема информации на нашей планете, являются физические объекты как физические воплощения информации и люди как основные носители знаний и ноу-хау. С этой фундаментальной точки зрения мы опишем экономику как систему, с помощью которой люди накапливают знания и ноу-хау для создания пакетов физического порядка или продуктов, подчеркивающих нашу способность накапливать еще больше знаний и ноу-хау, что в свою очередь способствует дальнейшему накоплению информации. В основном мы сосредоточимся на росте объема информации, знаний и ноу-хау в экономике, создав сначала теорию о продуктах в терминах физического порядка, а затем опишем социальные и экономические механизмы, которые позволяют нашему обществу накапливать знания и ноу-хау, необходимые для производства продуктов.
Однако сначала необходимо удостовериться в том, что мы одинаково понимаем физическую основу информации и ее неочевидные истоки. Я начну с объяснения того, что представляет собой информация с точки зрения математики и физики. Как мы увидим позднее, это поможет нам понять, почему Больцман и Шеннон пришли к одной и той же формуле. Кроме того, это познакомит нас с основополагающими физическими принципами, которые позволяют информации накапливаться.
Глава 2
Тело бессмысленного
Предположим, что нас попросили распределить по категориям следующие понятия: расстояние, масса, электрическая сила, энтропия, красота, мелодия. Я думаю, что существуют достаточные основания для того, чтобы поместить энтропию рядом с красотой и мелодией, а не с первыми тремя понятиями. Энтропия проявляется только там, где части рассматриваются в связи, и именно просмотр или прослушивание частей в их связи с другими частями позволяет различить красоту и мелодию.
Чтобы что-нибудь изобрести, необходимо хорошее воображение и куча мусора.
Несколько месяцев назад мне на глаза попалась статья, помещенная на главной странице посвященного бизнесу раздела чилийской газеты. В этой статье говорилось о чилийце, купившем самый дорогой в мире автомобиль. Стоимость машины марки Bugatti Veyron составила более двух с половиной миллионов долларов США, и ее покупка стала одним из самых ярких примеров показного потребления, когда-либо виденных мной.
Поискав в Интернете, я оценил стоимость килограмма веса этого автомобиля, которая составила примерно одну тысячу триста долларов США (или около шестисот долларов США за фунт веса).[15] Для сравнения возьмем стоимость килограмма золота и серебра. В некоторые дни стоимость килограмма чистого серебра составляет около одной тысячи долларов США, а килограмма золота – около пятидесяти тысяч долларов США.[16] Стоимость килограмма веса обычного автомобиля колеблется от десяти (Hyundai Accent) до шестидесяти долларов США (BMW M6). Таким образом, хотя стоимость Bugatti Veyron не превышает стоимости ее весового эквивалента в золоте, она превышает стоимость ее весового эквивалента в серебре, тогда как стоимость автомобиля Hyundai Accent соответствует стоимости его весового эквивалента в бронзе.
Вы, конечно, можете сказать, что сравнивать килограмм веса автомобиля Bugatti и килограмм серебра бессмысленно, поскольку вы мало что можете сделать с килограммом Bugatti. Тем не менее эта бессмыслица может много рассказать нам о том, как физический порядок, или информация, может быть упакована в продукте.
Представьте на секунду, что вы только что выиграли автомобиль Bugatti Veyron в лотерею. В порыве радости вы решили прокатиться на своей новой машине. Из-за своего волнения вы врезаетесь в стену. Вы не получили повреждений, но расстроились, поскольку не успели застраховать свой автомобиль, который уже не подлежит восстановлению. Сколько стоит килограмм Bugatti теперь?
Ответ на этот вопрос совершенно очевиден. Долларовая стоимость автомобиля испарилась за секунды, которые потребовались на то, чтобы разбить его об стену, в то время как его вес остался прежним. Так куда же делась ценность? Долларовая стоимость автомобиля испарилась во время аварии не потому, что в ее результате были уничтожены атомы, из которых состоял автомобиль Bugatti, а из-за того, что авария изменила порядок их расположения. Когда части, из которых состояла машина, были разъединены и деформированы, информация, которая была воплощена в Bugatti, оказалась в значительной степени уничтожена. Другими словами, два с половиной миллиона долларов США стоили не атомы автомобиля, а то, как эти атомы были организованы.[17] Эта организация и представляет собой информацию.[18]
Таким образом, стоимость автомобиля Bugatti определяется физическим порядком, которым и является информация, несмотря на продолжающиеся споры о том, что она собой представляет.[19] Клод Шеннон, отец теории информации, говорил, что информация – это мера минимального объема данных, необходимого для передачи сообщения. То есть это количество битов, требуемое для передачи данных об организации, например о порядке атомов, составляющих автомобиль Bugatti.
Тем не менее для лучшего понимания определения «информация», сформулированного Шенноном, лучше начать с чего-нибудь более простого, чем автомобиль Bugatti. Я буду использовать в качестве примера твит. Твит – это сообщение, состоящее из 140 символов, которое используется на сервисе Twitter. Твит, как и Bugatti, представляет собой небольшой пакет информации, но, в отличие от Bugatti, он создается в качестве акта коммуникации. Тем не менее с точки зрения теории Шеннона это не имеет значения. Согласно Шеннону, информация – это минимальный объем данных для передачи любого сообщения. Будь то твит, состоящий из случайных символов, или самое остроумное сообщение, которое вы когда-либо видели, все это не имеет значения с точки зрения теории информации Шеннона.
Итак, сколько же информации содержится в твите? Чтобы представить содержимое твита в количественном выражении, рассмотрим гипотетическую игру для двух пользователей сервиса Twitter, Эбби и Брайана. В этой игре Эбби и Брайан должны угадать твиты друг друга, используя только вопросы типа «да/ нет». Для игры в эту игру у них есть книга, которая содержит все возможные твиты, которые могут быть написаны. Игра начинается тогда, когда Эбби случайным образом выбирает твит из своей книги. После этого она просит Брайана угадать ее твит, используя только вопросы типа «да/нет». Шеннон учит нас тому, что объем информации, заключенной в твите, равен минимальному количеству вопросов типа «да/нет», необходимых Брайану для того, чтобы угадать твит Эбби со стопроцентной точностью.[20] Однако каково количество этих вопросов?
Для простоты будем считать, что Эбби и Брайан используют «алфавит» из тридцати двух символов: строчных латинских букв и таких дополнительных символов, как пробел (), косая черта (/), запятая (,), точка (.), а также «собака» (@) и решетка (#). Кроме того, будем считать, что у Эбби и Брайана есть таблицы, в которых каждый символ соответствует числу (a = 1, b = 2, […], @ = 31, # = 32).
Лучшим способом угадывания твита Эбби является использование Брайаном каждого вопроса для разделения пространства поиска возможных твитов пополам. Брайан может сделать это, отгадывая сообщение Эбби символ за символом. Если Брайан решит использовать данную стратегию, то его первым вопросом типа «да/нет» будет: «Число, соответствующее первому символу, больше 16?» Если Эбби ответит отрицательно, то Брайан будет знать, что первый символ в твите Эбби расположен между буквами
Каждый заданный вопрос позволяет Брайану сократить количество возможных символов в два раза. Поскольку существует тридцать два возможных символа, Брайану потребуется задать только пять вопросов, чтобы угадать каждый символ (вам нужно разделить 32 на 2 пять раз, чтобы получить только один вариант). Наконец, поскольку твит состоит из 140 символов, Брайану потребуется 140 × 5 = 700 вопросов типа «да/нет», или битов, чтобы угадать сообщение Эбби.[21]
Теория Шеннона говорит, что нам требуется 700 бит, или вопросов типа «да/нет», для передачи твита, написанного с использованием алфавита, включающего тридцать два символа. Кроме того, теория Шеннона является основой современных систем связи. Путем количественного определения числа битов, необходимых для кодирования сообщений, он помог разработать технологии цифровой связи. Тем не менее во время разработки своей формулы Шеннон не знал о том, что его формула была идентична той, которую вывел Больцман почти за полвека до него. Прислушавшись к предложению известного венгерского математика Джона фон Неймана, Шеннон решил назвать свою меру «энтропией», поскольку формула Шеннона была эквивалентна формуле энтропии, используемой в статистической физике. (Кроме того, согласно легенде, фон Нейман сказал Шеннону, что если тот назовет свою меру энтропией, то это гарантирует его победу в любом споре, поскольку никто точно не знает, что такое энтропия.)
Однако интерпретацию понятий «энтропия» и «информация», которые появились в результате работы Шеннона, было трудно примирить с традиционным толкованием слов «информация» и «энтропия», возникшим в работе Больцмана. Конфликт между определением слова «информация», используемым Шенноном, и его разговорным значением, которое широко распространено и сегодня, легко понять, используя в качестве примера компьютеры. Подумайте о своем персональном компьютере. Будь то настольный компьютер, ноутбук или смартфон, вы используете его для хранения фотографий, документов и программного обеспечения. Вы считаете эти фотографии и документы «информацией» и, конечно, хорошо понимаете то, что эта информация хранится на жестком диске вашего устройства. Тем не менее, согласно Шеннону, если бы мы случайным образом перемешали все биты на жестком диске, удалив таким образом все ваши фотографии и документы, мы бы увеличили количество информации на жестком диске. Как это может быть? Дело в том, что определение термина «информация», предложенное Шенноном, учитывает только количество битов, необходимое для передачи сообщения о состоянии системы (в данном случае речь идет о последовательности битов, которые хранятся на вашем жестком диске). Поскольку нам требуется больше битов для создания сообщения о состоянии жесткого диска, полного случайных данных, чем о состоянии жесткого диска с фотографиями и документами, содержащими корреляции, позволяющие сжимать последовательности, определение Шеннона подразумевает то, что после перемешивания битов в случайном порядке на вашем жестком диске станет больше информации. Технически Шеннон прав, говоря о том, что нам необходимо большее количество битов для передачи сообщения о содержимом жесткого диска, наполненного случайными данными, чем о содержимом жесткого диска с фотографиями и документами. Однако теорию информации Шеннона, которая, по сути, представляет собой теорию коммуникативного инжиниринга, следует расширить, чтобы примирить ее с разговорным смыслом слова «информация» и работой Больцмана. В дополнение к работе Шеннона мне сначала нужно будет объяснить определение энтропии, которое возникло из работы Больцмана, а затем вывести определение, которое мы могли бы использовать для описания информационно насыщенных состояний, ассоциирующихся с компьютером, наполненным фотографиями и документами.
Чтобы понять разницу между определениями энтропии, используемыми Больцманом и Шенноном, рассмотрим наполовину заполненный стадион.[22] Одной важной характеристикой такого стадиона является то, что существует множество способов наполнить его наполовину, и путем исследования этих способов мы можем объяснить понятие энтропии.
Сначала мы рассмотрим случай, в котором люди могут беспрепятственно передвигаться по стадиону. При этом один из способов наполовину наполнить стадион сводится к тому, чтобы рассадить людей как можно ближе к полю, оставив все верхние ряды свободными. Другой способ предполагает размещение людей на дальних рядах (при этом нижние ряды останутся незанятыми). Тем не менее люди также могут заполнить полстадиона, заняв места случайным образом.
Теперь чтобы использовать пример со стадионом для объяснения понятия энтропии, мне нужно ввести еще две идеи. Во-первых, я буду называть каждую комбинацию из сидящих на стадионе людей
В данном примере принятое в статистической физике определение энтропии соответствует просто доле всех эквивалентных состояний (на самом деле это логарифм доли, однако эта формальность не имеет отношения к тому, что я пытаюсь сказать). Таким образом, энтропия является наименьшей, когда люди сидят максимально близко или максимально далеко от поля, поскольку существует только один способ такого размещения людей.[23] Энтропия является наибольшей, когда средним из занятых рядов является центральный, поскольку существует много способов размещения людей на местах, при которых средним занятым рядом будет центральный. В предложенном Больцманом определении энтропия представляет собой множество эквивалентных состояний. В случае со стадионом наибольшее число эквивалентных состояний существует тогда, когда средним из заполненных рядов является центральный.
Следует отметить, что энтропия, которая обычно ассоциируется с беспорядком, не является мерой беспорядка. Энтропия – это мера множества состояний (количества эквивалентных состояний). Тем не менее неупорядоченных состояний, как правило, бывает больше, поэтому на практике состояния высокой энтропии, скорее всего, будут неупорядоченными. Именно поэтому приравнивание беспорядка к энтропии не является таким уж неудачным упрощением. Однако увеличение энтропии может не сопровождаться увеличением беспорядка. Рассмотрим случай с расширением газа в коробке, которая удваивается в размере (или распространение людей по стадиону, увеличивающемуся в два раза). Энтропия газа увеличивается с размером коробки, поскольку в коробке большего размера существует больше вариантов организации частиц газа. Тем не менее газ в большей коробке не является более неупорядоченным, чем газ в меньшей коробке.
Шеннон был заинтересован в передаче микросостояния системы, например отдельного твита или расположения сидящих на нашем гипотетическом стадионе людей, поэтому он приравнял понятие информации к понятию энтропии, часто используя эти слова как синонимы. Передача сообщения об одном микросостоянии, в котором средним из занятых рядов является центральный, требует больше бит, так как при этом условии существует множество эквивалентных микросостояний, поэтому для передачи данных о некотором микросостоянии требуется создать очень конкретное сообщение. Таким образом, на языке Шеннона понятия информации и энтропии функционально эквивалентны, поскольку количество битов, необходимых для создания сообщения (информация по Шеннону), представляет собой функцию от числа возможных сообщений, которые могут быть переданы (множество состояний, которое мы понимаем как энтропию). Но, это не делает энтропию и информацию одним и тем же. Лауреат Нобелевской премии по химии 1967 года Манфред Эйген заметил: «Энтропия относится к среднему (физическому) состоянию, а информация – к конкретному (физическому) состоянию».[24]
Однако тот факт, что нам требуется больше битов для передачи сообщения о состоянии, в котором каждый человек случайно выбрал место на стадионе или в котором биты на жестком диске были случайным образом перемешаны, не означает, что эти состояния заключают в себе больше порядка или информации. Информация подразумевает увеличение количества битов, но это еще не все. В примере со стадионом множество состояний, при которых люди выбрали места случайно, характеризуется наивысшим значением энтропии, но при этом самым низким значением упорядоченности (хотя некоторые из этих состояний могут быть весьма упорядоченными). В самом деле, в области естественных наук и среди широкой общественности давно существует традиция приравнивания понятия информации к чему-то большему, чем биты, к тому, что подразумевает порядок. Подумайте о генетиках, разговаривающих об информации, содержащейся в ДНК, или об информации, содержащейся в музыкальных партитурах, на катушке пленки или в книге. В данных примерах слово «информация» говорит о присутствии порядка, а не только о количестве битов, необходимых для передачи сообщения о генетической последовательности, книги или нот.
Однако упорядоченные состояния являются редкими и своеобразными. Сначала я объясню, что я имею в виду под словом «редкий» в данном контексте. Далее я объясню своеобразие информационно насыщенных состояний, которое подразумевает корреляции, придающие слову «информация» его широко распространенный разговорный смысл.
Чтобы объяснить редкость упорядоченных состояний, я расширю пример со стадионом до того, что описывал Больцман в контексте атомов. Предположим, что стадион наполовину полон, но люди не могут свободно передвигаться. Теперь разрешены только те состояния, в которых средним из занимаемых рядов является центральный. В случае с физической системой это равносильно фиксированию энергии системы. Тем не менее, поскольку существует много различных состояний, в которых средним из занятых рядов является центральный, система по-прежнему предоставляет на выбор множество вариантов. Большинство этих состояний являются достаточно случайными. Другие, однако, весьма своеобразны. Люди на стадионе могут действовать подобно пикселам на экране, поэтому в некоторых из этих состояний комбинации сидящих людей могут образовывать такие слова, как «информация», или изображения лица. Однако насколько часто встречаются такие своеобразные состояния?
Для определения часто встречающихся состояний нам нужно наметить множество всех возможных состояний. Один из способов заключается в том, чтобы посмотреть, как эти состояния связаны. Мы можем сказать, что два состояния связны между собой, если я могу перейти от одного к другому с помощью простого преобразования. Для простоты давайте рассмотрим все преобразования, при которых каждый зритель может пересесть на соседнее место, при условии, что новое состояние удовлетворяет ограничению, касающемуся среднего ряда. К числу этих преобразований относятся те, при которых каждый зритель пересаживается на одно место справа, а также преобразования, при которых человек на нижней половине стадиона пересаживается на одно место вверх, а человек на верхней половине стадиона пересаживается на одно место вниз.
В принципе мы можем использовать эти преобразования, чтобы прийти к любому состоянию. Однако на практике достижение какого-либо состояния не является таким уж простым делом. Если мы позволим людям на стадионе пересаживаться на соседние места, выбранные случайным образом (разумеется, допуская только те преобразования, которые удовлетворяют ограничению, касающемуся среднего ряда), мы никогда не получим комбинации, которые образуют слова или изображения. Эти состояния очень редки и труднодостижимы. Данное упражнение позволяет проиллюстрировать определение информации, подразумевающее наличие порядка. В физической системе информация представляет собой понятие, обратное энтропии, поскольку оно предполагает редкие и сильно коррелирующие конфигурации, которые трудно получить.
Необычные конфигурации атомов, как в автомобиле Bugatti или гитаре, несут больше информации, чем более распространенные конфигурации тех же атомов, хотя технически (и Шеннон в этом прав) передача сообщения об упорядоченной конфигурации и передача сообщения о неупорядоченной конфигурации требует одинакового количества битов, если мы проигнорируем корреляции, превалирующие в упорядоченном состоянии (которые мы можем использовать для сжатия последовательности, что позволит сократить количество битов, требующихся для передачи сообщения об упорядоченном состоянии). Тем не менее, несмотря на разницу в интерпретации, которая мешает примирить идеи Шеннона и Больцмана, мы по-прежнему можем сделать вывод о том, что из информации состоят не только сообщения, но и большинство вещей.
Итак, давайте вернемся к автомобилю Bugatti. Случай с Bugatti не так прост, как случай с твитом, поскольку он подразумевает позиционирование огромного числа атомов, а не просто 140 символов. Кроме того, как я только что сказал, в случае с Bugatti мы ищем не любую возможную конфигурацию атомов, а конфигурацию, соответствующую чему-то вроде автомобиля Bugatti (как и в примере с редкой комбинацией занятых на стадионе мест). Например, перестановка шин Bugatti приводит к изменению расположения атомов, но ни одно из основных интересующих нас свойств при этом не изменяется, поэтому мы будем рассматривать все автомобили Bugatti с перестановленными шинами одинаковыми. Тем не менее группа автомобилей, находящихся в идеальном состоянии, относительно мала, а это означает, что в совокупности всех возможных комбинаций атомов (как и перемещающихся по стадиону людей) лишь некоторые представляют собой Bugatti в идеальном состоянии. С другой стороны, группа разбитых Bugatti включает гораздо большее количество состояний (более высокое значение энтропии) и, следовательно, несет меньше информации (хотя для передачи сообщения о каждом из этих состояний требуется большее количество битов). Однако, к самой большой группе, которая включает случайные комбинации сидящих на стадионе зрителей, относятся автомобили Bugatti в их «естественном» состоянии. Это состояние, в котором железо представляет собой руду, а алюминий входит в состав боксита. Таким образом, разрушение автомобиля Bugatti приводит к уничтожению информации. С другой стороны, создание Bugatti – это процесс воплощения информации.
Пример со стадионом позволяет нам понять, что конфигурации материи, воплощающие информацию, например автомобиль Bugatti, являются редкими и труднодостижимыми. Пример со стадионом также подчеркивает динамическое происхождение порядка, поскольку для любой формы порядка атомы должны располагаться в определенном месте. Проблема состоит в том, что системы не могут свободно переходить из одного состояния в любое другое. Как показывает пример со стадионом, существующее состояние системы ограничивает число возможных вариантов ее преобразования, а для перехода системы от беспорядочного состояния к упорядоченному необходимо совершить множество последовательных шагов. К сожалению, количество путей, ведущих систему от беспорядка к порядку, гораздо меньше, чем количество путей, ведущих от порядка к беспорядку. В системе, эволюция которой является случайной (как в системе статистической физики), совершить серию последовательных шагов нелегко.