Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта. Благодаря им мы улучшаем сайт!
Принять и закрыть

Читать, слущать книги онлайн бесплатно!

Электронная Литература.

Бесплатная онлайн библиотека.

Читать: Роботы наступают - Мартин Форд на бесплатной онлайн библиотеке Э-Лит


Помоги проекту - поделись книгой:

Narrative Science строит далекоидущие планы, не собираясь ограничиваться одной лишь индустрией новостей. Назначение Quill — служить универсальной платформой для анализа и написания нарративных текстов, составлять высококачественные отчеты как для внутреннего пользования, так и для публикации в ряде отраслей. Работа Quill начинается со сбора данных из различных источников, включая базы данных о транзакциях, системы финансовой и торговой отчетности, сайты и даже социальные медиа. Затем система выполняет анализ собранных данных, выбирая самые важные и интересные факты и выводы. Наконец, она сплетает из всей этой информации связное повествование, которое, по заверениям компании-разработчика, сопоставимо с результатами труда лучших аналитиков. После соответствующей настройки система Quill способна практически мгновенно формировать бизнес-отчеты с заданной периодичностью — и все это без вмешательства человека{119}. Учитывая, что одним из первых инвесторов, поддержавших Narrative Science в самом начале пути, было In-Q-Tel — подразделение ЦРУ, отвечающее за венчурные проекты, можно с большой долей уверенности утверждать, что разработанные компанией инструменты будут использоваться для автоматического преобразования потоков необработанных данных, собираемых специалистами американской разведки, в удобный для понимания повествовательный формат.

Пример технологии Quill демонстрирует, насколько уязвимыми для автоматизации оказываются задачи, которые когда-то считались исключительной прерогативой высококвалифицированных профессионалов с высшим образованием. Разумеется, связанная со знаниями работа обычно предполагает наличие широкого круга навыков и талантов. Среди прочего аналитик должен уметь извлекать информацию из различных систем, строить статистические или финансовые модели, а затем доходчиво доносить результаты своей работы до аудитории в виде отчетов или презентаций. Может показаться, что писательский труд — в котором, как ни крути, столько же искусства, сколько и науки, — относится к видам деятельности, в последнюю очередь поддающимся автоматизации. Но, как оказывается, это совсем не так, а алгоритмы с каждым днем становятся все более совершенными. Более того, учитывая то, что для автоматизации профессий, связанных с умственным трудом, достаточно одного лишь ПО, соответствующие рабочие места во многих случаях могут оказаться более уязвимыми, чем рабочие места для людей с низкой квалификацией, предполагающие физический труд.

Стоит отметить, что письменная речь относится к тем навыкам, которые, судя по жалобам работодателей, чаще всего недостаточно хорошо развиты у выпускников колледжей. По данным одного из недавних опросов работодателей, около половины всех принятых на работу выпускников, проведших в колледже два года, и более четверти выпускников с четырехлетним образованием не умеют письменно излагать свои мысли, а в некоторых случаях еще и недостаточно хорошо читают{120}. Если интеллектуальное ПО способно, как это утверждают специалисты Narrative Science, составить конкуренцию самым талантливым аналитикам, рост потребности в специалистах, чья работа связана с умственным трудом, в будущем оказывается под большим вопросом. Это касается всех выпускников колледжей, в особенности наименее подготовленных.

Большие массивы данных и машинное обучение

Система написания нарративных текстов Quill — лишь один из многих примеров нового прикладного ПО, разрабатываемого с целью обеспечения максимально эффективного использования тех огромных объемов данных, которые собирают и хранят частные компании, организации и государственные органы повсюду в мире. По некоторым оценкам, общий объем хранимых в мире данных в настоящее время измеряется тысячами экзабайт (1 экзабайт равен 1 млрд гигабайт); причем эта величина постоянно растет в соответствии с законом, напоминающим закон Мура, удваиваясь приблизительно каждые три года{121}. Почти все эти данные сегодня хранятся в цифровом формате, а значит, компьютеры могут работать с ними напрямую. Одни только серверы Google ежедневно обрабатывают около 24 петабайт (1 петабайт равен 1 млн гигабайт) данных, главным образом относящихся к поисковым запросам миллионов пользователей{122}.

Все эти данные поступают из множества разнородных источников. Если взять один только Интернет, это будут данные о посещениях сайтов, поисковых запросах, сообщениях электронной почты, общении в социальных медиа, переходах по рекламным ссылкам и многое, многое другое. Если брать бизнес-сектор, то следует упомянуть данные о транзакциях, договорах с клиентами, внутренних коммуникациях, а также данные из финансовых, бухгалтерских и маркетинговых систем. На заводах, в больницах, автомобилях, самолетах и бесчисленных устройствах бытового и промышленного назначения непрерывно собираются данные в режиме реального времени.

Подавляющее большинство этих данных представляют собой то, что специалисты по компьютерным вычислениям называют «неструктурированными» данными. Другими словами, они поступают в различных форматах, которые трудно поддаются сопоставлению или сравнению. Это очень сильно отличает их от содержимого традиционных реляционных баз данных, в которых информация хранится в виде аккуратно упорядоченных строк и столбцов, что обеспечивает высокую скорость, надежность и точность поиска. Обработка неструктурированных данных потребовала создания новых инструментов, специально предназначенных для углубленного анализа информации, собранной из различных источников. Стремительный прогресс в этой области — всего лишь еще один пример того, как компьютеры, пускай и в довольно упрощенной форме, учатся делать то, что совсем недавно было доступно только людям. Все-таки способность непрерывно обрабатывать поток неструктурированной информации из множества различных источников во внешней среде всегда относилась к числу уникальных для человека механизмов адаптации. Разница, разумеется, в том, что человек никогда не сможет оперировать большим объемом данных в тех же масштабах, что и компьютеры. Большие данные оказывают революционное воздействие на широкий круг областей, включая бизнес, политику, медицину и практически все группы естественных и социальных наук.

Благодаря большим данным крупнейшие ретейлеры могут получить небывало подробное представление о покупательских предпочтениях отдельных потребителей, что дает им возможность формулировать адресные предложения и тем самым увеличивать собственную выручку, при этом повышая лояльность клиентов. Полицейские по всему миру обращаются к алгоритмическому анализу для прогнозирования наиболее вероятных мест и периодов совершения преступлений и распределяют свои силы в соответствии с полученными результатами. На специальном портале жители Чикаго могут ознакомиться как с ретроспективными, так и с актуальными данными, относящимися к самым разным сферам жизни и отражающими самые разные аспекты существования в большом городе, включая потребление энергии, уровень преступности, показатели эффективности работы транспортной инфраструктуры, школ, учреждений здравоохранения и даже количество выбоин и ям на дорогах, которые латали в конкретный период времени. Благодаря инструментам, которые реализуют новые способы визуализации данных, полученных путем анализа общения в социальных медиа, а также поступающих с датчиков, встроенных в двери, турникеты и эскалаторы, градостроители и сотрудники городской администрации могут наблюдать за тем, как люди перемещаются, работают и общаются в пределах городской среды, получая возможность оперативно корректировать свои действия с целью повышения эффективности работы городских служб и создания максимально комфортных условий для жизни.

Однако у этой тенденции есть и обратная сторона. Деятельность компании Target, Inc. является примером куда более спорного подхода к использованию огромных массивов чрезвычайно подробных данных о клиентах в коммерческих целях. Эта компания наняла специалиста по анализу и обработке данных, который обнаружил сложный набор корреляций, позволяющих с очень большой долей вероятности предсказывать наличие беременности на раннем сроке у покупательниц на основе анализа продаж по двадцати пяти различным видам косметической и медицинской продукции. Проводимый компанией анализ был настолько точным, что даже позволял с высокой степенью точности определять срок беременности у конкретной женщины. Получив эти данные, сотрудники Target начинали забрасывать женщин предложениями о покупке товаров для беременных, да еще и на столь раннем сроке, что во многих случаях ближайшее окружение женщины даже не знало о ее положении. В начале 2012 г. в The New York Times была опубликована статья, в которой рассказывалось об одном любопытном случае: ничего не подозревавший отец девочки-подростка пожаловался руководству магазина на неподобающие рекламные материалы, присылаемые на почтовый адрес семьи, а потом узнал, что сотрудники Target фактически были лучше осведомлены о жизни его дочери, чем он сам{123}. Некоторые критики опасаются, что эта не самая приятная история — лишь начало и что большие данные все чаще и чаще будут использоваться для получения информации, которая может нарушать неприкосновенность частной жизни или даже угрожать свободе.

Выводы, получаемые при анализе больших данных, как правило, основываются исключительно на корреляциях и ничего не говорят о причинах изучаемого феномена. Алгоритм может выяснить, что если A соответствует действительности, то и B, скорее всего, тоже верно. Но он не способен установить причинно-следственную связь между A и B и уж тем более не может установить, обусловлены ли A и B каким-либо иным внешним фактором. Во многих случаях, однако, и в особенности в мире бизнеса, где абсолютным критерием успеха является прибыльность и эффективность, а не глубина понимания, даже простая корреляция сама по себе может представлять очень большую ценность. Большие данные могут стать для менеджмента источником подробнейших сведений по самому широкому кругу вопросов: все — от параметров работы каждого отдельного станка до общих результатов работы международной корпорации — может быть потенциально подвергнуто анализу с такой степенью подробности, которая прежде была просто невозможна.

Непрерывно увеличивающийся в объеме массив данных все чаще рассматривается в качества своего рода ресурса, который, если за него взяться как следует, может стать источником ценной информации, причем не только сейчас, но и в будущем. Глядя на компании в добывающих отраслях (например, нефтегазовой), год за годом с успехом пользующихся плодами технического прогресса, легко представить, как, вооружившись возросшей вычислительной мощью компьютеров, а также усовершенствованным ПО и новыми методами анализа, корпорации во всех секторах экономики препарируют данные, извлекая из них знания, которые сразу превращаются в дополнительную прибыль. Более того, как раз вера инвесторов в то, что все так и будет, судя по всему, и является главным фактором, обуславливающим такую громадную рыночную стоимость компаний, работающих с большими объемами данных, т. е. таких, как Facebook.

Машинное обучение — метод, при котором компьютер перебирает данные и, по сути, пишет собственную программу на основе обнаруженных статистических закономерностей, — является одним из наиболее эффективных средств извлечения самой ценной информации. Как правило, процесс машинного обучения разбивается на два этапа: сначала алгоритм обучается на имеющихся данных, а затем применяется к новой информации для решения похожих задач. Самый очевидный пример использования машинного обучения на практике — фильтры спама в электронной почте. На этапе обучения алгоритм обрабатывает миллионы сообщений, заранее помеченных как спам или не спам. При этом никто не садится и не программирует систему напрямую так, чтобы она могла распознавать все мыслимые способы написания слова «виагра». Вместо этого программа учится самостоятельно распознавать нужную информацию. Результатом обучения является приложение, которое способно автоматически идентифицировать основной массив нежелательной почты и при этом постоянно совершенствоваться и адаптироваться по мере появления новых образцов спама. Алгоритмы машинного обучения, работающие на основе тех же самых принципов, используются и при подборе рекомендуемых книг на Amazon, фильмов — на Netflix и потенциальных партнеров — на Match.

Одним из самых впечатляющих примеров эффективности машинного обучения стал созданный Google онлайн-переводчик. Используемые в нем алгоритмы основаны на подходе, который можно назвать подходом Rosetta Stone[24] и который предполагает анализ и сравнение миллионов страниц текста, который уже был переведен на различные языки. Разработчики Google начали с официальных документов Организации Объединенных Наций, а затем расширили круг исходных текстов, включив в него содержимое Всемирной паутины. Чтобы найти достаточное количество примеров для ненасытных алгоритмов самообучения, они использовали поисковую систему Google. Если судить по одному только количеству документов, использовавшихся в процессе обучения системы, то становится очевидно, что ничего подобного прежде не было. Специалист в области компьютерных вычислений Франц Ок, который руководил проектом, отметил, что его команда выстроила «очень-очень большие языковые модели, намного более масштабные, чем все, что было прежде за всю историю человечества»{124}.

В 2005 г. система Google приняла участие в ежегодном соревновании по машинному переводу, проводимом Национальным бюро стандартов и технологий, подразделением Министерства торговли США, отвечающим за публикацию стандартов измерения. Алгоритмы машинного обучения Google легко обошли всех остальных участников. До этого победа обычно доставалась лингвистам и языковедам, которые тратили немало сил на то, чтобы помочь своим системам перевода не увязнуть в трясине противоречивых и непоследовательных грамматических правил того или иного естественного языка. Главный вывод, который можно сделать из этой победы: даже самые лучшие программисты не способны создать что-нибудь сравнимое с тем объемом знаний, который заключен в наборе данных большого размера. По качеству система Google пока еще не может конкурировать с квалифицированными переводчиками-людьми, но главное ее преимущество — она способна работать более чем с пятьюстами языковыми парами, переводя в обе стороны. Это самая настоящая революция в области общения: впервые в человеческой истории практически любой может мгновенно и совершенно бесплатно получить приблизительный перевод почти любого документа на любом языке.

Существует ряд подходов к машинному обучению, но наиболее эффективной и удивительной является методика, связанная с использованием искусственных нейронных сетей — систем, спроектированных в соответствии с теми же фундаментальными принципами, что лежат в основе работы человеческого мозга. Мозг состоит из 100 млрд нейронных клеток и многих триллионов межклеточных связей, но для построения эффективных обучаемых систем достаточно куда более простой системы искусственных нейронов.

Работу отдельного нейрона можно сравнить с выскакивающими пластиковыми фигурками развивающих игрушек, которые так нравятся малышам. Когда ребенок нажимает клавишу, перед ним появляется цветная фигурка — это может быть, например, персонаж мультфильма или животное. Легкое нажатие на клавишу ни к чему не приводит. Даже если нажать чуть сильнее, все равно ничего не произойдет. Но достаточно достигнуть определенного порога усилия — и фигурка тут как тут. Приблизительно так и работает нейрон, за исключением того, что вместо клавиши для его активации требуется определенная комбинация входных параметров.

Чтобы наглядно представить нейронную сеть, вообразите устройство наподобие машины Руба Голдберга[25], которое состоит из нескольких таких развивающих игрушек, составленных рядами на полу. Над каждой клавишей, приводящей в действие фигурки, три механических пальца. Правда, вместо того, чтобы просто выпрыгивать, фигурки так расположены, что срабатывание одной из них приводит к опусканию нескольких механических пальцев в последующих рядах игрушек и нажатию связанных с ними клавиш. Ключевым фактором, определяющим способность нейронной сети обучаться, является возможность регулирования усилия, с которым палец нажимает на соответствующую клавишу.

Чтобы обучить нейронную сеть, необходимо загрузить имеющиеся данные в первый ряд нейронов. В качестве примера можно представить ввод изображений написанных от руки писем. При получении входных данных некоторые механические пальцы нажимают на кнопки с различным усилием, уровень которого зависит от их настройки. Это, в свою очередь, приводит к активации некоторых нейронов и срабатыванию клавиш в следующем ряду. Результатом срабатывания последнего ряда нейронов становятся выходные данные, т. е. ответ. В нашем примере в качестве выходных данных будет получен двоичный код, который укажет на букву алфавита, соответствующую полученному на входе изображению. Сначала ответ будет неверным. Но нужно помнить, что у нашей машины есть встроенный механизм сравнения и формирования обратной реакции. Выходные данные сравниваются с правильным ответом, который известен, что автоматически приводит к корректировке усилия у механических пальцев во всех рядах, а это, в свою очередь, изменяет последовательность срабатывания нейронов. По мере ввода в сеть все новых и новых изображений, сопровождающегося непрерывной калибровкой усилия, с которым пальцы нажимают на клавиши, сеть будет все чаще и чаще выдавать верный ответ. Обучение считается оконченным, когда достигается состояние, при котором частота правильных ответов перестает расти.

Если вкратце, то именно так выглядит процесс, благодаря которому нейронные сети приобретают способность распознавать изображения и речь, переводить с одного языка на другой и выполнять множество иных задач. Результатом обучения является программа — по сути, список всех последних настроек механических пальцев, располагающихся над клавишами активации нейронов, — которая затем может быть использована для конфигурирования новых нейронных сетей. Иными словами, после загрузки программы эти сети смогут автоматически формировать ответы на основе новых данных без повторения обучения.

Впервые идея искусственной нейронной сети возникла в конце 1940-х гг., когда был проведен ряд экспериментов. В течение долго времени они использовались для выявления закономерностей. Однако в последние годы был совершен ряд революционных открытий, которые привели к значительному увеличению производительности, особенно при использовании многоярусных нейронных сетей, построенных по технологии, которая получила название «углубленное обучение» (deep learning). Системы углубленного обучения уже применяются при распознавании речи в голосовом помощнике Siri компании Apple; ожидается, что их внедрение будет способствовать ускорению темпов развития во многих прикладных областях, предполагающих выявление и анализ закономерностей. Например, в 2011 г. ученые из Университета Лугано в Швейцарии спроектировали нейронную сеть со способностью к углубленному обучению, которая смогла правильно идентифицировать свыше 99 % изображений из обширной базы данных о дорожных знаках — с таким уровнем точности не смог сравниться никто из соревновавшихся с системой людей. Исследователи из Facebook также разработали экспериментальную систему, состоящую из девяти уровней искусственных нейронов, которая может определить, что на двух фотографиях изображен один и тот же человек, в 97,25 % случаев, несмотря на условия освещения и ориентацию лица. Для сравнения: участвовавшие в эксперименте люди давали правильный ответ в 97,53 % случаев{125}.

Один из ведущих экспертов в этой области Джеффри Хинтон из Университета Торонто отмечает, что технология углубленного обучения «отлично поддается масштабированию. Просто сделайте ее больше и быстрее, и она будет лучше работать»{126}. Другими словами, даже если оставить в стороне совершенствование принципов работы таких сетей, можно с уверенность утверждать, что системы машинного обучения на основе сетей со способностью к углубленному обучению ждет этап стремительного роста — этот простой вывод следует из закона Мура.

По мере того как работодатели — и в особенности большие корпорации — все больше и больше усиливают контроль над режимом работы и социальными связями своих сотрудников, постоянно расширяя круг отслеживаемых показателей и параметров, большие данные и используемые для их обработки сложные алгоритмы начинают напрямую влиять на условия работы и карьерный рост сотрудников. Так называемая «аналитика трудовых ресурсов» (people analytics) играет все большую роль при принятии компаниями решений о найме, увольнении, оценке результативности и повышении сотрудников. Объем собираемых данных о конкретных людях и о выполняемой ими работе поражает воображение. Некоторые компании контролируют каждое нажатие клавиши каждым сотрудником. Сообщения электронной почты, расшифровки телефонных разговоров, поисковые запросы, обращение к базам данным, доступ к файлам, нахождение на территории работодателя — все эти, а также другие данные самых разных видов, точное количество которых даже трудно определить, подлежат сбору и анализу (в одних случаях с согласия самих сотрудников, а в других — без их ведома){127}. Разумеется, изначально целью сбора и анализа всех этих данных являются повышение эффективности управления и оценка результатов работы сотрудников. Но в определенный момент эти данные могут быть использованы совсем для других целей: например, для разработки ПО, автоматизирующего большую часть выполняемой работы.

Если говорить о последствиях революции в области больших данных для будущего профессий, связанных с умственным трудом, вероятно, стоит выделить два самых главных. Во-первых, во многих случаях собранных данных может оказаться достаточно для автоматизации конкретных задач и даже целых видов профессиональной деятельности. Подобно тому, как человек может научиться новой профессии, изучив опыт предшественников и опробовав его на практике при решении конкретных задач, современные сложные алгоритмы, по сути, способны проделать то же самое и полностью заменить человека. Чтобы убедиться в этом, достаточно вспомнить, что в ноябре 2013 г. компания Google подала заявку на регистрацию патента, описывающего систему, предназначенную для автоматического создания персонализированных сообщений электронной почты и ответов в социальных сетях{128}. Принцип работы системы таков: сначала она анализирует существующие письма и посты в социальных сетях определенного человека. Основываясь на полученных знаниях, она затем автоматически пишет ответы на новые сообщения электронной почты, сообщения в Twitter и посты в блоге, используя при этом характерные для данного человека индивидуальный стиль и манеру письма. Легко представить, как такая система может быть использована в будущем для автоматизации существенной части повседневного общения.

Еще одним примером, указывающим на наиболее вероятное направление дальнейшей эволюции технологий автоматизации с использованием больших данных, являются роботы-автомобили компании Google, впервые представленные в 2011 г. Инженеры Google сразу отказались от идеи создания робота, который бы мог заменить человека за рулем обычного автомобиля, — это в любом случае было бы за пределами возможностей современных технологий искусственного интеллекта. Вместо этого они упростили задачу, спроектировав высокопроизводительную систему обработки данных и поставив ее на колеса. Автомобили Google перемещаются в пространстве, опираясь на точные данные о местоположении, определяемом с помощью GPS в сочетании с огромным объемом чрезвычайно подробных картографических данных. Разумеется, автомобили также оснащены радарами, лазерными дальномерами и иными системами, обеспечивающими непрерывный поток актуальных данных и помогающими машинам адаптироваться к изменению условий и новым ситуациям, таким, например, как выход пешехода на проезжую часть. Причислять водителей к белым воротничкам, конечно, никто не будет, но использованная Google общая стратегия может быть легко применена во множестве других областей. Сначала берется огромный массив исторических данных, на основе которого создается общая «карта», и затем эта «карта» используется специальными алгоритмами при выполнении рутинных задач. Следующий шаг — в игру вступают самообучающиеся системы, которые способны адаптироваться к отклонениям от алгоритма и непрогнозируемым ситуациям. В результате получаем интеллектуальное ПО, которое может качественно выполнять многие виды работ, связанные с умственным трудом.

Во-вторых, пожалуй, более важным последствием внедрения технологий обработки больших данных для работников умственного труда станут изменения в работе организаций и методах управления ими. Большие данные и алгоритмы прогнозирования могут полностью изменить сам характер умственного труда и количество связанных с ним рабочих мест в организациях во всех отраслях. Прогностическая информация, которая может быть получена из данных, будет все чаще использоваться в качестве замены таким человеческим качествам, как опыт и способность суждения. А по мере перехода управленцев к принятию решений на основе результатов обработки данных с помощью автоматизированных средств потребность в обширной аналитической и управленческой инфраструктуре с привлечением значительных людских ресурсов будет неуклонно снижаться. Таким образом, там, где сегодня требуется целая команда аналитиков, которые собирают информацию и доводят результаты анализа до сведения руководителей разного уровня, в будущем будет достаточно одного управленца с мощным алгоритмом. Структура организаций, вероятно, будет упрощаться. Необходимость в руководителях среднего звена отпадет, а рабочие места для квалифицированных аналитиков просто-напросто исчезнут, так как большинство связанных с анализом задач смогут выполнять обычные сотрудники.

Одним из ярчайших примеров того колоссального влияния, которое внедрение технологий автоматизации умственного труда способно оказать на работу организаций, может служить ПО, разрабатываемое стартапом из Нью-Йорка WorkFusion. Эта компания предлагает крупным корпорациям интеллектуальную программную платформу, которая автоматизирует практически весь цикл работ по управлению проектами, в прошлом считавшихся исключительно трудоемкими, за счет комбинирования краудсорсинга и автоматизации.

Программное обеспечение WorkFusion начинает работу с анализа проекта, выявляя задачи, которые могут быть автоматизированы напрямую; задачи, которые требуют использования краудсорсинга, и задачи, которые должны выполняться штатными специалистами. Система может автоматически публиковать списки вакансий на специализированных сайтах (например, Elance и Craigslist), а также управлять процессом отбора и найма квалифицированных фрилансеров. Также система занимается распределением заданий и оценкой результатов работы нанятых специалистов. В частности, с целью проверки качества работы фрилансеров система периодически просит их ответить на вопросы, ответ на которые она уже знает. Она отслеживает показатели производительности труда (например, скорость печати) и автоматически подбирает сотрудникам работу, исходя из их способностей. Если определенный сотрудник не может справиться с какой-либо задачей, система автоматически передает ее другому сотруднику, обладающему необходимыми навыками.

Следует отметить, что, несмотря на почти полную автоматизацию процесса управления проектом и значительное снижение потребности в штатных специалистах, использование данного ПО, несомненно, открывает новые возможности перед фрилансерами. Впрочем, так будет не всегда: по мере выполнения сотрудниками выданных заданий алгоритмы машинного обучения WorkFusion непрерывно ищут возможности для дальнейшей автоматизации всего процесса. Другими словами, даже когда фрилансеры работают под контролем системы, они фактически генерируют исходные данные для машинного обучения, т. е. со временем выполняемые ими задачи также будут автоматизированы.

В одном из первых своих проектов компания должна была собрать информацию для актуализации набора данных, состоящего приблизительно из 40 000 записей. Ранее заказавшая проект корпорация ежегодно привлекала к этой работе штатных сотрудников, платя им приблизительно по $4 за каждую запись. После внедрения платформы WorkFusion заказчик получил возможность актуализировать записи ежемесячно по цене $0,2 за каждую. Сотрудники WorkFusion установили, что дальнейшая автоматизация процесса за счет встроенных в систему алгоритмов машинного обучения, как правило, обеспечивает снижение расходов на 50 % через один год и еще на 25 % — через два{129}.

Когнитивные вычисления и суперкомпьютер IBM Watson

В один из осенних дней в 2004 г. топ-менеджер IBM Чарльз Ликель обедал с небольшой группой исследователей в стейк-хаусе рядом с Поукипзи в штате Нью-Йорк. Ровно в семь вечера сотрудники IBM, к своему глубокому удивлению, увидели, как люди вокруг начали вставать из-за столов, устремляясь к телевизору в зоне бара. Оказалось, что Кен Дженнингс, который к тому времени уже выиграл более пятидесяти игр подряд в телевизионной викторине «Jeopardy!», решил продолжить свою победную серию. Ликель заметил, что завсегдатаи ресторана не вернулись к своим стейкам, пока игра не закончилась, — они были полностью поглощены шоу{130}.

Этот случай, если верить воспоминаниям его участников, сыграл ключевую роль в рождении идеи о создании компьютера, который мог бы принять участие — и победить лучших игроков — в «Jeopardy!»[26]. У компании IBM был большой опыт инвестирования в резонансные проекты, которые ее сотрудники называли «глобальными вызовами», демонстрирующие мощь технологий IBM и обеспечивающие при этом такой уровень внимания к компании, который невозможно купить ни за какие деньги. В рамках предшествующего глобального проекта, за семь с половиной лет до того, другой суперкомпьютер IBM под названием Deep Blue нанес поражение чемпиону мира по шахматам Гарри Каспарову в ходе матча из шести игр — события, которое навсегда связало бренд IBM с уникальным моментом в истории, когда машина впервые взяла верх над человеком в шахматах. Руководству компании нужен был новый глобальный вызов, который мог бы привлечь внимание общественности к деятельности IBM и со всей очевидностью продемонстрировать ее лидерство в области технологий, а также — и, пожалуй, это было важнее всего — опровергнуть любые домыслы о том, что после Big Blue компания IBM передала эстафетную палочку главного инноватора в мире информационных технологий Google и стартапам из Кремниевой долины.

Несмотря на горячую поддержку со стороны топ-менеджеров компании, идея соперничества между машиной и человеком в формате «Jeopardy!», кульминацией которого должен был стать матч между лучшими игроками и компьютером IBM, поначалу была встречена в штыки инженерами, которым, собственно, и предстояло заниматься ее реализацией. Чтобы играть в «Jeopardy!», компьютер должен был обладать возможностями, намного превосходящими все, что было до того. Многие исследователи опасались, что все это закончится неудачей или — хуже того — позором для компании на национальном телевидении.

И действительно, никаких убедительных аргументов в пользу того, что триумф Deep Blue в шахматах мог быть повторен в «Jeopardy!», не было. Шахматы — игра с четко сформулированными правилами; она практически идеально подходит для обкатки вычислительных технологий. В значительной мере своей победой IBM была обязана мощным аппаратным средствам, которые были специально подобраны для решения конкретной проблемы. Deep Blue представлял собой напичканную процессорами систему размером с холодильник, спроектированную специально для игры в шахматы. Благодаря всей этой мощи суперкомпьютер мог просто перебирать все возможные ходы с учетом текущего положения фигур на доске. Затем для каждого из возможных вариантов дальнейшего развития событий программные алгоритмы просчитывали игру на множество ходов вперед, взвешивая возможные действия обоих игроков и буквально воспроизводя бесчисленное количество перестановок — трудоемкий процесс, которые почти всегда обеспечивал нахождение оптимальной стратегии. По сути дела, Deep Blue был примером чистой математики; вся информация, которая требовалась компьютеру для игры, поступала ему в удобном для обработки формате, не требовавшем никаких дополнительных преобразований. При этом машине не нужно было взаимодействовать со средой так, как это делает игрок.

В «Jeopardy!» все было совершенно по-другому. В отличие от шахмат, эта игра по самой своей природе не ограничена никакими рамками. В ней могут быть вопросы на любую тему, с которой знаком каждый образованный человек, включая историю, кинематограф, литературу, географию, массовую культуру и многое-многое другое. В таких условиях компьютер сталкивается с целым рядом чрезвычайно трудных проблем технического характера. Самая большая из них — необходимость понимать естественный язык: компьютер должен получать информацию и давать ответы в той же форме, что и обычные игроки. Еще одним особенно трудным препятствием на пути к победе в «Jeopardy!» является то обстоятельство, что это шоу не просто честная игра по правилам, но еще и увлекательное развлечение для миллионов телезрителей. Сценаристы часто намеренно добавляют в подсказки юмор, иронию и утонченную игру слов — другими словами, все те виды входных данных, которые как будто специально предназначены для того, чтобы спровоцировать компьютер на глупый ответ.

В одном документе компании IBM, в котором описывается технология Watson, указывается на следующее: «Мы имеем дело с носами, которые текут, и ногами, которые пахнут. Как "никаких шансов" может означать то же, что и "держи карман шире", а "умник" и "умница" — быть противоположными по смыслу? Как понять, когда "сгореть" — это о доме, который сгорел дотла, а когда — о человеке, который растратил весь свой потенциал? Почему, чтобы вывести данные на экране, мы должны их ввести?»{131}. Чтобы сыграть в «Jeopardy!», компьютер должен тонко чувствовать все нюансы повседневного словоупотребления, при этом демонстрируя такой общий уровень понимания смысла высказываний, который намного превосходит любые аналогичные компьютерные алгоритмы, предназначенные для погружения в пучину текста в поисках ответов. Возьмем, для примера подсказку «Забей его, и штраф тебе обеспечен»[27]. Это — подсказка из игры, которая была показана в эфире в июле 2000 г. При этом она была в самом верхнем ряду экрана с заданиями, т. е. считалась очень легкой. Попробуйте выполнить поиск по этим словам в Google, и вы получите множество страниц с информацией о различных видах штрафов за самые разные виды нарушений. (Разумеется, следует исключить из результатов точное совпадение с фразой на сайте, содержащем все вопросы из прошедших игр «Jeopardy!»). Правильный ответ — «Что такое „биток“[28]?» — полностью ускользает от внимания алгоритма Google, отвечающего за поиск по ключевым словам[29].

Все эти трудности не были секретом для специалиста по искусственному интеллекту Дэвида Феруччи, который руководил командой, занимавшейся созданием Watson. Перед этим Феруччи возглавлял небольшую группу исследователей в IBM, разрабатывавшую систему, которая могла бы отвечать на вопросы, сформулированные на естественном языке. Феруччи и его коллеги включили свою систему, которую они назвали Piquant (англ. «пикантная»), в состав участников состязания, проводимого Национальным бюро стандартов и технологий, т. е. тем самым органом, который спонсировал выигранный Google конкурс по машинному переводу. По условиям состязания, системы должны были обработать ограниченный набор данных, содержащийся приблизительно в миллионе документов, а затем дать ответы на вопросы. При этом никаких временных ограничений установлено не было. В некоторых случаях на поиск ответа у алгоритмов уходило до нескольких минут{132}. По степени сложности это задание не шло ни в какое сравнение с «Jeopardy!», где за каждой подсказкой стоит, казалось бы, безграничный объем знаний и где у машины была бы всего пара секунд для поиска правильного ответа, иначе у нее не было бы никаких шансов на победу над лучшими игроками.

Проблема Piquant (а также ее конкурентов) была не только в скорости, но и в точности. Система выдавала правильные ответы на вопросы лишь в 35 % случаев — для такого результата было бы достаточно просто ввести вопросы в строку поиска Google{133}. Любые попытки команды Феруччи построить прототип системы для игры в «Jeopardy!» на основе проекта Piquant неизменно заканчивались неудачей. Сама мысль о том, что однажды Piquant сможет составить конкуренцию лучшему игроку «Jeopardy!» Кену Дженнигсу, казалась просто нелепой. Феруччи пришлось признать, что его команде придется начинать с нуля, а сам проект потребует масштабных исследований и разработок, на которые уйдет по меньшей мере полдесятилетия. В 2007 г. он получил одобрение от руководства IBM и принялся за разработку, как сам об этом говорит, «самой сложной интеллектуальной архитектуры, которую когда-либо видел мир»{134}. Он привлек к решению этой задачи ресурсы всей компании, собрав вместе специалистов по искусственному интеллекту из различных подразделений IBM, а также лучших университетов, включая МIT и Университет Карнеги — Меллона{135}.

Команда Феруччи, в которую в конечном итоге вошло около двадцати исследователей, начала работу с создания массивного набора справочной информации, которая должна была послужить основой для ответов Watson. В него вошло приблизительно 200 млн страниц информации, включая словари и справочники, произведения литературы, газетные архивы, веб-страницы и почти все содержимое «Википедии». Затем они собрали исторические данные по всем выпускам телевикторины «Jeopardy!». Свыше 180 000 подсказок из предшествующих игр послужили исходным материалом для алгоритмов машинного обучения Watson, тогда как результаты лучших игроков были использованы для оттачивания игровой стратегии суперкомпьютера{136}. При разработке Watson были созданы тысячи отдельных алгоритмов, каждый из которых был направлен на решение конкретной задачи, включая, например, поиск по тексту, сравнение дат, времени и мест, анализ грамматических конструкций в подсказках и преобразование исходной информации в надлежащим образом оформленные возможные ответы.

При поиске ответа Watson сначала разбирает подсказку на составные части, анализирует слова и пытается понять, что именно он должен найти. Этот кажущийся столь простым этап сам по себе представляет задачу колоссальной трудности для компьютера. Рассмотрим, например, подсказку из категории «Блоги Линкольна», которая использовалась при обучении Watson: «Секретарь Чейз только что передал это мне в третий раз. И знаешь что, дружище? На этот раз я это принимаю». Чтобы у машины был хоть какой-то шанс дать правильный ответ, она должна для начала понять, что первое слово «это» в данном примере выступает в качестве заместителя ответа, который она и должна найти{137}.

Как только Watson заканчивает анализ подсказки, он запускает сразу сотни алгоритмов, каждый из которых применяет отличный от остальных подход, пытаясь найти возможный ответ в содержащемся в памяти компьютера массиве справочных материалов. Если вернуться к приведенному выше примеру, то сначала Watson выделяет слово «Линкольн» в названии категории как значимое, а слово «блоги» игнорирует, воспринимая его как фактор отвлечения внимания: в отличие от человека, машина не способна понять, что сценаристы шоу пытались представить Авраама Линкольна блогером.

По мере того как конкурирующие поисковые алгоритмы выдают сотни возможных ответов, Watson начинает их сравнивать и ранжировать по определенным критериям. Один из используемых машиной методов отбора предполагает вставку возможного ответа в исходную подсказку таким образом, чтобы в итоге получилось утверждение; затем машина снова обращается к справочным материалам в поисках подкрепляющих данное утверждение данных. Итак, одному из поисковых алгоритмов удается отыскать правильный ответ — «прошение об отставке». В этом случае Watson может попробовать обнаружить в своем наборе данных что-то вроде следующего утверждения: «Секретарь Чейз только что подал Линкольну прошение об отставке в третий раз». Он найдет большое количество близких совпадений, что увеличит степень уверенности суперкомпьютера в правильности данного конкретного ответа. Кроме того, при оценке возможных ответов Watson обращается к большому объему исторических данных: он точно знает, какие алгоритмы показывают наилучшие результаты при работе с вопросами определенного типа, а также очень внимательно «прислушивается» к тем из них, которые демонстрируют самые высокие показатели. Способность Watson правильно ранжировать сформулированные на естественном языке ответы, а затем определять степень уверенности в правильности ответа и решать, нажимать кнопку в «Jeopardy!» или нет, является одной из определяющих характеристик системы — тем самым качеством, которое ставит его на передний край в мире технологий искусственного интеллекта. Машина IBM «знает, что она знает», т. е. делает что-то такое, что легко дается людям и ускользает практически от всех компьютеров, когда они погружаются в массивы неструктурированной информации, предназначенной для людей, а не для машин.

Watson одержал верх над чемпионами «Jeopardy!» Кеном Дженнигсом и Брэдом Раттером в двух играх, показанных в эфире американского телевидения в феврале 2011 г., обеспечив компании IBM тот всплеск общественного внимания, на который она изначально и рассчитывала. Но еще задолго до того, как шумиха, поднявшаяся в СМИ вокруг этого выдающегося достижения, стала стихать, началась реализация проекта, который имел куда более серьезные последствия: специалисты IBM запустили кампанию по поиску возможностей для применения возможностей Watson в реальном мире. Одной из самых многообещающих областей является медицина. При использовании в качестве инструмента диагностики Watson обеспечивает получение точных ответов на основе анализа громадного количества медицинской информации, включающей учебники, научные журналы, клинические исследования и даже записи врачей и медсестер, относящиеся к конкретным пациентам. Ни один врач не сможет сравниться с Watson по способности погружаться в огромные массивы данных и обнаруживать в них неочевидные взаимосвязи — особенно если информация берется из источников, находящихся на стыке медицинских специальностей[30]. К 2013 г. Watson уже помогал диагностировать заболевания и корректировать планы лечения пациентов в крупных медицинских учреждениях, включая Кливлендскую клинику и Онкологический центр Андерсона при Техасском университете.

В ходе адаптации Watson к выполнению практических задач исследователям IBM пришлось проверить на прочность один из ключевых постулатов революции больших данных: идею о том, что прогнозирования на основе корреляции достаточно и что глубинные причинно-следственные связи, как правило, не поддаются анализу, да и сам такой анализ не нужен. Новые возможности открывает программный комплекс WatsonPaths, позволяя пойти дальше простого поиска ответов на вопросы; показывая исследователям конкретные источники, к которым обращался Watson; логику, которой он руководствовался при оценке, и выводы, которые он сделал в процессе поиска ответа. Другими словами, Watson постепенно приближается к тому, чтобы обеспечивать более глубокое понимание того, почему что-то соответствует истине. WatsonPaths также используется в качестве средства обучения студентов-медиков методам диагностирования. Менее чем через три года после успешного завершения группой людей проекта по созданию и обучению Watson ситуация поменялась — во всяком случае в определенной мере — с точностью до наоборот, и теперь люди учатся у компьютерной системы решать сложные примеры{138}.

Другими очевидными сферами практического применения системы Watson являются обслуживание клиентов и техническая поддержка. В 2013 г. IBM объявила о начале сотрудничества с компанией Fluid, Inc., являющейся крупным поставщиком услуг в области интернет-торговли и консалтинга. Цель проекта — разработать для интернет-магазинов систему помощи клиентам, которая обеспечивала бы индивидуальный подход и умела пользоваться естественным языком так, как это делают опытные продавцы-консультанты в магазинах розничной торговли. Если вы собираетесь в поход и вам нужна палатка, вам достаточно будет просто сказать что-нибудь вроде: «В октябре мы с семьей отправляемся в поход на север штата Нью-Йорк, и мне нужна палатка. Что посоветуете?» В ответ вы получите конкретные рекомендации по выбору палатки, а также информацию о других вещах, которые могут пригодиться в походе и о которых вы могли забыть{139}. Как я уже говорил в первой главе, появление такой возможности в виде приложения для смартфона, с помощью которого покупатели смогут получить рекомендации на естественном языке, подобно тому, как это происходит в традиционных магазинах, — лишь вопрос времени.

Еще одна компания под названием MD Buyline, Inc., специализирующаяся на предоставлении больницам информации о новейших медицинских технологиях и последних научных исследованиях, также планирует использовать Watson для поиска ответов на вопросы сугубо технического характера, поступающие от больниц, планирующих закупку нового оборудования. Система будет использовать данные о технических характеристиках оборудования, ценах и клинических исследованиях, чтобы оперативно сформулировать конкретные рекомендации врачам и сотрудникам, отвечающим за закупки{140}. Пробует себя Watson и в финансовой отрасли, где суперкомпьютер может стать средством выработки персональных рекомендаций финансового характера на основе углубленного анализа информации о клиентах, а также данных о ситуации на рынке и в экономике. Но если говорить о ближайшем будущем, то, пожалуй, самые серьезные последствия для рынка труда может иметь использование Watson в колл-центрах, занимающихся обслуживанием клиентов, — не случайно в том самом году, когда Watson одержал триумфальную победу в «Jeopardy!», IBM уже сотрудничала с Citigroup в рамках проекта по изучению возможностей для практического применения системы в сфере розничного банковского обслуживания, на которую приходится огромная доля бизнеса этой компании{141}.

Разработанная IBM технология все еще делает свои первые шаги. Watson — как и конкурирующие с ним системы, которые наверняка заявят о себе совсем скоро, — способен произвести революцию в том, как мы задаем вопросы и даем на них ответы, а также в том, как мы подходим к анализу информации — как внутри организаций, так и в процессе взаимодействия с клиентами. При этом не следует заниматься самообманом: если бы не системы этого типа, значительная часть выполняемой ими аналитической работы досталась бы людям, занимающимся умственным трудом.

Строительные блоки в облаке

В ноябре 2013 г. компания IBM объявила о переносе системы Watson со специально разработанного для него компьютерного оборудования, которое использовалось во время игр «Jeopardy!», в облако. Другими словами, теперь Watson будет пользоваться ресурсами огромного массива подключенных к Интернету серверов. Разработчики смогут напрямую подключаться к системе и использовать революционные технологии когнитивных вычислений IBM в собственных настольных и мобильных приложениях. Любопытно, что по производительности эта последняя версия Watson в два раза быстрее своего предшественника времен «Jeopardy!». IBM надеется, что уже в скором времени будет создана целая экосистема приложений, использующих технологии искусственного интеллекта для обработки естественного языка, и в каждом из них будет упоминание того, что оно работает «на базе Watson»{142}.

Миграция передовой технологии искусственного интеллекта в облако почти наверняка станет мощным фактором автоматизации служебных обязанностей белых воротничков. Облачные вычисления стали полем ожесточенной конкурентной борьбы между крупнейшими компаниями в отрасли информационных технологий, включая Amazon, Google и Microsoft. Google, например, предлагает разработчикам воспользоваться возможностями облачного приложения, реализующего технологии машинного обучения, а также мощнейшей вычислительной системы, позволяющей разработчикам решать сложнейшие проблемы с большим объемом вычислений, обеспечивая выполнение их программ на высокопроизводительных суперкомпьютерах, например состоящих из объединенных в сеть отдельных серверов. Amazon является ведущим поставщиком услуг облачных вычислений в отрасли. Благодаря десяткам тысяч компьютеров, составляющих основу облачного сервиса Amazon, небольшой компании Cycle Computing, специализирующейся на задачах, связанных с большими объемами вычислений, понадобилось всего лишь 18 часов, чтобы решить проблему, с которой один компьютер не смог бы справиться и за 260 лет. По оценкам компании, до появления облачных вычислений на создание суперкомпьютера, способного найти решение этой проблемы, ушло бы $68 млн. Для сравнения: в облаке Amazon можно арендовать 10 000 серверов приблизительно за $90 в час{143}.

В сфере технологий автоматизации умственного труда разворачиваются те же процессы, что и области робототехники, которая готовится к настоящей революции, обеспеченной удешевлением и повышением производительности программных и аппаратных компонентов. Как только технологии вроде Watson, нейронных сетей с возможностью углубленного обучения и систем генерирования связной письменной речи окажутся в облаке, они, по существу, превратятся в строительные блоки, которые можно будет комбинировать множеством разных способов. Следуя примеру умельцев, которые быстро нашли применение технологии Kinect компании Microsoft в качестве недорого средства обеспечения трехмерного машинного зрения для роботов, разработчики также найдут неожиданные — и, возможно, революционные — возможности для применения на практике строительных блоков, состоящих из ПО, находящегося в облаке. Каждый такой блок является своего рода «черным ящиком», т. е. он может быть использован программистами, которые могут даже до конца и не понимать, как он работает. В конечном итоге все это наверняка приведет к созданию командами специалистов прорывных технологий искусственного интеллекта, которые очень быстро будут применяться повсеместно и станут доступны даже для непрофессиональных программистов.

Но если инновации в робототехнике приводят к появлению осязаемых объектов — машин, которые часто ассоциируются с конкретными профессиями (к примеру, установка по производству бургеров или робот, занимающийся высокоточной сборкой), прогресс в области программной автоматизации, скорее всего, будет не столь заметен для рядового человека; во многих случаях результаты будут скрыты от чужих глаз за стенами офисов, а влияние на работу организаций и их сотрудников будет носить более глобальный характер. Процесс автоматизации профессий, связанных с умственным трудом, вероятнее всего, будет выглядеть следующим образом: команда консультантов в области информационных технологий придет в крупную организацию и создаст там с нуля системы, способные произвести революцию в подходах к ведению бизнеса, одновременно делая ненужной работу сотен и даже тысяч квалифицированных сотрудников. Более того, одним из открыто заявленных IBM мотивов разработки технологии Watson было повышение конкурентоспособности собственного консалтингового подразделения корпорации, на которое наряду с продажей ПО сейчас приходится львиная доля выручки. В то же время предприниматели уже ищут способы использования тех же самых строительных блоков на основе облачных технологий для создания доступных программных средств автоматизации, ориентированных на нужды малого и среднего бизнеса.

Появление облачных вычислений уже оказало значительное влияние на состояние рынка труда в сфере информационных технологий. В период технологического бума в 1990-е гг. у многих компаний и организаций, независимо от их размера, возникла потребность в ИТ-специалистах, умеющих настраивать и обслуживать персональные компьютеры, вычислительные сети и ПО. В результате было создано огромное количество хорошо оплачиваемых работников. Однако к началу XXI в. ситуация поменялась: все больше и больше компаний стали пользоваться услугами громадных централизованных вычислительных центров, делегируя им функции своих ИТ-подразделений.

Использование больших площадок для размещения облачных сервисов обеспечивает колоссальную экономию ресурсов, а административные задачи, для выполнения которых когда-то приходилось нанимать целую армию ИТ-специалистов, были в значительной степени автоматизированы. К примеру, компания Facebook внедрила приложение под названием «Киборг», относящееся к классу интеллектуального ПО, для постоянного мониторинга десятков тысяч серверов, выявления проблем и — во многих случаях — их устранения без посторонней помощи. В ноябре 2013 г. один из топ-менеджеров рассказал, что система «Киборг» ежедневно решает тысячи проблем, с которыми иначе пришлось бы разбираться вручную. Также он отметил, что с помощью данной технологии один технический специалист может обслуживать до 20 000 компьютеров{144}.

Центры обработки данных для облачных вычислений часто строятся в относительно удаленных от больших городов районах, где много дешевой земли и, что особенно важно, электроэнергии. Региональные и местные власти активно борются за право размещения вычислительных центров, привлекая компании вроде Google, Facebook и Apple щедрыми налоговыми льготами и другими привилегиями финансового характера. Разумеется, их первоочередная цель — создание рабочих мест для местных жителей; но эти надежды редко сбываются. В 2011 г. корреспондент The Washington Post Майкл Розенвалд опубликовал материал, в котором рассказал, что после постройки компанией Apple, Inc. гигантского центра обработки данных стоимостью $1 млрд в городе Мейден в штате Северная Каролина было создано лишь 50 рабочих мест с полной занятостью. Разочарованные жители не могли «понять, как столь дорогостоящий объект площадью несколько сотен акров может обслуживаться таким небольшим количеством сотрудников»{145}. Объясняется это, разумеется, тем, что вся рутинная работа выполняется алгоритмами вроде «Киборга».

Влияние данной тенденции на рынок труда выходит за пределы центров обработки данных, распространяясь на компании, пользующиеся сервисами облачных вычислений. В 2012 г. Роман Станек, который возглавляет компанию Good Data в Сан-Франциско, использующую облачные сервисы Amazon для анализа данных приблизительно 6000 клиентов, заявил, что «раньше для выполнения этой работы каждому из наших корпоративных [клиентов] требовалось не менее пяти человек. А это — 30 000 человек. Мы обходимся 180. Не знаю, чем все эти люди занимаются сейчас, но эту работу они больше делать не смогут. Это консолидация по принципу "победитель получает всё"»{146}.

Исчезновение тысяч рабочих мест для высококвалифицированных специалистов в области информационных технологий, скорее всего, — лишь первое звено в цепи глубинных сдвигов, которые будут иметь куда более серьезные последствия для работников умственного труда и их востребованности. По меткому выражению одного из основателей Netscape венчурного инвестора Марка Андриссена: «Программное обеспечение пожирает мир». Теперь еще это ПО чаще всего будет размещаться в облаке. А облако — отличный плацдарм для вторжения практически во все сферы занятости и уничтожения почти всех рабочих мест для белых воротничков, предполагающих работу с информацией на компьютере.

Алгоритмы решают всё

Если говорить о заблуждениях в отношении компьютерных технологий, от которых давно пора избавиться, в первую очередь следует упомянуть глубокую веру в то, что компьютеры строго подчиняются заданной программе. Как мы видели, алгоритмы машинного обучения ежедневно обрабатывают горы данных, выявляя статистические связи и, по существу, создавая собственные программы на основе результатов поиска. Но и это еще не все — в некоторых случаях компьютеры выходят за рамки привычного, проникая в сферы, которые, по убеждению подавляющего большинства людей, являются исключительной прерогативой человеческого сознания: машины начинают демонстрировать признаки любопытства и творчества.

В 2009 г. Ход Липсон, возглавляющий Лабораторию креативных машин при Корнельском университете, и аспирант Майкл Шмидт построили систему, которая оказалась способна самостоятельно открывать фундаментальные законы природы. Липсон и Шмидт начали с монтажа двойного маятника — хитроумного механизма, состоящего из двух прикрепленных друг к другу маятников. Когда оба маятника колеблются, они движутся по очень сложным траекториям, которые кажутся хаотичными. Далее экспериментаторы использовали датчики и камеры для фиксации движения маятников, получив в результате поток данных. Наконец, они предоставили своему ПО возможность самостоятельно задавать начальную позицию маятника. Другими словами, разработчики создали исследователя с искусственным интеллектом, который может проводить собственные эксперименты.

Они дали программе полную свободу: она могла самостоятельно отпускать маятник, а затем тщательно изучать полученные данные о его перемещениях с целью вычисления математических уравнений, описывающих поведение маятника. Алгоритм контролировал все аспекты эксперимента; при каждом повторении он случайным образом выбирал положение, из которого маятник должен был начать движение, а затем выполнял анализ и выбирал новое положение, которое с наибольшей вероятностью должно было приблизить его к пониманию законов, определяющих движение маятника. Липсон отмечает, что система «не является пассивным алгоритмом, который выступает в роли простого наблюдателя. Она задает вопросы. Это — любопытство»{147}. Программе, которая позже получила название «Эврика», хватило несколько часов, чтобы сформулировать ряд физических законов, описывающих движение маятника, включая второй закон Ньютона; при этом она смогла сделать это, не получив предварительно никакой информации о физике или законах движения и не будучи запрограммированной на их изучение.

В «Эврике» применяется генетическое программирование — метод, повторяющий принципы биологической эволюции. Алгоритм начинает с составления уравнений путем случайного сопоставления различных строительных блоков, состоящих из математических выражений, а затем проверяет, насколько хорошо получившиеся уравнения соответствуют данным[31]. Уравнения, которые не проходят проверку, отбраковываются, а те, которые демонстрируют определенный потенциал, перекомпоновываются таким образом, чтобы в конечном итоге из них могла получиться точная математическая модель{148}. Процесс нахождения уравнения, описывающего поведение естественной системы, уж точно нельзя назвать пустячной задачей. По словам Липсона: «[П]режде на создание одной прогнозирующей модели у [ученого] могла уйти целая жизнь»{149}. Шмидт добавляет: «[Ф]изики вроде Ньютона и Кеплера могли бы запустить этот алгоритм на компьютере и всего после нескольких часов вычислений получить законы, объясняющие падение яблока или движение планет»{150}.

Когда Шмидт и Липсон опубликовали статью с описанием своего алгоритма, на них обрушился шквал запросов на получение доступа к их программе от других ученых. В связи с этим в конце 2009 г. они решили сделать «Эврику» доступной через Интернет. За прошедшее с того момента время с помощью этой программы удалось получить интересные результаты в ряде областей науки, включая упрощенный вариант уравнения, описывающего биохимическую природу бактерий, которую ученые до сих пор не могут до конца понять{151}. В 2011 г. Шмидт основал в районе Бостона стартап Nutonian, Inc. с целью коммерциализации «Эврики» в качестве инструмента анализа больших данных как в бизнесе, так в научной сфере. Одним из результатов проделанной работы стал перенос «Эврики» — по примеру системы Watson компании IBM — в облачную среду и превращение ее в приложение, которое доступно другим разработчикам ПО в виде встраиваемого модуля.

Большинство из нас склонны — что вполне естественно — связывать идею творчества исключительно с мозгом человека, но будет нелишним напомнить, что сам наш мозг — несомненно самое сложное «изобретение» из всех ныне существующих — является продуктом эволюции. С этой точки зрения вряд ли стоит удивляться тому, что очень часто при попытке создания способных к творчеству машин используются методы генетического программирования. Суть генетического программирования заключается в том, чтобы научить компьютерные алгоритмы проектировать самих себя путем естественного отбора в соответствии с описанными Дарвином принципами. Все начинается с генерирования случайного компьютерного кода, который затем многократно редактируется с помощью методов, имитирующих процесс полового размножения. Время от времени в код вбрасывается случайная мутация, в результате чего процесс его формирования может пойти совершенно другим путем. Появляющиеся новые алгоритмы подвергаются проверке на пригодность, в результате которой они либо выживают, либо — что происходит намного чаще — умирают. Одним из ведущих исследователей в этой области является профессор Стэнфордского университета, специалист в области информационных технологий и консалтинга Джон Коза. Он проделал большую работу по использованию генетических алгоритмов в качестве «средств автоматизации изобретательской деятельности»[32]. Коза привел по меньшей мере семьдесят шесть примеров того, как в результате использования генетических алгоритмов были получены результаты, способные конкурировать с плодами работы инженеров и ученых. Приведенные им примеры относились к самым разным областям, включая проектирование электрических цепей, механические системы, оптику, восстановление ПО и гражданское строительство. В большинстве из них алгоритмы воспроизвели существующие разработки, но по крайней мере в двух случаях генетические программы сумели создать патентоспособные изобретения{152}. По мнению Коза, генетические алгоритмы обладают неоспоримым преимуществом перед разработчиками-людьми, поскольку не ограничены рамками сложившихся представлений; другими словами, они с большей вероятностью могут найти принципиально новый подход к решению проблемы{153}.

Если исходить из предположения Липсона о способности «Эврики» проявлять любопытство и утверждения Коза об отсутствии у компьютеров предубеждений, придется допустить, что творчество не является чем-то, выходящим за пределы возможностей компьютеров. Окончательно поверить в это можно только в том случае, если компьютер сумеет создать что-нибудь, что человек сочтет произведением искусства. Мы воспринимаем художественное творчество — наверное, в большей степени, чем любой другой вид интеллектуальной деятельности, — в качестве уникального проявления человеческого сознания. Как заметил журналист Time Лев Гроссман: «Создание произведения искусства относится к одному из тех видов деятельности, которые мы связываем с людьми — и только с людьми. Это — акт самовыражения; вы не можете заниматься этим, если у вас нет своего "Я"»{154}. Если мы признаем саму возможность того, что компьютер может быть настоящим художником, нам придется полностью пересмотреть свои представления о природе машин.

В фильме 2004 г. «Я, робот» главный герой, которого играет Уилл Смит, спрашивает робота: «Может робот написать симфонию? Может робот взять холст и превратить его в прекрасный шедевр?» В своем ответе — «А ты можешь?» — робот исходит из того, что, по правде говоря, подавляющее большинство людей тоже неспособны на это. Однако если бы Смит задал свой вопрос в 2015 г., то он бы получил куда более уверенный ответ: «Да».

В июле 2012 г. Лондонский симфонический оркестр исполнил композицию под названием «Переходы — в бездну». Один из критиков назвал ее «утонченной и восхитительной»{155}. Это событие стало первым в истории случаем исполнения именитым оркестром музыкального произведения, полностью написанного машиной. Автором композиции был Iamus — кластер компьютеров, на котором запущен алгоритм искусственного интеллекта с уклоном в музыку. Iamus (назван в честь героя греческой мифологии, как считалось, он мог понимать язык птиц) был разработан исследователями из Университета Малаги в Испании. Система начинает работу с минимальным набором информации, включая, например, тип инструментов, которые будут использоваться при воспроизведении музыки, а затем без какого-либо вмешательства со стороны человека за считаные минуты создает сложнейшие композиции, способные вызывать по-настоящему сильную эмоциональную реакцию у слушателей. Iamus уже написал миллионы уникальных композиций в классическом для модернизма стиле; вероятно, в будущем он будет адаптирован и к другим музыкальным жанрам. Подобно «Эврике», за созданием Iamus последовало учреждение стартапа с целью коммерциализации технологии. Новая компания под названием Melomics Media, Inc. начала продавать музыку через интернет-магазин, похожий на iTunes. Вся разница в том, что продажа созданных Iamus композиций не обуславливается требованием об авторских отчислениях, благодаря чему покупатели могут использовать эту музыку так, как им заблагорассудится.

Музыка — не единственный вид искусства, который освоили компьютеры. Профессор Симон Колтон из Лондонского университета, занимающийся креативными компьютерными вычислениями, создал программу искусственного интеллекта под названием The Painting Fool, к которой, как он надеется, в будущем все будут относиться как к серьезному художнику (рис. 4.1). «Цель проекта — не разработать ПО, которое будет обрабатывать фотографии, чтобы они были похожи на рисунок; для этого уже многие годы используется Photoshop, — отмечает Колтон. — Цель — проверить, могут ли люди воспринимать творчество компьютерной программы как что-то, заслуживающее внимания само по себе»{156}.

Колтон встроил в систему набор возможностей, которые он называет «способностью к оценочным суждениям и воображению». Программное обеспечение The Painting Fool может идентифицировать эмоции на фотографиях людей, а затем создавать абстрактные портреты, передающие эти эмоциональные состояния. Кроме того, оно может генерировать воображаемые объекты, используя методы на основе принципов генетического программирования. Программа Колтона даже умеет критиковать саму себя. Для этого она использует приложение под названием Darci, созданное исследователями из Университета Бригама Янга.


Разработчики Darci начали с создания базы картин, в которой каждое произведение искусства сопровождалось описательными прилагательными «мрачное», «печальное», «вдохновляющее» и т. п., данными им людьми. Затем они обучили нейронную сеть так, чтобы она могла формировать ассоциации, и, наконец, загрузили в нее новые картины, которые она должна была самостоятельно охарактеризовать. Программа The Painting Fool может использовать результаты работы Darci при принятии решения о достижении или недостижении поставленных целей в процессе создания полотна{157}.

Я не хочу сказать, что в скором времени толпы художников и композиторов лишатся своей работы. Я лишь хочу обратить внимание на то, что для методов, используемых в ПО с творческим уклоном, многие из которых, как мы могли убедиться, основываются на генетическом программировании, можно найти множество других способов применения. Если компьютеры могут сочинять музыку и проектировать электронные компоненты, то нет ничего невероятного в том, что совсем скоро они сформулируют новую правовую доктрину или придумают новый подход к решению какой-либо проблемы в менеджменте. Пока же реальная угроза автоматизации по-прежнему распространяется лишь на те виды умственного труда, которые отличаются наибольшей степенью рутинности и шаблонности. Однако ситуация меняется очень быстро.

Нигде так не ощущается стремительный ход прогресса, как на Уолл-стрит. Там, где когда-то вся торговля в большой степени зависела от непосредственного общения — либо среди несмолкающего гула голосов на биржевых площадках, либо по телефону, — теперь она во многом определяется действиями машин, взаимодействующих по оптоволоконным каналам связи. По некоторым оценкам, на алгоритмы автоматизированной торговли сейчас приходится не менее половины или даже 70 % всех операций на фондовом рынке. Эти изощренные роботы-трейдеры, во многих из которых используются самые передовые разработки в области искусственного интеллекта, не ограничиваются простым выполнением стандартных торговых операций. Чтобы получить прибыль, они отслеживают действия паевых инвестиционных фондов и пенсионных фондов, пытаясь выявить интересующие их акции и скупить их накануне крупных сделок, инициируемых такими фондами. Они стараются обмануть другие алгоритмы, сначала наводняя систему фиктивными заявками-приманками, а затем отзывая их за доли секунды. И Bloomberg, и Dow News Service предлагают специализированные продукты в машиночитаемом формате, призванные удовлетворить потребность в финансовых новостях прожорливые алгоритмы, которые могут — в течение приблизительно нескольких миллисекунд — превратить их в прибыльные торговые операции. Новостные службы также предоставляют оперативные количественные данные, благодаря чему машины всегда в курсе того, какие именно акции и иные инструменты инвестирования пользуются наибольшей популярностью{158}. Twitter, Facebook и блогосфера также служат источниками входных данных для этих соперничающих друг с другом алгоритмов. В 2013 г. группа физиков опубликовала в журнале Nature статью, в которой рассказала о результатах проведенного ею исследования мировых финансовых рынков. В частности, ученые заявили о «нарождающейся экосистеме конкурирующих машин, натравливающих друг на друга „стаи“ хищнических алгоритмов» и предположили, что роботизированная торговля не просто вышла из-под контроля разработавших соответствующие системы людей, но и оказалась выше их понимания{159}.

В этом мире, населенном алгоритмами, которые пребывают в состоянии постоянной борьбы, события разворачиваются столь стремительно, что ни один даже самый быстрый трейдер никогда не сможет за ними угнаться. Более того, скорость — иногда измеряемая в миллионных или даже миллиардных долях секунды — имеет настолько критическое значение для успеха алгоритмической торговли, что фирмы с Уолл-стрит в совокупности уже инвестировали миллиарды долларов в создание вычислительных центров и прокладку коммуникационных каналов, стремясь получить хотя бы незначительное преимущество в скорости. К примеру, в 2009 г. компания Spread Networks потратила целых $200 млн на прокладку новой волоконно-оптической линии связи длиною 1328 км напрямую из Чикаго в Нью-Йорк. Вся работа проводилась в режиме максимальной секретности, чтобы конкуренты ничего не заподозрили, — и это несмотря даже на то, что часть маршрута пролегала через Аллеганские горы и для ее прокладки использовалась взрывчатка. С вводом новой волоконно-оптической линии компания получила преимущество в скорости над существующими линиями связи в три или четыре тысячных секунды. Этого было достаточно, чтобы любая система алгоритмической торговли, использующая новый канал, легко обходила своих конкурентов по рынку. Оказавшись в невыгодной ситуации, фирмы с Уолл-стрит выстроились в очередь на аренду канала связи — по некоторым сведениям, им пришлось выложить за эту услугу в десять раз больше стоимости аренды более медленного канала. Ведется работа по прокладке аналогичного кабеля по дну Атлантического океана между Лондоном и Нью-Йорком; ожидается, что новый канал позволит сократить текущее время выполнения операций на пять тысячных секунды{160}.

Влияние всех этих технологий автоматизации на рынок труда очевидно: даже в период роста фондового рынка в 2012–2013 гг. крупные банки с Уолл-стрит не переставали выступать с объявлениями о массовых увольнениях, часто приводивших к исчезновению десятков тысяч рабочих мест. На рубеже XXI в. на Уолл-стрит работало почти 150 000 финансистов; к 2013 г. это число сократилось чуть более чем на 100 000 — и это при том, что как объем транзакций, так и прибыли отрасли поднялись до рекордно высоких значений{161}. На фоне общего роста уровня безработицы на Уолл-стрит было создано по крайней мере одно высокооплачиваемое рабочее место: в конце 2012 г. Дэвид Феруччи, специалист в области информационных технологий, руководивший проектом по созданию Watson, ушел из IBM, откликнувшись на предложение о работе от одного хеджевого фонда с Уолл-стрит, где ему предстояло применить последние разработки в области искусственного интеллекта для моделирования экономики; судя по всему, предполагалось, что наличие таких моделей должно стать конкурентным преимуществом торговых алгоритмов фирмы{162}.

Офшоринг и рабочие места, требующие высокой квалификации

Констатируя все более высокую автоматизацию рабочих мест, занимаемых сейчас так называемыми белыми воротничками, приходится признать, что все худшее для них — в особенности для представителей профессий, требующих по-настоящему высокой квалификации, — еще впереди.

Казалось бы, это не относится к практике офшоринга — переводу рабочих мест, связанных с умственной работой, в страны с низкой оплатой труда за счет использования электронных средств коммуникации. Высокообразованные и высококвалифицированные специалисты, такие как юристы, рентгенологи и в особенности программисты и эксперты в области информационных технологий, уже почувствовали на себе значительное влияние этого процесса. Например, в Индии работают целые армии операторов колл-центров и ИТ-специалистов, а также специалистов по оформлению налоговой документации, хорошо знакомых с налоговым кодексом США, и юрисконсультов, прошедших специальную подготовку для ведения дел в рамках не индийского, а американского законодательства и готовых в любой момент за небольшую плату провести анализ законодательства и правоприменительной практики для американских фирм, являющихся участниками судебного разбирательства. На первый взгляд, феномен офшоринга никак не связан с атакой компьютеров на рабочие места. Однако все как раз наоборот: очень часто офшоринг предшествует автоматизации, а рабочие места, создаваемые в странах с низким уровнем оплаты труда, оказываются недолговечными, уступая натиску новых технологий. К тому же новые разработки в области искусственного интеллекта способствуют еще большему ускорению темпов офшоризации рабочих мест, которые пока еще не могут быть полностью автоматизированы.

Большинство экономистов рассматривают практику офшоринга как еще один пример глобализации мировой торговли, утверждая, что офшоринг выгоден для всех сторон. Например, в 2004 г., в период работы в качестве председателя Экономического совета при президенте в администрации Буша, профессор Гарвардского университета Грегори Мэнкью заявил, что офшоринг — «самое последнее проявление положительного эффекта от торговли, о котором экономисты говорят по крайней мере со времен Адама Смита»{163}. Многочисленные данные свидетельствуют об обратном. Торговля материальными активами сопровождается созданием множества вспомогательных рабочих мест в различных областях, включая транспортировку, дистрибуцию и розничную торговлю. Кроме того, существуют факторы естественного характера, которые отчасти компенсируют последствия глобализации: например, компания, которая решает перенести производство в Китай, вынуждена нести транспортные расходы, а также мириться с большой задержкой между выпуском продукции и ее появлением на потребительском рынке. Офшоринг с использованием электронных каналов, напротив, практически не связан ни с одним из этих неудобств. Перенос рабочих мест в регионы с низкой оплатой труда происходит мгновенно и с минимальными издержками. При этом если и создаются вспомогательные рабочие места, то чаще всего в стране, где работа выполняется.

По моему мнению, рассматривать офшоринг в контексте «свободной торговли» неправильно. Было бы уместнее связать этот процесс со своего рода виртуальной иммиграцией. Давайте представим, например, что некая компания решает построить огромный колл-центр для своей службы поддержки клиентов к югу от Сан-Диего, в непосредственной близости от границы с Мексикой. Тысячи низкооплачиваемых сотрудников каждое утро будут получать разрешение на работу и переправляться через границу на автобусах. В конце рабочего дня автобусы будут вывозить их обратно. Есть ли какая-либо разница между этой ситуацией (которую, разумеется, следует рассматривать в контексте понятия иммиграции) и переносом рабочих мест в Индию или на Филиппины с использованием электронных каналов связи? В обоих случаях сотрудники, по сути, «въезжают» в США с целью оказания услуг, непосредственными получателями которых являются субъекты экономики США. Самое большое различие заключается в том, что программа предоставления однодневного разрешения на работу сотрудникам из Мексики, вероятно, принесла бы намного большую пользу экономике Калифорнии. Следует помнить о рабочих местах для водителей автобусов, а также о людях, которые будут заниматься обслуживанием громадного объекта на американской стороне границы. В рабочее время сотрудники смогут тратить деньги на обеды или даже просто время от времени выпивать по чашке кофе, тем самым способствуя росту потребительского спроса в рамках местной экономики. Компания — владелец центра в Калифорнии должна будет платить налог на недвижимость. Перенос рабочих мест в другие страны в виртуальной форме не сопровождается ни одним из этих преимуществ. В связи с этим я нахожу весьма забавным то, что многие консерваторы в США твердо убеждены в необходимости защищать границы от иммигрантов, которые, скорее всего, займут рабочие места в сферах, не пользующихся большой популярностью среди американцев, и в то же время не выражают никакого беспокойства относительно открытости виртуальной границы для высококвалифицированных специалистов, отбирающих у американцев рабочие места, от которых они уж точно бы не отказались.

В своей аргументации экономисты вроде Мэнкью, разумеется, оперируют укрупненными показателями, преуменьшая несоразмерность влияния практики офшоринга на две разные группы людей: тех, для кого она — зло, и тех, для кого она — благо. С одной стороны, относительно небольшая, но все-таки заметная группа людей — насчитывающая миллионы человек — может пострадать от значительного падения доходов, снижения качества жизни и отсутствия перспектив в будущем. Многие из них вложили немалые средства в образование и дополнительное обучение. При этом некоторые работники лишатся всех источников дохода. Наверняка Мэнкью возразил бы, что эти потери будут компенсированы общей пользой для всех потребителей. К сожалению, несмотря на возможную выгоду для потребителей от снижения цен в результате офшоринга, эта экономия, вероятнее всего, затронет десятки или даже сотни миллионов человек, позволив им сократить расходы на совсем небольшую величину, равную нескольким пенни, и не оказав хоть сколько-нибудь значимого влияния на благосостояние каждого в отдельности. Ну и, конечно, нет нужды напоминать, что далеко не все доходы достанутся потребителям: значительная их часть осядет в карманах немногочисленных управленцев, инвесторов и бизнесменов, которые и без того не бедствуют. Пожалуй, нет ничего удивительного в том, что эта асимметричность не является тайной для большинства обычных работников, но при этом, судя по всему, она неизменно ускользает от внимания многих экономистов.

Одним из немногих экономистов, признающих разрушительный потенциал офшоринга, является бывший вице-председатель Совета управляющих Федеральной резервной системы Алан Блайндер, который в 2007 г. выступил на страницах The Washington Post со статьей под названием «Свободная торговля — это прекрасно, но мне не дает покоя офшоринг» (Free Trade's Great, but Offshoring Rattles Me){164}. Блайндер провел ряд исследований с целью оценки влияния офшоринга на экономику в будущем и пришел к выводу, что 30–40 млн рабочих мест в США, т. е. рабочие места приблизительно четверти всего экономически активного населения страны, потенциально могут быть перенесены в другие страны. По его словам, «то, что мы видим сейчас, — лишь верхушка офшорингового айсберга; его настоящие размеры могут нас шокировать»{165}.

Практически все профессии, которые главным образом предполагают обработку информации и никак не привязаны к конкретному месту — например, в силу необходимости общаться с клиентами напрямую, — потенциально могут стать жертвой офшоринга в относительно недалеком будущем, а в последующем будут полностью автоматизированы. То, что следующим этапом станет автоматизация, отлично укладывается в логику прогресса. Поэтому можно ожидать, что с развитием технологий все больше и больше рутинных задач, которые сейчас выполняются работниками за пределами США в рамках модели офшоринга, в конце концов будут полностью переданы машинам. Это уже случилось с некоторыми видами работ в колл-центрах — выполнявшие их люди были заменены технологиями автоматизации голосового общения. Приход в сферу обслуживания клиентов по-настоящему мощных систем обработки естественного языка (например, системы Watson компании IBM) создает угрозу для огромного числа рабочих мест в офшоринговых колл-центрах.

На фоне этих процессов становится очевидным, что тем компаниям — и целым странам, которые вложили немалые средства в офшоринг, видя в нем путь к богатству и процветанию, не останется ничего другого, как подняться на следующую ступень по лестнице создания добавленной стоимости. Чем больше стандартных видов деятельности будет автоматизироваться, тем больше рабочих мест, требующих высокой квалификации и профессиональных знаний, будет попадать в поле зрения тех, кто специализируется на офшоринге. Я думаю, мы очень сильно недооцениваем ту роль, которую прогресс в области искусственного интеллекта, а также революция в области больших данных могут сыграть в ускорении темпов офшоризации все более широкого круга профессий, требующих высокой квалификации. Как мы видели, одним из постулатов подхода к менеджменту на основе больших данных является утверждение о том, что результаты алгоритмического анализа являются полноценной заменой человеческим суждениям и опыту. Даже до того, как прикладное ПО на основе искусственного интеллекта достигнет в своем развитии момента, когда станет возможной полная автоматизация всех задач, его уже можно будет использовать в качестве эффективного инструмента, который дает доступ ко все большему количеству аналитических возможностей и институциональных знаний, обеспечивающих бизнесу конкурентные преимущества. Получив в свое распоряжение такой инструмент, толковый молодой сотрудник офшоринговой компании вскоре сможет конкурировать с опытными специалистами из развитых стран, получающими за свою работу достойное вознаграждение.

Если объединить офшоринг с автоматизацией, эта комбинация может иметь по-настоящему сокрушительные последствия для рынка труда. В 2013 г. исследователи из Школы Мартина при Оксфордском университете провели работу, в ходе которой подробно изучили 700 профессий и специальностей в США. В результате они пришли к выводу, что почти 50 % соответствующих рабочих мест могут быть полностью автоматизированы{166}. Алан Блайндер и Алан Крюгер из Принстонского университета провели аналогичное исследование в отношении офшоринга и обнаружили, что около 25 % рабочих мест в США находятся под угрозой переноса в страны с низким уровнем оплаты труда{167}. Остается только надеяться, что в обоих этих исследованиях речь идет об одних и тех же рабочих местах! Во всяком случае это следует из анализа приведенных в них названий профессий и их описания — в значительной степени они совпадают. Однако если рассматривать последовательность возникновения во времени этих двух явлений, то ситуация выглядит несколько иначе. Во многих случаях первым заявляет о себе офшоринг, который в значительной мере выступает в качестве катализатора процесса автоматизации, затягивая многие виды высококвалифицированного труда в зону риска.

Появление мощных инструментов на основе искусственного интеллекта означает, что все больше работников в развивающихся странах могут конкурировать с высокооплачиваемыми специалистами в странах с развитой экономикой. Стремительное развитие технологий заставляет нас пересмотреть многие из базовых представлений о том, какие именно виды работ могут быть делегированы исполнителям в других странах. Например, почти все мы уверены, что те, чья деятельность связана с выполнением каких-то физических операций, могут не беспокоиться за свои рабочие места. Но достаточно вспомнить о военных летчиках, которые каждый день совершают вылеты на беспилотных летательных аппаратах в Афганистане, физически находясь на западе США. По аналогии легко представить ситуацию, когда работники из других стран будут управлять работой оборудования в удаленном режиме, используя свою способность к зрительному восприятию и манипулированию объектами для компенсации тех аспектов деятельности, которые роботы пока не могут выполнять самостоятельно. Еще одним фактором, препятствующим переносу рабочих мест, считается необходимость в личном общении. Однако с появлением технологий удаленного присутствия ситуация полностью изменилась, о чем убедительно свидетельствует пример проекта, в рамках которого преподаватели из корейских школ учили английскому языку детей на Филиппинах, не присутствуя на уроках физически. В будущем, которое уже не за горами, к этим технологиям добавятся технологии создания развитых сред виртуальной реальности, что будет способствовать устранению последних барьеров на пути процесса миграции рабочих мест из страны в страну и упрощению процесса непосредственного взаимодействия с клиентами и заказчиками.

На фоне набирающего темпы офшоринга выпускники колледжей в США и других развитых странах могут столкнуться с мощнейшей конкуренцией, шансы на победу в которой будут зависеть не столько от зарплатных ожиданий, сколько от когнитивных способностей соперников. Общая численность населения Индии и Китая составляет приблизительно 2,6 млрд человек, т. е. в восемь раз превышает численность населения США. Если допустить, что 5 % населения обладают развитыми когнитивными способностями, то мы получим цифру 130 млн человек — а это более 40 % всего населения США. Другими словами, мы вынуждены признать, что, согласно закону нормального распределения, в Китае и Индии намного больше умных людей, чем в США. Разумеется, это не должно вызывать беспокойство до тех пор, пока экономика этих стран способна создавать возможности для всех этих умных специалистов. Однако в реальности все совсем по-другому. Национальная стратегия Индии в области экономики включает создание мощной отрасли, специально нацеленной на захват рабочих мест в США и Европе с использованием электронных средств коммуникации. Да и Китай, даже несмотря на то, что темпы роста экономики в этой стране по-прежнему являются предметом зависти для всего остального мира, с каждым годом все труднее справляется с задачей обеспечения достаточного количества рабочих мест в сфере умственного труда для выпускников своих высших учебных заведений, число которых стремительно растет. В середине 2013 г. китайские власти признали, что лишь половина новоиспеченных специалистов смогла найти работу, тогда как за год до того с этой проблемой столкнулись только 20 % выпускников. Причем, если учесть вакансии с временной занятостью и внештатные позиции, а также тех, кто решил продолжить обучение в магистратуре и аспирантуре, и сотрудников, получивших работу в рамках государственных программ распределения, которые рассматриваются китайскими властями наравне с рабочими местами с постоянной занятостью, эти цифры окажутся еще более внушительными{168}.

До настоящего времени основным препятствием, не позволявшим квалифицированным специалистам из Китая включиться в конкурентную борьбу за рабочие места в индустрии офшоринга, было недостаточно хорошее владение английским и другими европейскими языками. Но даже этот барьер, судя по всему, легко преодолевается благодаря современным технологиям.

У таких технологий, как нейронные сети со способностью к углубленному обучению, есть все шансы превратить машинный синхронный перевод из области научной фантастики в часть повседневной реальности, причем ждать осталось совсем недолго. В июне 2013 г. Хьюго Барра, отвечающий в Google за разработку операционной системы Android, отметил, что, по его оценке, работоспособный «универсальный переводчик», который можно будет использовать как при личном общении, так и во время разговора по телефону, должен появиться в ближайшие несколько лет. Также Барра упомянул о наличии у Google «близкого к совершенному» инструмента для синхронного голосового перевода с английского на португальский и обратно{169}. Кажется неизбежным, что по мере исчезновения с рынка труда рабочих мест, предполагающих выполнение стандартных задач в области умственного труда, в результате их повсеместной автоматизации, будет усиливаться конкуренция за те немногие позиции, которые будут оставаться недоступными для машин. Самые умные люди будут иметь значительное преимущество в этой борьбе, и при поиске работы они наверняка не ограничатся внутренним рынком. В отсутствие препятствий для виртуальной иммиграции позиции выпускников рядовых учебных заведений в развитых странах на мировом рынке труда кажутся все более шаткими.

Образование и взаимодействие с машинами

До сих пор проблема сокращения рабочих мест в результате развития технологий автоматизации, как правило, решается предоставлением работникам возможностей для прохождения дополнительного обучения и повышения квалификации. Считается, что так они могут перейти в другой, более высокий сегмент рынка труда. Как мы видели в главе 1, активное внедрение роботов и технологий самообслуживания в различных отраслях, например в сфере быстрого питания и розничной торговли, грозит безработицей миллионам людей, занимающимся малоквалифицированным трудом. Можно не сомневаться, что именно переподготовка и переобучение будут предложены этим людям в качестве главного решения проблемы трудоустройства. Однако, как следует из содержания этой главы, вечное противостояние технологий и образования приближается к развязке: машины подбираются к профессиям, требующим высокой квалификации.

Среди экономистов, наблюдающих за развитием этой тенденции, формируется новый вариант привычного подхода к проблеме безработицы: по их мнению, в будущем вся работа будет выполняться во взаимодействии с машинами. Наиболее активными проповедниками этой идеи стали Эрик Бринолфссон и Эндрю Макафи из MIT, которые советуют людям «присоединиться к машинам» и перестать видеть в них соперников.

Несмотря на всю его разумность, новым этот совет вряд ли можно назвать. Обучение работе с новейшими технологиями всегда было ключом к успешной карьере. Раньше это называлось «обучением навыкам работы на компьютере». Тем не менее мысль о том, что сейчас, на этом последнем витке прогресса, сопровождающемся экспоненциальным ростом информационных технологий, данное решение может считаться адекватным, вызывает очень большие сомнения.

Олицетворением идеи симбиоза машины и человека стала относительно малоизвестная игра под названием «шахматный фристайл». Сейчас, когда прошло более десяти лет после победы суперкомпьютера Deep Blue компании IBM над чемпионом мира по шахматам Гарри Каспаровым, все сходятся в том, что при игре в шахматы с компьютером один на один у человека нет никаких шансов на победу. Шахматный фристайл, напротив, командная игра. Группы игроков, каждый из которых по отдельности может и не быть гроссмейстером с мировым именем, соревнуются друг с другом. При этом им разрешается пользоваться компьютерными программами для игры в шахматы при подготовке к каждому ходу. На сегодняшний день команды людей с доступом к разным шахматным алгоритмам могут победить любой компьютер.

У идеи о том, что вместо полной автоматизации в будущем на рынке труда будет доминировать принцип взаимодействия человека и машины, есть ряд очевидных недостатков. Первый контраргумент — никто не может поручиться, что доминирование смешанных команд из людей и машин в шахматах будет продолжаться вечно. По моему мнению, используемый этими командами подход — оценка и сравнение результатов применения различных шахматных алгоритмов при принятии решения о следующем ходе — уж очень сильно напоминает то, что делает система Watson компании IBM, когда она одновременно запускает сотни алгоритмов поиска информации, а затем ранжирует полученные результаты для определения оптимального. Не думаю, что буду далек от истины, если предположу, что шахматный «метакомпьютер» с доступом ко множеству алгоритмов в конечном итоге сможет одержать победу над любой командой людей, в особенности если речь идет о скорости.

Кроме того, даже если подход с использованием смешанных команд из людей и машин способен обеспечить преимущество в будущем, сохраняет актуальность вопрос о готовности работодателей инвестировать в реализацию этого преимущества. Несмотря на все лозунги и слоганы, которыми корпорации пичкают своих сотрудников, правда в том, что большинство компаний не готовы доплачивать кругленькие суммы за показатели производительности «мирового уровня», когда речь идет о выполнении больших объемов более или менее рутинной работы в рамках повседневной деятельности. Если у вас есть какие-либо сомнения на этот счет, я бы предложил вам попробовать позвонить вашему интернет-провайдеру. Бизнес будет вкладывать деньги в те направления, которые имеют критически важное значение для его основной деятельности, — другими словами, в те виды деятельности, которые обеспечивают ему конкурентное преимущество. В общем все, как и прежде. Да и к тому же — и это важнее — нет и речи о привлечении новых людей. Работники, которых компании, вероятнее всего, будут нанимать, чтобы вооружить последними технологическими новинками, — это те же самые люди, которым и сегодня не грозит безработица. Речь идет о небольшом количестве самых отборных сотрудников. В своей книге 2013 г. «Среднего более не дано» (Average Is Over)[33] экономист Тайлер Коуэн цитирует одного из знатоков шахматного фристайла, который называет лучших игроков продуктами «генетической аномалии»{170}. Вряд ли можно расценивать его слова как подтверждение идеи о том, что взаимодействие машины и человека является универсальным решением для всех, кто лишится своей рутинной работы. Не будем также забывать и о проблеме офшоринга, о которой говорилось выше. Среди 2,6 млрд жителей Индии и Китая найдется немало тех, кто сделает все, чтобы получить место в элите наемных сотрудников.

Кроме того, есть достаточные основания полагать, что многие из рабочих мест, предполагающих взаимодействие с машинами, будут существовать относительно недолго. Вспомним пример WorkFusion и то, как разработанные этой компанией алгоритмы машинного обучения постепенно автоматизируют все больше и больше видов работ, выполняемых фрилансерами. Подводя итог, приходится констатировать: если вам доведется работать в связке с интеллектуальной программной системой или под ее руководством, то — осознаете вы это или нет — вы сами научите ее всему, что вы знаете и умеете, и в конечном итоге она вас заменит.

Еще одно наблюдение: во многих случаях претендентов на рабочие места, связанные с взаимодействием с машинами, ждет горькое разочарование — как говорится, «будь осторожен в своих мечтах». Чтобы понять, о чем идет речь, давайте рассмотрим в качестве примера ситуацию, складывающуюся сейчас с раскрытием информации в области права. Когда корпорация становится участником судебного разбирательства, перед ней встает задача тщательного изучения огромного количества внутренней документации с целью поиска той, которая потенциально может иметь отношение к рассматриваемому в суде делу. По правилам эта информация должна быть в обязательном порядке передана другой стороне разбирательства. Даже малейшее несоблюдение этих правил влечет за собой серьезные правовые последствия. Одним из парадоксов эпохи электронной документации является то, что само число таких документов, в особенности в форме сообщений электронной почты, очень сильно выросло по сравнению с эрой печатных машинок и бумаги. Для работы с этим несметным числом документов юридические фирмы применяют новые методики.



Поделиться книгой:

На главную
Назад