С развитием этой тенденции мы получим компьютеры колоссальной мощности, встроенные в окружающий мир и не требующие для управления никакого специального интерфейса: реагирующие на сказанное вслух слово или действующие за нас. Чтобы представить это наглядно, подумайте о ношении каких-нибудь фитнес-браслетов Fitbit[137] и тех задачах, которые выполняет их компьютер, чтобы они были эффективными.
Появление многоточечной сенсорной панели (мультитач) стало огромным шагом вперед в дизайне интерфейсов персональных устройств. Она позволяет носить в кармане мощнейшие компьютеры, не требующие лишнего «железа» – мыши или клавиатуры.
Рисунок 3.5.
Такие экраны критикуют как издевательство над нашими умственными способностями, но нельзя отрицать, что эти устройства исключительно просты: двухлетний ребенок в состоянии взять айпад и пользоваться им.
В следующей фазе развития компьютера мы увидим радикальное изменение способов с ним обращаться. Помимо непосредственного ввода информации с помощью виртуальной клавиатуры, голоса, прикосновения, жеста, станет возможен ввод с датчиков. Они будут собирать биометрические данные, показатели состояния здоровья, сведения о геолокации, о работе устройства с учетом данных окружающей среды и даже результатов социального, эвристического и поведенческого анализа, предсказывая и сравнивая наше поведение. Ввод данных перестанет быть линейным и больше не будет ограничиваться одним только экраном или интерфейсом.
Если вы носите смартфон, фитнес-устройство или смарт-часы, они уже сейчас ежедневно собирают огромный объем информации о вас и ваших действиях. Встроенный акселерометр вместе с чипом GPS регистрирует перемещения достаточно точно, чтобы посчитать количество шагов и измерить высоту, когда вы поднимаетесь по лестнице. Носимые пульсомеры и фитнес-мониторы регистрируют частоту сердцебиения и работают как шагомеры. Но следующее поколение сенсорных датчиков будет способно на гораздо большее.
В 2014 году Samsung объявила о создании прототипа носимого устройства Simband, объединяющего десятки разных датчиков, которые могут регистрировать и хранить данные о пройденных за день шагах, сердцебиении, кровотоке и давлении, температуре тела, уровне кислорода и количестве выделившегося пота, – всего 12 типов ключевых данных. Дисплей Simband похож на монитор пульса, стоящий в отделениях интенсивной терапии, только его можно носить на запястье.
Подобно тому как GPS и навигационный софт предсказывают влияние плотности движения на длительность поездки, через 10 лет, в союзе с искусственным интеллектом и алгоритмами, сенсорные датчики смогут регистрировать развивающееся сердечно-сосудистое заболевание, угрозу инсульта, проблемы желудочно-кишечного тракта, нарушения функции печени или острую почечную недостаточность[138] и даже рекомендовать или принимать меры, которые предотвратят критическую ситуацию, пока вы ждете врача.
Рисунок 3.6.
Рисунок 3.7.
Компании, предлагающие страхование жизни и здоровья, начинают понимать, что такие инструменты принципиально снизят их риски при продаже страховых полисов, а держателям полисов (то есть всем нам) позволят, при участии профессиональных врачей, лучше распоряжаться своим здоровьем. Вместо того чтобы оценивать потенциальный риск развития сердечного заболевания, страхование будет занято мониторингом образа жизни и биометрических данных, который позволяет этим риском управлять. Бумажные анкеты-заявки, которые вы заполняете сейчас, покупая страховку, окажутся практически бесполезными по сравнению с данными, которые страховщик получит от комплекта сенсорных датчиков. Кроме того, анкета не поможет человеку контролировать свое питание, физические нагрузки и т. д., чтобы снизить риск сердечных заболеваний. Вот почему такие организации, как John Hancock, американский страховой гигант, уже делают скидки покупателям полисов, которые носят фитнес-мониторы[140].
При том, сколько данных загружается в интернет каждый день и каждую секунду, эффективный анализ их во всем их объеме и разнообразии уже находится далеко за пределами возможностей человека и требует использования компьютеров. Это обещает в том числе радикально изменить наш взгляд на диагностику заболеваний. Несколько лет назад IBM создала компьютер, способный сразиться в телеигре Jeopardy![141] с двумя ее многолетними чемпионами. Watson – так назвали компьютер – убедительно выиграл, превзойдя двух прежде непобедимых соперников-людей, Дженнингса и Раттера[142]. Позже руководство Нью-Йоркского геномного центра одобрило использование IBM Watson в медицинской диагностике[143]. Насколько автору известно, это первый случай, когда конкретный машинный интеллект был профессионально или академически сертифицирован для работы врачом. Но, без сомнения, не последний.
Что стояло за этой медицинской сертификацией? Команде, создавшей IBM Watson, было интересно, сможет ли он научиться строить гипотезы для решения таких задач, как диагностика рака или поиск генетических маркеров наследственных заболеваний, если ему предоставить правильные данные. Чтобы проверить свою теорию, команда из IBM месяцами загружала в банк данных Watson медицинские журналы, описания случаев из реальной практики и диагностические методики за 20 лет.
В статье об этом исследовании, опубликованной Медицинским колледжем Бейлора и IBM в рецензируемом издании[144], ученые смогли продемонстрировать новый способ генерирования научных вопросов, в долгосрочной перспективе полезных для разработки новых эффективных методов лечения. За считаные недели биологи и специалисты по обработке данных с помощью Watson точно определили, какие белки участвуют в модификации структуры белка р53[145]. В исследовании отмечалось, что, если бы не когнитивные возможности Watson, на такую работу у ученых ушли бы годы. Watson проанализировал 70 000 научных статей о р53, чтобы предсказать белки, которые активируют и деактивируют р53. Этот автоматизированный анализ позволил бейлоровским онкологам выбрать для дальнейшего исследования шесть белков – потенциальных мишеней.
Но самое впечатляющее то, что, когда в Watson вводили данные о симптомах конкретного пациента, он мог точно установить тип рака и самое эффективное лечение более чем в 90 % случаев[146]. Почему это важно? Врачи-люди, специалисты-онкологи с 20-летним опытом, обычно оказываются правы в 50 % случаев. Как у Watson получается систематически опережать по этому показателю людей?
Прежде всего – благодаря его способности за секунды объединять и безошибочно помнить данные всех исследований за последние 20 лет.
Логичный следующий шаг – разрешить врачам использовать Watson для лучшей диагностики пациентов, не так ли? Но есть одна тонкость: врачи могут лечить пациентов только на основании рекомендации лицензированного диагноста. Вот почему Геномный центр Нью-Йорка вынес вопрос на заседание совета директоров и получил согласие на регистрацию Watson в качестве лицензированного диагноста в Нью-Йорке.
Что может Watson? Изучить все ваши медицинские записи. Его загружали и обучали лучшие врачи в мире. Он выдает возможные диагнозы, вероятность в процентах, причины, разумную интерпретацию, возражения, противоречия. Хочу сказать, что сейчас эта программа начала работать для миллионов пациентов в Юго-Восточной Азии. Они никогда не увидят Мемориальный онкологический центр имени Слоуна – Кеттеринга, в отличие от нас с вами, находящихся здесь. [Но] они получат к нему доступ, и мне кажется, это очень важно.
Теперь, когда мы знаем, что Watson диагностирует рак точнее, чем врач-человек, спрошу вас: к кому бы вы скорее обратились, если бы ваш доктор заподозрил это заболевание у вас? К «доктору Ватсону» или к человеку? Можно, конечно, возразить, что Watson вряд ли хорошо умеет общаться с больными, и все же, поняв, куда ведут эти технологии, мы сможем взглянуть на будущее здравоохранения совершенно другими глазами. Обратите внимание, что генеральный директор IBM присвоил «Ватсону» мужской род, как человеку. Это так, к слову.
Вполне вероятно, что датчики, которые вы носите на теле или внутри, в будущем смогут точно отслеживать изменения состояния вашего здоровья и диагностировать нарушение задолго до того, как оно станет проблемой. Компьютеры будут автоматически анализировать ваши генетические особенности и сообщать алгоритму или машинному интеллекту, на что обратить внимание. Заметив определенные отклонения, алгоритм или интеллект, подобный Watson, сможет рекомендовать конкретные изменения в питании и повседневной жизни – например, больше спать, увеличить физическую нагрузку, – назначить лекарства или даже персонализированные препараты генной терапии. Подумайте о потенциале машинного интеллекта в роли специалиста по питанию, личного тренера или врача. С развитием носимых и вводимых в организм медицинских устройств лечение начнет происходить автоматически. При диабете уровень инсулина сможет поддерживать имплантат. Если проблема станет серьезной, устройство просигналит о ней лечащему врачу, и он, используя свое непревзойденное умение общаться с больными, сможет пригласить вас для более «человеческого» разговора.
К 2020 году медицинская информация об отдельных пациентах будет удваиваться каждые 73 дня[147]. Нужны технологии, которые свяжут разрозненные части в единую картину, просигналят об отклонениях и посоветуют, что предпринять, как это в прошлом сделали бы врачи. Предотвращение острых ситуаций при заболеваниях, которые можно контролировать, станет нормой, а самые большие расходы будут связаны с подпиской на медицинские услуги и с устройствами, которые вы носите, а не с госпитализацией и не с посещением врача.
Телесериал «Во все тяжкие»[148] заострил проблемы, связанные с финансовой доступностью здравоохранения в США, показав преподавателя старших классов, который начал производить запрещенные препараты, чтобы оплатить лечение диагностированного у него рака. В будущем водораздел в области здравоохранения может пройти не между теми, у кого есть страховка и у кого ее нет, а между имеющими и не имеющими доступ к медицинскому искусственном интеллекту и к носимой медицинской технике. «Умные» общества обеспечат таким доступом всех своих граждан, потому что он резко сократит совокупные расходы на здравоохранение.
При потенциальном количестве датчиков в 2030 году от 50 до 100 триллионов большая часть данных будет генерироваться автоматически, а не через устройства ввода. Они будут поступать через датчики на пульсомерах, акселерометрах в смартфонах, биометрические регистраторы, пассивные камеры или алгоритмы для сбора данных о поведении. Объем данных, поступающих из окружающего нас мира, за 10 лет превысит данные, которые мы вводим с помощью клавиатуры или сенсорного экрана, в 10 000 раз. Иными словами, встроенные в нашу среду обитания компьютеры будут больше реагировать на то, что мы делаем, что говорим и как поступаем, чем на то, что мы набираем на клавиатуре или на что кликаем.
Будущее информационных технологий – объединение датчиков и машинного интеллекта. Датчики станут инструментом ввода данных, а алгоритмы – способом их обобщения. Интерфейсы будут просто предоставлять актуальные для нас заключения. Наше участие в управлении процессами или во вводе данных станет очень незначительным, по крайней мере в привычном смысле слова.
Тенденции в области интерфейса и способов использования компьютерной техники сейчас все больше и больше отличаются от наших традиционных представлений о программном обеспечении и взаимодействии с компьютером. Скоро мы будем наблюдать отказ от программных приложений как таковых. Хотя вывод данных радикально усовершенствовался, ввод не особо изменился.
Рисунок 3.8.
Мы перешли от перфокарт к клавиатуре, потом добавили мышь, камеру и микрофон, а совсем недавно создали мультитач-экраны. Однако большей частью ввод все еще построен на использовании буквенной клавиатуры типа QWERTY, как у пишущей машинки.
От очень простых текстовых интерфейсов мы переходим к все более сложным. Первые компьютерные дисплеи были примитивными, монохромными. Первые браузеры и мобильные телефоны тоже позволяли осуществлять лишь очень примитивные взаимодействия. Вместе с айфонами пришли новые мобильные приложения, уже гораздо более интерактивные, чем простые мобильные веб-страницы. Появление умных часов и очков и подобных устройств породило распределенную архитектуру программного обеспечения. Приложение может быть установлено на телефоне, но связанная с ним картинка и уведомления будут транслироваться на часы или очки. Уже совсем скоро рабочий стол, стена гостиной, приборная панель автомобиля и другие элементы окружающей среды обзаведутся экранами для интерактивного взаимодействия. Мы наполним окружающий мир данными, идеями и контекстом еще и с помощью очков и контактных линз, использующих технологию дополненной реальности.
В эпоху приложений большинство таких предприятий, как банки и авиакомпании, стремятся наращивать функциональность, но, по мере добавления все новых возможностей, растет и предрасположенность к тому, что писатель Джаред Спул[149] назвал «провал сотрудничества» (engagementrot). Проблема заключается в том, что невозможно сохранить «низкозатратное»[150] для пользователя взаимодействие, если возможностей предлагается слишком много. Рано или поздно наступает момент, когда он начинает путаться в них. Что это за момент? Возьмем для примера спецпредложения или скидки в розничной торговле. Если они встроены в банковское приложение, то в какой-то момент возникает вопрос: это банковское приложение или приложение по поиску спецпредложений? Дизайн теряет однозначность, потому что теперь перед нами две конкурирующих области применения, борющиеся друг с другом за внимание клиента.
Более масштабное понимание эволюции интерфейса, встроенных электронных устройств и интерактивности неизбежно приводит к выводу о том, что со временем приложения потеряют свою обычную роль.
Этим летом Google создала восьмифунтовый прототип компьютера для ношения на лице. Для Айва, тогда еще не знавшего о планах Google, «очевидным и правильным местом» для такого прибора было запястье. Позже, увидев Google-очки, Айв, по его словам, понял, что лицо «абсолютно не подходит» для этой цели. [Тим Кук, генеральный директор Apple] сказал: «Мы всегда считали очки плохой идеей, потому что людям на самом деле не очень нравится их носить. Они грубо навязывают себя вместо того, чтобы оставаться фоном, на котором, по нашему мнению, место технологиям».
По мере того как в пользовательском опыте растет роль контекста, приложения теряют свою функциональность. Будь то умные часы и очки, смартфон или еще какая-то форма интерфейса, встроенная в окружающий мир, лучший способ и лучший инструмент для выстраивания отношений с клиентом и для получения прибыли – это мелкие целевые блоки клиентского опыта. Где сегодня программы или технологии встроены в жизнь потребителя? Великолепный пример – Uber. Команда Uber изучила проблемы перевозок и встроила приложение в жизнь пользователя совершенно не так, как предлагают свои поездки таксомоторные компании. Эта фирма разработала не приложение, а весь клиентский опыт целиком. Чтобы это сделать, она полностью переформатировала способы подбора водителя, распределения автомобилей (без радио), заказа такси, оплаты поездки и многое, многое другое. Она даже позволяет авторизовавшимся водителям взять машину в аренду или открыть банковский счет.
До появления Uber совокупный объем рынка такси в Сан-Франциско составлял 150 млн долларов в год. В начале 2015 года генеральный директор компании Трэвис Каланик объявил о его росте до 650 млн, при этом 500 млн дохода приходилось на Uber[152]. Выстроив не приложение, а клиентский опыт, Uber вовлекла в бизнес огромное количество тех, кто никогда не пошел бы работать таксистом. Она не создала лучшего такси и не обслуживала отдельный маршрут, а с «пустого места» выстроила весь клиентский опыт в целом. Как это сказалось на обычных таксомоторных компаниях? Газета
Искушение дополнять продукт все новыми возможностями и функциями очень велико. Посмотрите на Facebook и его мессенджер – и на то, как мессенджер недавно отпочковался от Facebook. Шаг для многих неоднозначный, но тем самым было признано, что обмен мгновенными сообщениями и интерактивное чтение ленты – настолько разные действия, что они не должны конкурировать. Интерактив становится отдельным, самостоятельным опытом, встроенным в нашу повседневную жизнь, а не опцией в мобильном приложении. Попробую проиллюстрировать это еще на одном примере.
В XX веке люди смотрели любимые телепрограммы на конкретном канале в определенное время. Чтобы увидеть что-то во второй раз, до появления видеомагнитофонов (VCR) приходилось ждать повторного показа. Наши дети сегодня действуют совершенно иначе. Они выбирают, что смотреть, и тут же смотрят это на YouTube или Netflix. Между каналом PewDiePie на YouTube и сериалом «Карточный домик»[153] на Netflix практически нет разницы. Некоторые исследования даже показывают, что потребление информации в выбранный потребителем момент времени уже опередило телевидение по предпочтительности для пользователей[154].
Пусть на вашем айфоне еще стоят такие приложения, как игры или книги, которые вы читаете, но частью вашего персонального информационного мира, выстроенного специально для вас, неизбежно станут сведения, привязанные к поведению и контексту. Сегодня это направление ограничивается только контекстуализацией, пропускной способностью канала, возможностями прогнозирования и анализом местоположения пользователя. Совместите эти способности, – и то, что было приложениями, окажется просто откликами на ваши потребности.
В 1997 году компания Intel представила публике ASCI Red, первый суперкомпьютер производительностью более 1 терафлопса. Система использовала 9298 чипов Pentium II, размещенных в 72 системных блоках. Недавно Nvidia[155] объявила о выпуске Tegra X1, своего первого терафлопсного процессора для мобильных устройств[156]. Мы говорим о процессоре, который умещается в смартфоне, машине[157], планшете или умных часах и может выполнять 1 000 000 000 000 инструкций или вычислений в секунду – как и тот суперкомпьютер 1997 года.
Чтобы представить себе, как далеко ушла технология всего за 15 лет, подумайте вот о чем: ASCI Red занимал почти 149 квадратных метров и потреблял 500 000 ватт электроэнергии, причем еще 500 000 ватт уходили на охлаждение помещения, где он находился, чтобы он мог выйти на свою терафлопсную мощность. Tegra X1 размером с ноготь и потребляет 10 ватт. Одна из платформ, возникших недавно для таких вычислительных устройств, – это, разумеется, компьютер автомобиля, которому нужен процессор, достаточно мощный для езды без водителя, усовершенствованный экран и приборная панель с хорошей визуализацией. За ближайшие 10 лет применение встроенных в автомобили компьютеров вырастет экспоненциально. Mercedes F015, продемонстрированный на выставке потребительской электроники CES[158], – пример того, как преобразится интерьер автомобиля в условиях движения без водителя. Скоро станет нормой машина как развлекающее, рабочее, игровое и социальное пространство. Интерактивный салон, если угодно. В самоуправляемом автомобиле, где больше не нужны прозрачные окна, обеспечивающие водителю обзор по всему периметру, они могут стать интегрированными дисплеями. К этому мы еще вернемся.
Если терафлопсный чип (и более мощные компьютеры) удастся встроить в пространства нашей повседневной жизни, интерактивным экраном может стать все. Это хорошо показано в футурологическом сериале «День, сделанный из стекла» («A Day Made of Glass»), созданном американской компанией Corning, где мы видим зеркала, столешницы, стены и автомобили, ставшие интерактивными устройствами, которые оснащены сенсорными панелями и контекстным интеллектом.
Рисунок 3.9.
Рисунок 3.10.
По мере встраивания компьютеров во все, что нас окружает в машине, дома, в школе и на работе, понятия экрана и операционной системы, какими мы их знаем, начинают рассыпаться. Для экранов, встроенных в зеркала или столешницы, нельзя будет загружать программы из магазина приложений, как мы привыкли, но наверняка какие-то возможности персонализации будут. Более того, эти экраны будут общаться с централизованным искусственным интеллектом или агентом, собирающим актуальную информацию из нашего личного «облака». На основании собранных данных будут выводиться графики встреч, новостная лента, соответствующая нашим интересам, и различные рекомендации. Эти компьютеры будут не просто выводить нужные сведения на экран. Если в Samsung Simband информацию о вас постоянно собирают шесть разных датчиков, то компьютеры, которые со временем будут встроены повсюду, станут слушать и учиться непрерывно и круглосуточно.
Две недавно созданные компьютерные платформы иллюстрируют начало сдвигов в концепции интерфейса. И Amazon Echo, и поддержанная платформой Indiegogo новинка Jibo вышли на рынок как персональные устройства для дома. Обе технологии встроены в дом, умеют слушать, учиться и откликаться на сигналы окружающего мира в реальном времени. Jibo даже позиционируется как личный помощник семьи. С ними в дом приходят и встраиваются технологии Google Voice, Siri от Apple или Cortana от Microsoft, с доступом к почти бесконечным информационным ресурсам, которые предоставляет интернет.
Начать работать с этими помощниками очень просто. Вы спрашиваете что-нибудь у Echo или Jibo – например, будет ли завтра дождь, купить ли молока, – или просите напомнить на следующей неделе, что надо заказать отель для отпуска. Jibo дает тут большие возможности, потому что он мобилен, а встроенная камера позволяет, например, сделать мгновенное фото вашей семьи. На экране, входящем в интерфейс Jibo, даже появляются разные персонажи, в зависимости от того, с кем из членов семьи он взаимодействует.
Первое поколение домашних помощников еще ограничивается выдачей информации по запросу, но в скором будущем мы начнем использовать эти технологии дома и на работе, чтобы составлять и соблюдать расписания, делать покупки и принимать повседневные решения.
Рисунок 3.11.
За 20 лет эти устройства превратятся в различные версии искусственного интеллекта, достаточно мощные, чтобы обеспечивать те из наших потребностей, которые можно удовлетворить с помощью цифровой техники, соединять нас с нашими личными панелями управления, «облаками», сетями датчиков, давать советы, касающиеся здоровья, финансового благополучия и многих других областей, в которых мы привыкли получать консультации от людей.
В декабре 2013 года журнал
Цель подобных алгоритмов – подготовить адресата звонка прежде, чем переключить его на человека, чтобы завершить продажу. Эти алгоритмы стали возможными благодаря технологиям распознавания голоса. Современные инструменты, такие как Siri и Cortana, неплохо распознают речь без акцента, но было время, когда это казалось научной фантастикой.
Еще в 1932 году ученые из Bell Laboratories[160] работали над проблемой машинного «восприятия речи». К 1952 году они создали систему Audrey для распознавания называемых цифр, правда с очень ограниченными возможностями. Однако в 1969 году Джон Пирс, один из ведущих инженеров компании, обратился к Акустическому обществу Америки с открытым письмом, в котором критиковал распознавание и сравнивал его со «схемами превращения воды в бензин, добычи золота из морской воды, лечения от рака и полета на Луну». По иронии судьбы, через месяц после того, как Пирс опубликовал свое письмо, Нил Армстронг высадился на Луну. Тем не менее вскоре финансирование работ по распознаванию речи в Bell Laboratories прекратилось.
К 1993 году системы, созданные Рэем Курцвейлом, умели распознавать 20 000 слов (произносимых по отдельности), но точность не поднималась выше примерно 10 %. В 1997 году Билл Гейтс довольно дерзко предсказывал: «Я уверен, что через 10 лет для взаимодействия с компьютером мы будем использовать не только клавиатуру и мышь, но и получим системы распознавания речи, достаточно совершенные, чтобы они сделались стандартной частью интерфейса»[161]. В 2000 году до этого по-прежнему оставалось 10 лет. Прорыв произошел, когда начали использовать модели Маркова[162] и глубинного обучения[163] нейронных сетей, принципиально выросла компьютерная производительность и увеличились объемы накопленных данных. Однако существующие сегодня системы все еще несовершенны, потому что они до сих пор не умеют обучаться языку. Их алгоритмы усваивают языки не так, как люди: они идентифицируют фразу через распознавание, ищут ее в базе данных и отвечают подходящим образом.
Распознавать речь и уметь поддержать разговор – это совершенно разные вещи. Что нужно сделать компьютеру, чтобы притвориться перед своим собеседником человеком?
В 1950 году Алан Тьюринг опубликовал знаменитую статью под названием «Вычислительные машины и разум». В ней он ставил вопрос не только о том, можно ли считать, что компьютер или машина «думают», но и конкретнее: можно ли вообразить цифровое устройство, которое хорошо справляется с игрой в имитацию?[164] Тьюринг предположил, что такой проверкой машинного интеллекта, которую он называл «игра в имитацию», может быть обмен вопросами и ответами между человеком и машиной. Далее в его статье сказано, что, если не получится за пять минут отличить человека от машины, следует признать машину достаточно «человекоподобной», чтобы пройти тест на основы сознания и мышления.
Автономной машине без водителя не нужно проходить тест Тьюринга, чтобы оставить таксиста без работы.
Исследователи, которые с тех пор дополняли эту работу, рассматривают игру в имитацию как одну из версий, или сценариев, того, что более известно как тест Тьюринга.
Хотя компьютерам пройти такую проверку еще не под силу, мы приближаемся к этому рубежу. Седьмого июня 2014 года, в дни 60-й годовщины смерти Тьюринга, Лондонское королевское общество провело на основе названного его именем теста соревнования. В них участвовал российский бот-собеседник по имени Евгений Густман[165], который успешно убедил 33 % судей (людей), что он 13-летний украинец, который выучил английский как иностранный язык. И хотя некоторые, например Джошуа Тененбаум, профессор математической психологии в Массачусетском технологическом институте (Massachusetts Institute of Technology, MIT), назвал результаты соревнования «не впечатляющими», оно все же показывает, что мы ближе, чем когда-либо, подошли к тому, чтобы принять компьютер за человека.
Такие задачи, как: забронировать билет на самолет, поменять заказанный отель на другой, решить проблему с банком, заказать машину или узнать результат теста на отцовство, – машина сможет успешно осуществить самостоятельно уже очень скоро. Частично это делается уже сегодня. Наш клиентский опыт не настолько разнороден, чтобы оправдать затраты на «человеческий» колл-центр. Рискну предположить, что в реальности за разговор с «настоящим» человеком скоро придется доплачивать. Многие авиалинии и отели уже берут дополнительную плату, если вы хотите поменять условия резервирования по телефону, а не на сайте бронирования. Совершенно очевидно, что услуги живой консьержки в будущем станут сервисом премиум-уровня, частью отношений с особо ценными клиентами. Для остальных, таких как мы, останутся сервисы на основе искусственного интеллекта. Только надо понимать, что в будущем человек не сможет оказать услугу более качественно, чем машина.
Возможно, мы и заподозрим, что говорим с компьютером, но взаимодействие окажется таким эффективным, что стопроцентной уверенности в этом не будет, да она и не понадобится. Через 15 лет, если отсчитывать от настоящего дня, взаимодействие с машинами распространится повсеместно, и искусственный интеллект будет отличаться только способностью решить некоторые проблемы лучше и быстрее. Например, Uber сможет рекламировать свои самоуправляющиеся автомобили как «самый безопасный в мире транспорт», зная, что статистически уже на старте автономный автомобиль в 20 раз безопаснее управляемого человеком[166].
Ключом к этому будущему служит способность искусственного интеллекта усваивать язык, учиться общению. В интервью газете
Некоторые аспекты коммуникации окажутся труднее остальных, предсказал Хинтон. «Трудно будет понимать иронию. Для этого сначала придется хорошо освоить буквальный смысл. Но, с другой стороны, американцы тоже не понимают иронии. Так что компьютер достигнет уровня американца раньше, чем уровня британца…»
Типы алгоритмов, которые позволяют машинам сделать скачок в когнитивном развитии, стали возможными благодаря применению больших компьютерных мощностей к обработке крупных массивов данных.
Являются ли тест Тьюринга или машина, способная успешно изображать человека, необходимым условием человеческого взаимодействия с компьютером? Не обязательно. Прежде всего, надо отдавать себе отчет, что машинному интеллекту вовсе не нужно быть полной копией человеческого, чтобы радикально преобразить рынок занятости или наш образ жизни.
Чтобы понять, почему стремиться к созданию компьютерной копии человеческого мозга нет никакой необходимости, надо посмотреть на три четко выделяющиеся фазы в развитии искусственного интеллекта.
● Машинный интеллект – зачаточный машинный интеллект, который заменяет некоторые элементы человеческого мышления при принятии решений или при обработке данных, необходимой для решения конкретных, определенных задач. Нейросети или алгоритмы, способные принимать эквивалентные человеческим решения в ограниченной области и, по принятым параметрам, делающие это лучше человека. Это не исключает способности интеллекта к обучению или когнитивной деятельности: он может учиться решать новые задачи или обрабатывать новую информацию, выходящую за рамки первоначальной программы. Такой способностью обладают уже многие машины. В числе примеров – самоуправляемый автомобиль Google, система IBM Watson, алгоритмы высокочастотного трейдинга[167], программы распознавания лиц.
● Искусственный интеллект общего характера – эквивалентный человеческому машинный интеллект, который не только проходит тест Тьюринга и отвечает на реплики подобно
● Сверхинтеллект – один или несколько машинных интеллектов (как нам называть их группу?), которые, отдельно или вместе, превосходят человеческий ум настолько, что способны понимать и обрабатывать концепты, которых человек понять не в состоянии.
Чтобы существенно повлиять на механизмы занятости или поставить под угрозу человеческие рабочие места в сфере услуг, искусственному интеллекту не обязательно становиться универсальным. Нам не придется ждать и 10, 15 или 30 лет, чтобы увидеть, как все случится. Как мера способности машин положить конец нашему нынешнему образу жизни и работы тест Тьюринга едва ли применим.
Для того чтобы считаться интеллектуальными, машинам не нужен интеллект как у людей. По тем меркам, которые мы применяем к животным, Watson, возможно, уже сейчас превосходит многие биологические виды, населяющие сегодня планету. Надо ли машине быть такой же умной, как человек, или еще умнее, чтобы ее можно было назвать интеллектуальной? Нет. По сути, от искусственного интеллекта вообще не стоит ожидать, чтобы он думал как люди. Почему он должен формироваться и прогрессировать так, чтобы думать в точности как мы? Совершенно не должен и, скорее всего, не станет.
Приведу два примера. Между 2009 и 2013 годами вооруженный машинным интеллектом высокочастотный трейдинг (HFT) составлял от 49 до 73 % всего объема рынка акций в США, а в Евросоюзе в 2014 году – около 38 %. Шестого мая 2010 года индекс Доу-Джонса рухнул с рекордной скоростью, хотя компенсировал потери за считаные минуты. После пятимесячного расследования Комиссия по ценным бумагам и биржам США и Комиссия по торговле товарным фьючерсами совместно выпустили доклад, в котором пришли к выводу, что HFT внес существенный вклад в волатильность этого мгновенного обвала. Крупная фьючерсная биржа СМЕ Group в своем расследовании заключила, что алгоритмы HFT стабилизировали рынок и ослабили удар от этого падения.
Для индустрии, которая за последние 100 лет довела биржевую торговлю до уровня высокого искусства, алгоритмы HFT знаменуют заметный отход от практики торговых залов Goldman Sachs, UBS и Credit Suisse. Сами эти алгоритмы очень далеко ушли от типичного человеческого поведения. Анализ сценариев HFT продемонстрировал совершенно иное поведение и принятие решений, нежели у людей. Что привело к этому сдвигу? Возможно, тот факт, что у HFT нет ни предвзятости, какая может быть у трейдеров-людей (например, привычки сохранять ставку на какой-нибудь класс активов дольше, чем рекомендуется, просто потому, что конкретному трейдеру нравится эта акция или отрасль), ни этической основы принятия решений. Некоторые возразят, что Уолл-стрит не слишком похожа на твердыню морали, и все же у алгоритма HFT этические основания для принятия решений попросту отсутствуют, если соответствующий навык не запрограммирован.
В 2014 году Audi тестировала на гоночной трассе беспилотные автомобили – две модификации Audi RS7 с мозгом величиной с игровую приставку PS4 в чехле. На данном этапе эти гоночные Audi еще нельзя назвать полностью самоуправляемыми, поскольку инженеры должны сперва проехать на них несколько кругов, чтобы машины выучили границы. Эти две машины известны как Ajay и Bobby[168], и, что интересно, у них сформировались разные стили вождения, несмотря на идентичное «железо», программы и системы навигации. Инженерная команда Audi, при всей ее гигантской экспертной квалификации, не готова объяснить, откуда эта наглядная разница взялась.
Наверное, машинное сознание продемонстрирует еще много разновидностей «интеллекта», которые не впишутся в стандартную человеческую модель или в наши ожидания и тем не менее позволят одновременно и усовершенствовать принятие решений людьми, и пересмотреть традиционный человеческий подход к критическому мышлению. То, что интеллект, развивающийся у машины, отличается от нашего, не делает его ниже или примитивнее. Те, кого больше всего тревожит, что он захватит мир или поработит людей, вероятно, видят в нем подобия людей со сверхвысоким IQ: с такими же желаниями, этикой, склонностью к эгоизму и насилию, которые присущи нам, людям. Сверхинтеллектуальная версия человека действительно была бы страшноватой. Однако у нас нет причин ожидать, что искусственный интеллект проявит человеческие склонности, предрассудки и субъективность. Гораздо более вероятно обратное.
Те виды искусственного интеллекта, которыми мы располагаем сейчас, через несколько лет сумеют не только распознавать эмоции и чувства, но и определять, когда человек лжет. В какой-то момент мы, вероятно, поручим одному из них выбирать правительство. Представьте, как мог бы выглядеть по-настоящему чистый, честный выборный процесс, особенно если использовать искусственный интеллект для того, чтобы интересы каждого законного избирателя были представлены как можно лучше с помощью оптимальной конфигурации границ избирательных округов.