Планшетные компьютеры по-английски называют Tablet PC, хотя некоторые обозреватели и склоняются к тому, чтобы выделить несколько разновидностей, и тогда Tablet PC будет относиться лишь к самым «продвинутым» – на основе полноценной Windows (Windows XP Tablet PC Edition, Vista или 7). Такие планшеты обязательно имеют в комплекте док-станцию с возможностью подключения внешней клавиатуры, мыши и монитора и позволяют установить практически любое ПО. Более простые планшеты (благодаря которым, собственно, этот класс компьютеров и стал настолько знаменит в последние годы, что его всерьез рассматривают как замену нетбукам и простейшим ноутбукам), прежде всего флагман отрасли – iPad от Apple и его конкуренты на основе ОС Android – предлагается именовать
Все становится на свои места, как только мы вспомним о делении пользователей на производителей и потребителей информации. Появление Apple iPad потому так и взорвало рынок планшетов, что «потребителям» оказалась вовсе не нужна способность устройства выполнять программы уровня Photoshop или AutoCAD, – они вполне обходятся стандартным набором из браузера, почтовика и медиаплеера, к которым иногда лишь добавляются офисные программы (но и они как правило для чтения документов, а не для их создания).
Сейчас на рынке присутствует поистине необъятное количество планшетных компьютеров самой разной природы и стоимости: начиная от 4 с небольшим тыс. рублей. Лидеры рынка: Apple iPad, BlackBerry PlayBook и Samsung Galaxy Tab – не относятся к самым дешевым и стоят, в зависимости от объема жесткого (твердотельного) диска и комплектации беспроводной связью, от 15 до 30 с лишним тыс. рублей. На мой взгляд, при выборе планшетника не имеет смысла экономить – у этих моделей значительно более качественный дисплей (особенно у iPad) и развитые коммуникационные функции (обязательный Bluetooth и Wi-Fi, у большей части – GPS, у самых дорогих – 3G), они имеют встроенную камеру, видеоускоритель, естественно, микрофон и аудиовыходы и т. п.
При этом три лидера построены на различной аппаратной основе и на различных операционных системах. Потому перед покупкой такого недешевого устройства имеет смысл его где-то взять «на попробовать» – потребительские свойства iOS, BlackBerry Tablet OS и Android заметно различаются, и какие-то их качества могут оказаться несовместимы именно с вашими привычками.
К планшетам относятся и популярные ныне электронные читалки, электронные ридеры (e-reader), но по пользовательским качествам и назначению они лежат резко в стороне от мэйнстрима мобильных компьютеров. Экран подавляющего большинства электронных ридеров сделан на основе
Именно эти свойства обусловили основное назначение устройств на основе электронной бумаги – как приспособлений для чтения текстов в электронной форме. Время реакции при таком применении не играет особой роли, зато «бумажные» дисплеи совершенно не действуют на глаза (не больше, чем обычная бумага). Кроме того, электронные ридеры – рекордсмены по экономии энергии среди всех типов компьютерных устройств, типовое время от зарядки до зарядки при часовом ежедневном чтении у них составляет две-три недели. Многие фирмы не оставляют попыток выпускать цветные электронные ридеры на основе обычных ЖК-дисплеев – по цене из-за дешевизны таких дисплеев они получаются практически вдвое дешевле «бумажных» ридеров сходных массогабаритных характеристик, но время автономной работы у них составляет в лучшем случае 6–8 часов, и они успешно заменяются обычными планшетами (тот же iPad иногда позиционируется в том числе и как устройство для чтения книг).
Если вы захотите обратить внимание на электронные читалки, то учтите, что они практически не позволяют с текстом работать. Идеальный контент для ридеров – художественная литература, для чтения технических и особенно иллюстрированных текстов они приспособлены плохо. В России и на Западе предпочтения публики в области электронных ридеров заметно различаются: на Западе в лидерах идут Amazon Kindle и Nook от Barnes & Noble, привязанные к соответствующим онлайновым книжным магазинам. А в России больше предпочитают Sony Reader и особенно различные модели PocketBook одноименной украинской фирмы – они к определенным сервисам не привязаны.
Глава 2
Мультимедиа
Точно так же, как и в случае с процессором, в наше время выбор видеокарты в 99 % случаев не имеет решающего значения. Еще в начале 2000-х годов это было не так – дешевые видеокарты могли не потянуть управление монитором высокого разрешения. К тому же на тогдашних мониторах, построенных на электроннолучевых трубках, очень большое значение имела максимальная частота смены кадров, которую могла обеспечить видеокарта. При частоте ниже 70–75 Гц глаза начинали быстро уставать, а слабые видеокарты могли не потянуть такую частоту при максимально возможных разрешениях экрана.
На ЖК-мониторах частота смены кадров не имеет значения (они не мерцают, и потому не действуют на глаза) и обычно всегда установлена на стандартном значении 60 Гц. Потому условия работы видеокарт даже упростились, и сейчас почти любая видеокарта поддержит почти любой монитор. Так на что же стоит ориентироваться при выборе видеокарты?
2.1. Выбор видеокарты
Выбору видеокарты посвящены многостраничные обзоры на специализированных сайтах, в которых ничего существенного не содержится. Дело в том, что большинство отличий современных видеокарт друг от друга сказываются лишь в самых «тяжелых» условиях – в полноэкранных трехмерных компьютерных играх. Причем наличие слабой видеокарты еще не означает, что эти игры не заработают вовсе – просто ограничится число кадров в секунду и, возможно, максимальное разрешение экрана, при котором игра запустится.
Если исключить такие экстремальные условия, то выбор видеокарты значительно упрощается – двухмерное (2D) изображение потянут практически все имеющиеся на рынке образцы. То есть если максимум графических задач, которые вы выполняете на компьютере, сводится к обработке плоских изображений (неважно, в Photoshop или AutoCAD), то много думать о приобретении видеокарты не придется. А просмотр и обработка видео на компьютере предъявляет даже меньшие требования, чем обработка больших плоских картинок – конечно, наличие аппаратного декодирования популярных форматов видео несколько ускоряет процесс, но это больше проявляется в меньшей загруженности центрального процессора (т. е. способствует выполнению параллельных задач), чем служит каким-то принципиальным усовершенствованием.
Следует обратить отдельное внимание на максимальное разрешение, которое обеспечит видеокарта при работе через различные выходы. Это особенно важно при наличии большого монитора, и проверить их совместимость никогда не мешает. Для подключения монитора более чем 1600x1200 (или широкоэкранного 1920x1080) нужен специальный двухканальный DVI-разъем (Dual-Link). Если видеокарта имеет два таких разъема (для подключения двух мониторов), то каждый из них должен потянуть указанное в характеристиках монитора максимальное разрешение (например, 2560x1600).
Многие видеокарты имеют два выхода, но один из них цифровой DVI, а другой – аналоговый VGA (иногда еще присутствует выход на телевизор по стандарту HDMI или более простому S-Video). Как правило, аналоговый VGA-выход имеет при этом меньшее максимальное разрешение, чем цифровой (напр. 2048x1536). При необходимости подключения двух мониторов в любом случае лучше выбрать вариант видеокарты с двумя одинаковыми цифровыми разъемами DVI. Как мы уже говорили, на частоту кадровой развертки при наличии цифрового монитора можно не обращать внимания – как правило, она для всех таких карт находится на уровне 60 Гц, и этого оказывается достаточно.
Следует также обратить внимание на количество видеопамяти, которое для 19-дюймовых мониторов 1280x1024 должно быть не меньше 64 Мбайт (128 Мбайт – для разрешений 1920x1200), а для многомониторных конфигураций требуемый объем видеопамяти должен быть умножен на количество мониторов. Современных видеокарт, имеющих меньшие, чем 64 Мбайт, объемы памяти, в природе просто не существует, а для встроенных объем используемой памяти обычно устанавливается через BIOS
Примечание
При переходе на последние операционные системы от Microsoft (Windows 7) многих смущает наличие в этой ОС драйверов DirectX версии 11, которые поддерживают далеко не все видеокарты. DirectX – это набор графических программных средств, которые используются в основном для компьютерных игр, но отчасти и в интерфейсе этих операционных систем. На самом деле это требование излишне – Windows 7 может работать на видеокартах, поддерживающих DirectX версии 9. DirectX 9 вышли в 2002 году, и этому критерию отвечают абсолютно все видеокарты, начиная примерно с 2004 года.
Гораздо труднее подобрать видеокарту для компьютерных игр. Тут стоит помнить одно правило – видеокарту подбирают так, чтобы ее возможности не расходились с возможностями основного процессора. «Крутая» (и дорогая) видеокарта при слабом процессоре точно так же будет тормозить в играх, как более слабая, установленная в мощный системный блок. При таком подходе приходится учитывать множество параметров (тип и частоту графического процессора, объем видеопамяти в совокупности с разрядностью шины памяти и пр.) и без опыта найти оптимальное решение довольно сложно. Простейший метод, который тут можно порекомендовать, – изучение характеристик готовых компьютеров, предлагаемых различными «брендовыми» фирмами, и действия по аналогии.
Как и в случае центральных процессоров, основных изготовителей видеосистем всего два: это компании NVIDIA и ATI, причем последняя ныне является подразделением фирмы AMD (собственно, от ATI там осталось одно название серии видеокарт Radeon). Немногие модели встроенных в материнские платы видеосистем бюджетного уровня выпускает также Intel. Как уже говорилось в
Зато производителей собственно видеокарт не менее нескольких десятков. Правда, разнообразие моделей здесь значительно меньше, чем в случае материнских плат – как правило, производители видеосистем выдают образцовую конструкцию (т. н. референс-дизайн), а производителям потребительских продуктов остается только ему следовать по максимуму. Программную поддержку (драйверы) также выпускают основные производители. Поэтому большинство характеристик готовых видеокарт определяется графическим чипом, и подразделяются они по его типу. Разница в одних и тех же видеокартах от разных производителей может заключаться лишь в наличии или отсутствии тех или иных интерфейсов.
Практические рекомендации при выборе видеоадаптера могут сводиться к следующему:
♦ офисный/домашний компьютер минимальной конфигурации:
• NVIDIA: GeForce 210 или GT220/240;
• ATI Radeon: HD5450, HD5570, 5550.
Цена этих видеокарт не превышает 3 тыс. рублей, и по сути они мало чем отличаются от видео, интегрированного в материнскую плату или процессор. Зато, в отличие от последнего, несложно найти карту на основе таких типов, поддерживающую два монитора по цифровым интерфейсам DVI, и еще дополнительно выход на телевизор;
♦ офисный/домашний компьютер оптимальной конфигурации;
• NVIDIA: GTX 465, 460;
• ATI Radeon: HD5850, 5830, 5770, 5750.
Эти видеокарты позволят играть практически во все современные игры. Цена таких плат находится на уровне 6–7 тыс. рублей;
♦ игровой/медийный компьютер высокого класса:
• NVIDIA: GTX 480, 470;
• ATI Radeon: HD5970, 5870.
Цена таких видеокарт находится на уровне 10–15 тыс. рублей.
В некоторых случаях одну топовую видеокарту можно заменить на две одинаковые подешевле, получив практически такую же производительность. Чтобы две видеокарты могли быть объединены в одной конфигурации, они должны поддерживать соответствующую технологию, которая у NVIDIA носит название SLI, а у ATI/AMD – CrossFireX. При выборе такого варианта надо, во-первых, проверить возможности общего блока питания компьютера (две видеокарты могут потреблять более 150 Вт) и при необходимости заменить его на более мощный. Во-вторых, такое решение требует материнской платы с двумя разъемами PCI-Express x16, причем расположенными так, чтобы видеокарты друг другу не мешали. Потому на практике такое решение применяется редко.
2.2. Дисплеи и мониторы
Прежде всего о терминологии.
Текстовый или графический дисплей может входить в состав отдельного показывающего устройства, которое тогда называют
Разобравшись таким образом с терминологией, перейдем к технологиям. Технологий получения изображения очень много, количество только самых ходовых из реально применяемых приближается к десятку. Но практически все выпускаемые сегодня компьютерные дисплеи (и те, что входят в состав мониторов, и те, что устанавливаются в мобильные устройства) основаны на наиболее хорошо проработанной жидкокристаллической технологии (ЖК, или, по-английски, LCD). Исключение представляют некоторые небольшие дисплеи смартфонов или планшетов, изготовленные на основе светодиодов (LED-дисплеи), а также плазменные телевизоры.
С LED-дисплеями не следует путать ЖК-дисплеи со светодиодной подсветкой, которые тоже часто называют сокращением LED. В них само изображение формируется на основе обычного ЖК-экрана, а светодиоды лишь служат для подсветки, вместо флуоресцентных трубчатых ламп в обычных дисплеях. На основе LED-подсветки делаются и компьютерные мониторы, и телевизоры. При выборе телевизора LED-подсветку стоит предпочесть практически во всех случаях (т. к. с ее помощью достигается более высокое значение контраста), кроме разве что соображений стоимости – такие телевизоры обычно дороже. Для компьютерных мониторов, в которых контраст не играет решающего значения (по крайней мере, пока вы не захотите превратить их только в устройство для просмотра фильмов), выбирать монитор только из-за LED-подсветки не стоит.
Для мониторов куда большее значение имеет цветопередача, зависящая от технологии самой ЖК-матрицы. Основных таких технологий три: TN (или TN+film), PVA (и ее менее популярная разновидность под названием MVA) и IPS – есть также несколько модификаций каждой из них. Чтобы не путаться в терминах, учтите, что сокращение TFT (Thin-Film Transistor, тонкопленочный транзистор) ничего не говорит о качестве матрицы, поскольку все ЖК-матрицы являются TFT-матрицами, и термин «TFT-монитор» по сути можно считать просто синонимом «ЖК-монитора».
♦
TN-мониторы часто пытаются улучшить нанесением глянца на поверхность экрана (у разных производителей эта технология носит разные названия: BriteView, CrystalBrite, OptiClear, X-brite, X-Black, Crystal View и т. п.). В ноутбуках это действительно может помочь, визуально повышая контраст и улучшая цветопередачу. Но в настольных мониторах, на которые смотрят с относительно большого расстояния (полметра и более), глянцевое покрытие только мешает, отражая окружающие предметы. Потому мониторы «с глянцем» стоит покупать с оглядкой, хотя встречаются люди, которым они нравятся даже больше обычных матовых.
♦
♦ Об отличном качестве цветопередачи и достаточных углах обзора однозначно можно говорить только в случае
Примечание
Несмотря на то, что ЖК-мониторы выпускаются достаточно давно, цены на них явно не устоялись – объясняется это появлением все новых поколений матриц. Потому при подборе монитора не стоит торопиться и покупать первый приглянувшийся экземпляр. Сравните, например, три почти идентичные 24-дюймовые модели: ASUS PA246Q, DELL UltraSharp U2410 и NEC MultiSync PA241W, из которых первые две практически в два раза дешевле последней. Секрет раскрывается просто – в 2010 году новые поколения IPS-матриц заметно подешевели, а PA241W был выпущен еще до этого снижения (особенность NEC, как производителя мониторов, – эта корпорация практически не снижает однажды установленные цены на свои модели). Причем все три модели производители отнесли к профессиональному классу (они могут воспроизводить десятибитный цвет в каждом канале, т. е. более 1 миллиарда оттенков), но по крайней мере первые два по цене вполне укладываются и в любительский сектор. Ныне можно приобрести и достаточно приличный бытовой монитор на IPS-матрице примерно за 12–14 тыс. рублей (например, DELL U2311H).
IPS-матрицы, по крайней мере, старых выпусков, можно отличить по характерному фиолетовому оттенку, появляющемуся на черном цвете при взгляде сбоку с угла монитора. Ранее считалось, что IPS-технология самая медленная из всех, и потому она не «тянет» в динамичных играх по величине параметра, называемого
Зато матрицы высокого качества (в том числе и выполненные по IPS-технологии) стали устанавливать на популярные ныне планшеты. Тон задала Apple, поставив в iPad IPS-матрицу с разрешением 1024x768 пикселов, затем они появились и в других подобных устройствах (например, в ASUS Transformer). На момент редактирования этой книги обсуждаются новости, что Apple: а) тестирует для нового поколения iPad матрицы повышенного разрешения (QXGA – 2048x1536); б) рассматривает в качестве варианта для iPad дисплеи, изготовленные по новой технологии Super PLS, изобретенной в Samsung и превосходящей дисплеи типа IPS по качеству.
Производители не всегда указывают тип установленной матрицы, особенно для дешевых мониторов. Иногда отличить можно косвенно, по другим приведенным характеристикам. Если в характеристиках указано просто TFT (или вообще LCD или ЖК-матрица), то это наверняка TN. Кроме того, можно ориентироваться по заявленным углам обзора – если они ниже 170° по горизонтали и вертикали (например, 168/168), это явно указывает на TN-матрицу. Для всех остальных современных экранов (MVA, PVA и S-IPS) углы обзора составляют 170/170, 176/176 или 178/178. Кроме того, для TN вертикальные углы обзора часто меньше горизонтальных (к примеру, 140/135), у всех остальных типов горизонтальные и вертикальные углы всегда одинаковые. По этой причине мониторы, которые могут менять ориентацию (портретное-ландшафтное расположение), почти наверняка сделаны не на TN-матрице.
Определить визуально наличие цветового сдвига у PVA-матриц, а также поймать фиолетовый оттенок на IPS-матрицах, который проявляется, например, на черном поле в момент загрузки компьютера, без некоторого опыта тоже сложно, к тому же производители все время совершенствуют технологии. Надежно отличить IPS от PVA/MVA и TN позволит утилита Leka.exe, размещенная на прилагаемом компакт-диске в папке Color. Запустите файл Leka.exe и ползунком в верхней части окна добейтесь максимального совпадения по цвету всех прямоугольников, глядя на окно утилиты строго перпендикулярно экрану. Затем отклоните голову под достаточным углом – если перед вами MVA/PVA или, тем более, TN, то квадрат опять распадется на разноцветные прямоугольники, на всех разновидностях IPS цвета прямоугольников под углом останутся без изменения.
С помощью Leka.exe можно также оценить неравномерность экрана, в том числе и IPS. Если выставить максимально равномерную заливку тестового квадрата в центре экрана, а затем подвигать по нему окно утилиты, то в других местах, особенно в углах, квадрат заметно распадается на цветные прямоугольники. Это не является браком, и практически незаметно для глаза, но так можно сравнить между собой несколько экземпляров мониторов и выбрать лучший.
Но вне зависимости от технологии при выборе монитора нужно учитывать его собственное разрешение – то, что указывается в технических характеристиках. Собственно, именно по разрешению, а не по размеру диагонали, стоит выбирать ЖК-мониторы в первую очередь – оно является определяющей характеристикой. Отклоняться от паспортного значения здесь решительно не рекомендуется, причем не только в сторону увеличения (что, как понимаете, бессмысленно), но, как ни парадоксально, и в сторону уменьшения. Для обычных 15-дюймовых мониторов при попытке установить на паспортных 1024x768 разрешение 800x600 интерполяция настолько размоет картинку, что даже текст в Word разобрать будет затруднительно.
Обычные 17-19-дюймовые мониторы имеют разрешение 1280x1024, что на мой вкус, для 17" – слегка мелковато, а для 19" – наоборот, крупновато. Для диагонали 20–21 дюйм можно выбирать широкоэкранный монитор 1600x1050 или обычный (с соотношением сторон 4:3) 1600x1200, для 22-дюймового оптимальное разрешение соответствует Full HD (1920x1080), для 24-дюймового – 1920x1200. Большие диагонали для домашнего непрофессионального использования выбирать нецелесообразно – качественный монитор 27 или 30 дюймов стоит недешево, и в таком случае лучше купить два монитора поменьше размером, в общей площади экрана и удобстве пользования вы только выиграете.
Для ноутбуков стоит выбирать разрешение побольше, чем для настольных мониторов (встречаются даже ноутбуки с дисплеем 15 дюймов при разрешении 1920x1200) – там экран рассматривается с близкого расстояния, и на меньшей площади можно уместить больше различимых деталей.
У дешевых мониторов обращайте внимание на наличие цифрового интерфейса DVI – не стоит портить и без того некачественную картинку еще и аналоговым интерфейсом. Все плоские мониторы по природе цифровые, и при работе через аналоговый интерфейс VGA (разъем D-Sub) приходится делать преобразование дважды: сначала цифроаналоговое в видеокарте, а затем обратное – в самом мониторе. Это, как вы понимаете, отнюдь не улучшает и без того не слишком качественную картинку бюджетного монитора. Добавим, что во многих современных мониторах имеется USB-концентратор, который позволяет не тащить клавиатуру и мышь к системному блоку (куда-нибудь под стол), а подключать их прямо к монитору.
Вот собственно, и все важное, что следует учитывать при выборе монитора. Стоит добавить, что если у вас задержался старинный ЭЛТ-монитор (на основе кинескопа), то его следует при первой возможности сменить на современный плоский. В начале 2000-х годов, когда ЖК-мониторы только начинали появляться, они были несовершенными и по всем характеристикам отставали от ЭЛТ, особенно по скорости работы и по цветопередаче. Сейчас это отставание ликвидировано, и преимущества ЖК-мониторов вышли на первый план. Они легче, компактнее, не имеют геометрических искажений, меньше потребляют энергии, не создают существенных магнитных полей, не требуют размагничивания (Degauss) при перемещениях. Наконец, они гораздо меньше утомляют глаза, потому что изображение на ЖК-мониторах не мигает, и от видеокарты не приходится требовать высоких значений частоты кадровой развертки.
Любой монитор не следует эксплуатировать в темной комнате в отсутствие внешнего освещения – из-за контраста между темным окружением и ярким экраном глаза будут уставать даже при работе с современными мониторами, у которых мерцание отсутствует. Яркость окружения должна быть либо равной яркости экрана, либо незначительно меньше ее (кстати, это одна из причин, по которой несветящиеся экраны букридеров на основе электронной бумаги значительно комфортнее для глаз, чем обычные ЖК-экраны, – их яркость всегда соответствует яркости освещения и не констрастирует с фоном). Чтобы глаза уставали меньше при длительной работе, стоит установить монитор настольного компьютера так, чтобы сзади него оставалось свободное пространство до стенки не меньше метра – чем больше, тем лучше. В этом случае глаза будут менять аккомодацию при взгляде мимо монитора и меньше уставать.
Такая задача возникает у домашнего/офисного пользователя редко, но вдруг случится, что вы захотите приспособить компьютер для таких задач, как показ кинофильмов в гостиной, мониторинг домашней сети, слежение за обстановкой в подъезде? Размещать монитор тогда удобно не рядом с системным блоком, а в том месте, где на него смотрят. Причем это, вероятно, будет второй монитор – придется приобрести карту с двумя DVI-выходами, объявить для них режим клонирования (когда оба монитора дают идентичные картинки) и один, размещаемый рядом с системным блоком, подключить прямо к ней, а вот куда воткнуть второй, удаленный – это вопрос, который не решается прямо с налета. Вынести монитор почти сколь угодно далеко (как минимум на несколько десятков метров) не представляло трудностей для VGA-картинки низкого разрешения, характерного для DOS. Это продолжалось примерно до разрешения 1024x768, а вот все, что выше этого, потребовало более сложных решений, и простые и дешевые VGA-удлинители в одночасье исчезли с прилавков.
На самом деле вопрос решается с помощью удлинителей HDMI, который фактически есть тот же DVI – они совместимы на уровне простых переходников. А кабель для них – это обычная витая пара категории 5, такая же, как в сетях Ethernet. Купите удлинитель HDMI (например Dr.HD EXW 50DK). Он довольно дорог (под 3 тыс. рублей), и представляет собой два идентичных адаптера, с одной стороны с разъемом HDMI, с другой – по два одинаковых RJ-45, как у сетевой карты. Сигнал передается по двум витым парам, длиной до 30 метров (их можно купить нужной длины, разъемы установит продавец прямо в вашем присутствии). Если монитор или видеокарта не имеют входов-выходов HDMI, то придется приобрести переходники DVI-HDMI (они совсем дешевые). Аналоговый выход видеокарты DVI-A, понятно, тут не подойдет (он часто идет в одном разъеме вместе или вместо цифрового DVI-D, но на самом деле есть просто такой же VGA, только выведенный на другой разъем).
Более интересный и менее хлопотный, но пока еще довольно дорогой вариант представляет собой новый беспроводной стандарт специально для передачи HDMI под названием WHDI (Wireless Home Digital Interface, беспроводной домашний цифровой интерфейс), разработанный израильской компанией Amimon. Устройства с этим интерфейсом представляют собой аннтенки, передающую и приемную, втыкаемые прямо в HdMI (для нашего случая – в переходник DVI-HDMI) на обоих концах линии. О них еще пока известно в основном из рекламы, но единственный практический отчет, который мне встретился, очень хвалил технологию – утверждали, что работает без заметных проблем на расстоянии до 15–20 метров, в том числе и через перегородки (теоретически до 30 метров, но возможно ухудшение качества). А самое главное, в этом варианте приемных мониторов может быть теоретически сколько угодно, и расставлять их можно в любом месте, передвигая по мере надобности.
В заключение – один вопрос, которому редко уделяется достаточное внимание. Иногда производители вкладывают в коробку диск с отдельным драйвером монитора. Нужно ли его устанавливать? На самом деле такой драйвер для современных мониторов не требуется – все его функции настойки выполняются либо кнопками на корпусе монитора, либо драйвером видеокарты, либо другими программами. В некоторых старых моделях мониторов драйвер был предназначен для того, чтобы пользователь не мог задать недопустимые режимы, могущие повредить монитор. У современных мониторов таких режимов нет, да и тогда никакой полезной функции, сверх этих ограничений, драйвер монитора не выполнял. Если ваш монитор не работает как следует, то ищите причину в режимах видеокарты, драйвер монитора к этому не имеет никакого отношения.
2.3. Калибровка монитора
Во-первых, насколько она нужна? Если вы на своем мониторе только набираете текст и путешествуете по веб-сайтам, то калибровка монитора может и не потребоваться. Желательность ее проявляется тогда, когда вы начинаете обмениваться с друзьями (или с учреждениями, вроде редакций СМИ) всяческими графическими материалами, которые в идеале должны одинаково отображаться на всех экранах. Самый простой такой случай – размещение фотографий на фотогалереях в Сети. Нехорошо, если они у вас выглядят нормально, а у всех других будут отдавать в зелень или окажутся слишком темными. Большинство мониторов не потребуют никакой коррекции, но стоит, как минимум, это проверить.
Во-вторых, насколько возможна калибровка монитора в домашних условиях? Это вопрос очень неоднозначный, и ответ зависит и от монитора, и от видеокарты, и от квалификации пользователя. Полная калибровка и выстраивание объективно полученного цветового профиля – дело сложное и теоретически, и практически, требующее специального недешевого оборудования, знаний, терпения и времени. Кроме того, калибровка только одного монитора – дело в значительной степени бессмысленное, если одновременно не откалибровать и сканер, и принтер, но эти процессы любителю практически недоступны или, как минимум, дороговаты. Отсюда вытекает такой ответ на поставленный вопрос: нет, полную калибровку в домашних условиях провести неквалифицированному пользователю практически невозможно.
А что можно? Можно максимально подогнать под желаемые значения яркость и контраст, установить точку белого, баланс цветов (чтобы оттенки серого были серыми, а не цветными).
Понятие о гамма-коррекции пришло из эпохи мониторов и телевизоров на электроннолучевых трубках. В них яркость пиксела (т. е. количество излучаемых фотонов) нелинейно зависит от величины сигнала на модуляторе кинескопа. В кинескопах эта зависимость с большой точностью описывается степенным уравнением
Рис. 2.1. Кривая гамма-коррекции
Поскольку до некоторой поры все телевизоры и мониторы в мире были электроннолучевыми, для них и приняли стандарт гамма-коррекции. Если бы гамма-коррекции не существовало, то изображение выглядело бы гораздо темнее, и в темных участках нельзя было бы разобрать полутона. Для новых типов дисплеев, не применяющих электронно-лучевые трубки, зависимость яркости от сигнала совсем другая (и более сложная), но в целях унификации гамма-коррекцию оставили. Для бытовых компьютерных мониторов после некоторых колебаний был принят стандарт sRGB (IEC 61966-2.1), согласно которому значение? должно составлять 2,2. Менять его принудительно для всего монитора в целом иногда приходится (особенно в отдельных цветовых каналах при цветокоррекции), но лучше оставить коэффициент гамма в неприкосновенности. Если гамма монитора будет отличаться от стандартной, то изображения станут выглядеть иначе, чем на стандартном мониторе. При сильном искажении (например, в фотографиях, получаемых с цифровой камеры), лучше скорректировать гамму не монитора, а самой фотографии, что позволяет сделать большинство графических редакторов, включая бесплатный IrfanView. С помощью инструмента Curves в пакете Photoshop (и аналогичных инструментов в других редакторах) можно менять гамма – кривую изображения (не монитора!) практически произвольным образом.
Сразу отметим, что не каждый монитор позволяет отрегулировать все параметры. В ряде современных недорогих дисплеев на TN-матрицах, например, отсутствует регулировка контраста. Такие дисплеи поддаются калибровке только ограниченно, но они и приобретаются обычно для таких целей, когда сама калибровка оказывается необязательна. Не пытайтесь также настраивать современные мониторы с помощью утилиты Adobe Gamma, как это часто рекомендуют: во-первых, она ориентирована на ЭЛТ-мониторы (и именно потому из современных версий Photoshop исключена), во-вторых, она, скорее всего, просто не заработает – для этого потребуется отключить фирменные настройки драйвера.
Самую простую калибровку можно произвести с помощью сайта photosight.ru. Загрузите заглавную страницу этого сайта, и на самом верху вы увидите полоску с градациями от черного до белого, обозначенными величиной процента яркости (рис. 2.2). Смотрим на полоску и крутим регулировки яркости и контраста на дисплее, добиваясь, чтобы последняя черная полоска отличалась от следующей тёмно-тёмно-серой и последняя белая полоска отличалась от предыдущей почти белой.
Рис. 2.2. Калибровочная полоска на сайте photosight.ru
Более точную настройку яркости и контраста можно выполнить следующим образом: откройте с прилагаемого диска изображение из файла 0-255-0.tif (он находится в папке Color). Там на белом и черном фоне написаны цифры оттенком серого. Общее правило такое – слишком большая контрастность приводит к исчезновению цифр на белом фоне, низкая контрастность приводит к исчезновению цифр на черном фоне. Для начала проще всего выставить регулировками монитора контраст (Contrast) в максимум (100 %), а яркость (Brightness) – в нулевое значение. Затем увеличиваете яркость до тех пор, пока не сможете увидеть максимальное количество чисел на черном фоне, при этом сам фон должен оставаться черным, без серого оттенка. Закончив этот процесс, переходите к регулировке контраста и уменьшаете его до получения максимального количества цифр на белом фоне (белый также должен оставаться белым, без серого оттенка). Если при этом видимость цифр на черном фоне «уехала», то вернитесь к яркости и повторите обе регулировки (возможно, это придется сделать не один раз).
Проверить полученную настройку можно с помощью картинки из файла shahmati.gif, который находится на диске также в папке Color. Даже небольшое увеличение контраста от оптимального значения приведет к неразличимости шахматных клеток на белом фоне.
Учтите, что неправильно выбранный цветовой профиль монитора тоже может искажать картинку. Потому, прежде чем бросаться крутить какие-то настройки, стоит проверить, не выбран ли в данной программе какой-то экзотический профиль. В Adobe Photoshop это пункт Edit | Color settings (Правка | Установки цвета). Во всех других подобных программах это пункт с аналогичным названием в настройках – например, Color management (Управление цветом). Там должно стоять название профиля, содержащее название стандарта «sRGB» (например, в Photoshop это будет «sRGB IEC 61966-2.1»). При конвертации RAW-файлов с цифровой камеры в программе конвертации также стоит выбирать цветовое пространство sRGB (RAW-конвертер Adobe, встроенный в Photoshop, по умолчанию предлагает AdobeRGB, в котором фото на обычных мониторах будут выглядеть тусклее и темнее).
Стоит проверить также вкладку Управление цветом в свойствах видеоадаптера – именно указанный там профиль управляет оттенками в тех программах, где собственного управления цветом нет (скажем, в Internet Explorer). В Windows XP этот пункт можно найти через свойства рабочего стола (вкладка Параметры | Дополнительно | Управление цветом). В Windows Vista и 7 – Панель управления | (Все элементы панели управления) | Управление цветом. В соответствующем пункте для монитора поле должно быть пустым, или в нем также должно стоять название, содержащее «sRGB».
Совет
Убедившись в этом, стоит еще раз проверить, нормально ли отображаются цвета, и лишь при каких-то нарушениях переходить к более кардинальным настройкам, чем простая регулировка яркости и контраста, – вернуть их на место потом может оказаться довольно сложно.
Более сложную калибровку можно провести с помощью программ настройки, которые обычно идут в комплекте с драйвером видеокарты. Например, для видеокарт NVIDIA эта программа называется Панель управления NVIDIA, и ее можно найти в панели управления или в свойствах видеоадаптера. Если позволяют настройки монитора, то нужно начать с них, как описано ранее, а эти программы служат для тонкой доводки изображения через видеоадаптер.
Точку белого можно установить с помощью этих программ или настроек монитора, изменив значение цветовой температуры. В качестве эталона при этом служит лист обычной белой бумаги, освещенный тем источником света, которым вы больше всего пользуетесь на практике. В офисе это, наверное, будет верхнее освещение, дома – настольная лампа совместно с рассеянным светом из окна. Выведите на монитор изображение белого поля (например, откройте новый пустой документ в Word) и положите лист бумаги рядом с монитором. С помощью пункта Цветовая температура (Color temperature) выставьте такое значение, при котором оттенки белого поля и листа бумаги будут совпадать.
При настольной лампе совместно с рассеянным светом из окна установленная цветовая температура, скорее всего, окажется около 5500°. Если монитор позволяет установить только ограниченное число значений цветовой температуры (например, только 6500 и 9300 °К), то установите наиболее близкое по белому листу. Затем регулировками красного, синего и зеленого каналов в программе настройки видеокарты доведите изображение белого поля на мониторе до максимальной схожести по оттенку с белым листом.
Отдельными регулировками красного, синего и зеленого каналов через программу настройки видеокарты можно отрегулировать и самый сложный случай – когда шкала градаций серого (подобная той, что на сайте photosight.ru) показывает цветовые отклонения в средних по плотности тонах – белый остается белым, черный – черным, тогда как некоторые оттенки серого выглядят окрашенными. В ЖК-мониторах такое случается редко, и характерно лишь для старинных ЭЛТ-мониторов.
Проверить установку баланса цветов и точки белого можно, например, с помощью изображений из файла money.colour.tif (находится на диске в той же папке Color), сравнив их с оригиналами, которые всегда есть под рукой у каждого. Если вы наблюдаете какие-то раздражающие отклонения, то для более точной настройки в ОС Windows 7 есть специальная программа Калибровка цветов экрана, которая во многом заменяет и Adobe Gamma, и фирменные утилиты производителей видеокарт. Инструкцию по работе с этой программой можно найти на сайте Microsoft (см. http://windows.microsoft.com/ru-RU/windows7/Calibrate-your-display).
2.4. Проблемы установки качественной аудиосистемы и ее необходимость
Еще недавно выбирать аудиокарту приходилось, исходя из имеющихся потребностей, толщины кошелька и возможностей к приобретению всего необходимого внешнего оборудования. Сейчас все встроенные в материнскую плату аудиокарты практически сравнялись по возможностям, стали обязательным оборудованием, и отдельные аудиокарты почти исчезли из продажи. Но выбирать в целом аудиосистему все равно приходится, потому что сама по себе аудиокарта, какая бы она ни была, еще не обеспечивает качественного звучания. Его можно достичь только в комплексе по всей цепочке: от записи на носитель, до колонок и даже дальше – до акустических особенностей помещения.
Дело построения и балансирования подобной системы очень непростое, недешевое и требует специальных знаний. Если в каком-то звене будет допущена слабина (например, вы собираетесь проигрывать MP3-записи, скачанные из Интернета, или соседи вам не разрешают включать колонки на достаточную громкость), то и все остальные звенья окажутся излишними – деньги и усилия будут потрачены зазря. Потому сначала стоит поговорить о том, в каких случаях стоит стремиться к достижению наивысших характеристик аудиосистемы, а в каких – это нецелесообразно или просто невозможно.
Известный автор и исполнитель бардовской песни Сергей Никитин как-то заметил, что один его друг-поэт вполне может слушать записи песен из радиоточки. Таким сравнением он хотел, видимо, показать исключительную непритязательность музыкальных вкусов своего друга. Суть, однако, в том, что огромное большинство потребителей музыки вполне находятся на том же уровне – им по большому счету все равно, на какой аппаратуре все это звучит. Никто, конечно, не будет отказываться прослушать запись или звуковое сопровождение к фильму на новейшей многоканальной аппаратуре, но в быту нас в большинстве сопровождают звуковые устройства: автомагнитолы, карманные плееры, компьютерные колонки, иногда встроенные в монитор, – которые по своему качеству недалеко ушли от этой самой радиоточки. Приобретать, устанавливать и конфигурировать современную звуковую аппаратуру – недешевое и хлопотное занятие, к тому же требующее достаточно физического места.
Есть и еще одно обстоятельство. В качестве современных городских и загородных жилищ, по крайней мере в достаточно развитых странах, человечество сделало огромный скачок вперед. Еще лет сто-сто пятьдесят назад такие блага цивилизации, как центральное отопление, канализация и даже водопровод были абсолютно недоступны большинству проживающих в Европе или Америке. Количество жилой площади на душу населения даже в развитых странах было минимальным, и лишь в богатой Америке в первой половине XX века постепенно стал устанавливаться обычай проживать каждому в отдельной комнате.
С тех пор строительные технологии резко подешевели, появилась строительная индустрия и упала доля медленного ручного труда, потому стандарты качества жилья постепенно выросли. Но в области звукоизоляции современные жилища не могут даже близко сравниться с каким-нибудь средневековым замком. В нем люди непрестанно мерзли и болели, спали вповалку в общем зале на соломе, но вот со звукоизоляцией там все было в порядке, хотя специально об этом едва ли кто заботился. Не приходит в голову задуматься об этом и современным строителям. А ведь городские бетонные коробки в этом смысле куда хуже, чем даже кирпичные дома ручной постройки XIX и начала ХХ века – бетонные перекрытия являются отличным каналом для распространения звука, особенно низких частот.
Потому эксплуатировать настоящую качественную звуковоспроизводящую аппаратуру в современных городских квартирах – автоматически означает навлечь на себя неудовольствие соседей. Не все люди к этому чувствительны, но одна даже не слишком громко «звучащая» квартира распространяет звук на десятки помещений в округе, и просто по теории вероятностей в них обязательно найдется кто-то, для кого это будет невыносимо.
Может показаться, что я преувеличиваю проблему, но можно с цифрами в руках показать, что это не так. Качественная звуковая аппаратура в первую очередь означает, что она может воспроизводить большой динамический диапазон, характерный для реальных источников звука, – иначе громкие звуки просто «обрежутся», и никакого воспроизведения high fidelity (высокой верности) вы не получите. Причем этот диапазон для классической музыки, исполняемой симфоническим оркестром, значительно больше, чем для развлекательной или для рок-музыки, которую обычно принято исполнять просто громко. В доказательство послушайте качественную запись оркестра, исполняющего чего-нибудь вроде «Кармен» Жоржа Бизе – там динамический диапазон достигает 100 дБ по уровню сигнала (т. е. разница между самыми громкими и самыми тихими звуками примерно в сто тысяч раз). И если «сделать потише», то тихие скрипки вы просто перестанете слышать.
Потому рок-концерт или какую-нибудь попсу, равно так же как и бардовскую песню, отличающиеся невысоким динамическим диапазоном, еще относительно легко проигрывать на таком уровне громкости, чтобы и соседей не беспокоить, и удовольствие получить, а вот с классической музыкой такой фокус не проходит.
Возвращаясь к радиоточке, упомянутой Сергеем Никитиным, заметим, что все-таки по таким «массовым» каналам (FM-радио, записи на компакт-диск, MP3-файлы) приходится распространять в том числе и «Кармен», и орущие рок-группы, и задушевные романсы. Чтобы все это можно было слушать где угодно, приходится звуковой сигнал компрессировать – уменьшать его динамический диапазон так, чтобы он уложился в возможности даже самой непритязательной аппаратуры. Сама аппаратура это делать «умеет» далеко не всегда, потому озаботиться приходится еще при записи.
Мораль из этого длинного вступления такова – прежде чем принимать решение о приобретении качественной звуковой аппаратуры, задумайтесь о том, что именно вы будете на ней воспроизводить. И если ваши вкусы не выходят за пределы MP3-записей популярной музыки, то, скорее всего, такая аппаратура будет для вас просто бесполезна. Вполне сойдут и самые дешевые компьютерные колонки, причем у вас заодно не возникнет искушения беспокоить соседей. Хорошей и недорогой альтернативой такому подходу будет приобретение качественных (только действительно качественных!) наушников – они и соседей не трогают, и вполне способны воспроизводить многоканальный звук с достаточным динамическим диапазоном.
Пожалуй, единственный случай, когда действительно имеет смысл озаботиться самой качественной аппаратурой – это наличие у вас возможности обустроить себе домашний кинотеатр. Домашний кинотеатр – это, прежде всего, качественный звук, а уж потом большой экран или проектор. Заодно кинотеатр может выступать в качестве высококачественного звуковоспроизводящего устройства, на котором действительно можно адекватно проигрывать и записи классической музыки в формате DVD-Audio – попробуйте как-нибудь послушать, получите ни с чем не сравнимое удовольствие. Причем возможности такого центра далеко перекрывают качества ностальгических аналоговых «вертушек» (которые и в самом деле могут быть лучше цифрового звука, но лишь в сравнении с относительно недорогими цифровыми системами и «ширпотребовскими» записями). Но первичной тут является даже не стоимость такой системы, а именно физическая возможность – глупо городить ее в малогабаритной городской квартире, вовлекая себя в непрестанные ссоры с соседями, и к тому же заведомо ограничивая качество характеристиками неприспособленных к тому помещений.
Именно потому я и говорил в беседе о материнских платах, что стандартные звуковые системы, прилагающиеся к современным компьютерным системам, в большинстве случаев совершенно избыточны. 5.1-канальный звук хорош именно в составе домашнего кинотеатра, громоздить вокруг рабочего компьютера многочисленные колонки чаще всего не позволяет место – в большинстве случаев к компьютеру подключают обычные стереоколонки или наушники. Не забудьте еще, что компьютер, даже самый тихий, если только он не проектировался специально для целей звукозаписи (есть и такие), всегда шумит вентиляторами на уровне около 30 дБ. А этот шум «сожрет» треть динамического диапазона вашего суперкачественного звукового усилителя. Конечно, компьютер можно использовать в качестве центрального устройства медиасети, подключив к нему телеприемник или колонки в другой комнате, но не проще ли будет приобрести для этого отдельное специализированное проигрывающее устройство?
2.5. Настройка аудиосистемы
Обсудив таким образом целесообразность установки «навороченной» аудиосистемы, перейдем к настройкам обычной. В сервисных программах, прилагающихся к драйверу аудиосистемы, встроенной в материнскую плату, обычно наглядно указывается, куда чего подключать, и это не вызывает трудностей. Трудности могут быть лишь с установкой драйвера – нередко имеющийся на диске драйвер конкретной аудиокарты предполагает поддержку High Definition Audio со стороны операционной системы.
Это не вызывает трудностей в современных версиях Windows Vista и Windows 7, но может служить препятствием в старых версиях Windows XP. К сожалению, комплекты обновлений, которые содержат соответствующий компонент, обычно также включают еще много чего лишнего, потому просто интегрировать их полностью в устанавливаемую систему вы можете не захотеть
В противном случае, если у вас такая проблема возникла, и аудиосистема не работает, несмотря на все установленные с прилагаемого к материнской плате диска программы, а в окне Панель управления | Система | Диспетчер устройств показывается неопознанное устройство (или несколько таких устройств), то попробуйте проделать следующее. Подключитесь к Интернету, вызовите мастера установки оборудования в панели управления (можно щелкнуть правой кнопкой на неработающем устройстве в Диспетчере устройств и обратиться к пункту Обновить драйвер) и отметьте в нем пункт, который обычно старательно обходят: Разрешить подключение к узлу Windows Update для поиска программного обеспечения. Скорее всего при этом все установится, но чтобы заработало окончательно, возможно, придется еще раз установить драйвер аудиокарты с прилагаемого диска.
Следует также учитывать, что после этих установок в перечне Диспетчера устройств у вас может оказаться сразу много устройств High Definition Audio – в видеокарте тоже может быть свое такое устройство, если она снабжена выходом на телевизор (в моем случае – видеокарта NVIDIA GT 240 с ТВ-выходом – таких устройств почему-то даже целых четыре). В этом случае, возможно, придется еще раз устанавливать и драйвер видеокарты, иначе устройство будет показываться как неработающее с желтым восклицательным значком. В общем, все на благо человека…
Проблемы могут быть и с подключением аудиоразъемов на передней панели корпуса. Если они не работают, то, прежде всего, следует проверить, подключены ли они физически к материнской плате. Многие самодеятельные сборщики просто ленятся их подключать и особенно проверять – часто потому, что без операционной системы проверить затруднительно, а у них она еще не установлена, и проще, считают они, не подключать вовсе, сделав вид, что так и надо (то же, кстати, относится и к USB-разъемам на передней панели). Положите перед собой руководство к вашей материнской плате и хотя бы поверхностно проверьте, что все рекомендации соблюдены. Стоит, например, убедиться в том, что на материнской плате нет специальной перемычки, отключающей эти передние (фронтальные) разъемы, а если она есть, то находится в правильном положении.
Далее проверьте в сервисной программе драйвера звукового адаптера (она должна находиться в панели управления отдельно от других) наличие пункта Параметры разъема (это на вкладке, называемой Звуковые входы-выходы). Если таковой имеется, то расставьте в нем флажки, как показано на рис. 2.3. У других производителей встроенного аудио аналогичные пункты могут быть расположены в других местах.
Рис. 2.3. Настройки для аудиоразъемов передней панели корпуса