Это перевод статьи с Forbes Tech. Я редко размещаю свои переводы, но тут точка зрения автора совпала с моей более, чем полностью.
Создав iPhone, Apple, а вслед и ее конкуренты, предоставили широкой публике возможность использования сенсорных экранов. Но новые технологии обещают изменить способ общения с компьютером навсегда. Например?
Представьте себе: вы едете в плотном автомобильном потоке, и остались секунды, чтобы перестроиться в нужный ряд. В такой сложный момент вы вряд ли готовы отвечать на звонок. Но вам не нужно брать телефон в руки и отключать абонента, телефон сам переведет звонки на голосовую почту. Позже, когда ситуация нормализуется, он проиграет сообщения и предложит перезвонить… Даже если у вас iPhone 5 или последний Samsung – флагманы рынка, будет справедливо заметить, что ваш телефон еще слишком далек от этого. Несмотря на то, что у современных телефонов впечатляющий список функций, включая голосовые команды, большинство людей до сих пор взаимодействуют с ними, нажимая кнопки и тыкая в экран.
Такая же история с компьютерами. Взять хотя бы новую операционную систему Microsoft Windows 8, которая появится в продаже на этой неделе. По интерфейсу она значительно отличается от предыдущих версий ОС, но красивая картинка совершенно не означает, что система стала более гибкой в управлении, и вам не придется пользоваться старыми-добрыми мышью и клавиатурой… На самом деле, если не считать одно или два исключения, удивительно — как мало изменилось наше общение с компьютером за прошедшие несколько десятилетий.
«Сегодня вряд ли кто-то сможет создать что-то более удобное, чем мышь и клавиатура, даже приблизительно, — говорит Джордж Фицмаурис, глава исследовательского отдела пользовательских интерфейсов Autodesk. – Но, несмотря на отсутствие очевидной новизны большинства интерфейсов сегодняшних устройств для массового рынка, на подходе много новых идей».
Возьмем для примера технологии, которые стоят на страже нашего здоровья и, например, отслеживают уровень стресса. Одна из таких разработок называется функциональной около-инфракрасной спектроскопией (fNIRS), с ее помощью можно отслеживать уровень кислорода в крови и, как следствие, степень активности в передней части головного мозга. «Она измеряет степень занятости кратковременной памяти, что дает представление о том, насколько вы заняты в данный момент», — говорит профессор компьютерных наук Роберт Якоб из Университета Тафтс в Бостоне.
Технология, которая используется для медицинских исследований, однажды может пригодиться для фильтрации телефонных звонков. Сегодня fNIRS собирает данные с помощью сенсора, который закрепляется на голове исследуемого, но сенсор может быть помещен в бейсболку или бандану, позволяя владельцу принимать только важные звонки. Возможно, еще скорее эта технология найдет применение у работодателей для эффективного распределения рабочей нагрузки. «Вы можете приказать своему телефону принимать звонки исключительно от жены, в случае если занятость вашего мозга превысит установленное значение, — добавляет Jacob. — Если прибор может определить насколько вы заняты, он же может посоветовать взять дополнительную работу или передать часть заданий кому-нибудь другому в случае максимальной загруженности».
Другие формы «компьютерно-мозгового интерфейса» уже разрабатываются для множества прикладных задач и успешно внедряются. Электроэнцефалография (EEG) считывает электрические сигналы взаимодействующих клеток мозга. В больницах и неврологических лабораториях она давно используется для диагностики комы, эпилепсии и жизнедеятельности мозга. Различные варианты EEG могут быть использованы для определения других состояний мозга – от эмоций до нарушений его работы. Уже выпущены упрощенные варианты EEG, которые продаются всего за 100 долларов. Например, британская компания Myndplay производит короткометражные интерактивные фильмы, игры и программы для спортивных тренировок. Здесь пользователи управляют происходящим с помощью таких волновых приборов, одеваемых на голову. Те, у кого получается сфокусировать внимание или, наоборот, расслабиться в необходимый момент, могут воздействовать на сюжет фильма или продвинуться в игре.
Похожие технологии используются для помощи инвалидам. Два года назад австрийская компания Guger Technologies выпустила систему, позволяющую парализованным пациентам набирать текст, последовательно перебирая буквы, пока сигнал от EEG не укажет на нужную. А испанские специалисты разработали инвалидную коляску, управляемую с помощью EEG, и работают над системой по управлению протезом руки.
Другие исследователи работают над умными «эмоциональными» системами, которые используют камеры для считывания эмоций пользователя. Анализируя выражение лица, они могут уловить общие характеристики злости, замешательства и других чувств. «Эмоции вызывают одинаковые выражения лиц у людей разных культур, поэтому такие системы могут быть использованы где угодно», — говорит профессор компьютерных технологий Питер Робинсон из Кембриджского Университета. Персонал колл-центров тренируют и инструктируют, чтобы помочь в общении с раздраженными клиентами, а учителя следят за выражением лиц учеников, чтобы понимать насколько хорошо они усвоили урок. Исследователи проектируют системы, которые будут давать компьютеру похожую информацию, используя алгоритмы которые анализируют такие параметры как положение рта или бровей на изображении лица пользователя. Если компьютер определит, что студент в замешательстве, он сможет применить ту же технику, что и живой учитель, возможно, подав информацию под другим углом или представив больше примеров», — комментирует Робинсон.
По воздуху
Пока такие системы пробуют сделать интерфейсы почти невидимыми, другие пытаются интегрировать существующие технологии, такие как камеры, сенсоры, дисплеи и компьютеры в объекты вокруг нас. Этот подход, известный как «чувствительный компьютер», позволит общаться с компьютером посредством физики тела, а не специальных устройств ввода. Например, играя в шахматы с компьютером, можно сделать ход, переместив фигуру на реальной доске, вместо того, чтобы «передвинуть» фигуру мышкой или клавиатурой.
Уже сейчас исследователи из Массачусетского Технологического Института начинают изучать такие экстремальные способы ввода, начиная со строительных кубиков, песочных поверхностей, заканчивая листами сверхчувствительного материала и парящих шариков для управления происходящим на экране компьютера. «Мышь и клавиатура не уйдут полностью со сцены, это очень быстрый и эффективный путь взаимодействия с компьютером, но мы увидим гораздо больше манипуляций с реальными объектами, — говорит Дэвид Карлэндер, бывший сотрудник отдела Microsoft по исследованию пользовательских интерфейсов. — Мы также увидим больше новых манипуляторов-указателей и устройств распознавания речи в различных комбинациях. Поверхности, такие как столы, стены и окна будут использоваться в качестве экранов для персональных мини-проекторов, размещенных на одежде или «ожерельях» вокруг шеи».
Игроманы уже привыкли контролировать процесс игры с помощью движений, используя такие устройства как Kinect от Microsoft, которое может распознавать движение объектов в трех измерениях, используя камеру и датчик глубины изображения. Они даже создали программу, которая позволит использовать Windows 8 с помощью Kinect. Неизбежно прослеживаются параллели с фантастическим интерфейсом из фильма Minority Report, который использовал Том Круз для перемещения информации между виртуальными экранами. Хотя эксперты по интерфейсам скептически относятся к голливудскому видению будущего.
«Люди по натуре ленивы, а размашистые движения руками утомляют, поэтому очень сомнительно, что люди когда-нибудь будут общаться с компьютерами, используя драматические жесты, в то время, когда можно достичь тех же результатов с помощью мыши или голоса, или другим способом, например движением пальцев», — говорит Карлендер.
Последняя идея воплощена в Leap — маленьком устройстве, которое размещается перед компьютером и, считывая 3D-движения, позволяет просматривать сайты, играть в игры и использовать другие программы с помощью движений пальцев и рук. Впечатляющее промо-видео, выпущенное ранее в этом году создателями устройства компанией Leap Motion из San Francisco, показывает пример навигации по спутниковым снимкам с виртуальными воздушными «нажатиями» и «сдвигами», а также использование большого пальца руки для стрельбы в игре. Это устройство за 70 долларов появится в начале следующего года.
Но если все вышесказанное слишком энергично или даже опасно для офисного пространства, есть менее утомительные способы коммуникации с компьютером. Например, системы использующие движение глаз, уже предложены для помощи инвалидам. Они применяются для контроля инвалидного кресла или набора текста на компьютере, как замена традиционной клавиатуре. Профессор Стивен Фейнеп из Колумбийского Университета, ведущий исследователь по вопросу дополненной реальности верит в то, что интерфейсы, улавливающие движения глаз, получат широкое распространение. «Если вы посмотрите на конкретное место или в конкретную сторону, это может быть сигналом для активации определенной информации, — говорит он. — Например, вы можете перевести взгляд в правый верхний угол и вызвать изображение часов или ваше последнее почтовое сообщение».
Под кожей
Дополненная реальность, как мы ее знаем, не нуждается в отдельных экранах, она накладывает информацию из компьютера непосредственно на поле зрения юзера, используя очки, контактные линзы или носимый дисплей. «Мы пытаемся интегрировать информацию с миром вокруг вас, чтобы не использовать информацию об объекте на отдельном экране, но накладывать эту информацию на объект».
Поле для этой технологии было подготовлено еще в 60-х годах, но только сейчас развитие технологий позволило воплотить это в реальности. Последние инновации подошли еще ближе. Ранее в этом году Google представил проект Google Glass, систему, проецирующую информацию, такую как входящие звонки и электронная почта, на линзы очков пользователя. Это не по-настоящему дополненная реальность, потому информация не имеет отношения к тому, на что пользователь смотрит в реальном мире. Некоторые также возражают, что приложения мобильных телефонов, которые предоставляют информацию о туристических объектах или карты звездного неба, когда камера направлена на эти объекты, также не являются дополненной реальностью, потому что они вычисляют объект по местоположению и ориентации камеры, а не по тому, на что смотрит пользователь.
Настоящая дополненная реальность позволит инженеру посмотреть на двигатель, прочитать инструкцию по ремонту и увидеть отдельные части, выделенные в его поле зрения. Такой подход может применяться на корпоративном совещании или дружеской вечеринке, чтобы видеть имена и информацию о людях, на которых вы сейчас смотрите.
Логическим завершением такого вида дополненной реальности может быть система, встроенная в глаза пользователя. Такая технология уже не воспринимается как научная фантастика, ведь внедрение других интерфейсов, встраиваемых в части человеческого тела, например, под кожу — уже реальность. Так, маленькие встраиваемые компьютеры или датчики, которые взаимодействуют с самим человеческим телом, доказали свою, иногда даже жизненную, необходимость. Некоторые исследователи уже вступили на это поле, имплантируя себе микрочипы, которые позволяют управлять дверями и светом в домах. Представьте себе красный огонек светодиода под кожей, когда вы слишком пьяны, чтобы садиться за руль, или устройство, которое предупреждает вас о слишком высоком кровяном давлении или уровне холестерина.
«Конечно, эти специальные устройства слишком далеки от того, чтобы заменить клавиатуру или мышь, — говорит Фицмаурис из Autodesk. — Вы можете встроить себе кнопки для управления MP3-плейером, и преимуществом будет то, что они всегда будут с вами и никогда не потеряются, но действительно ли вы хотите поместить их под кожу?»
В большинстве случаев ответ отрицательный. Наверное, лучше использовать старую добрую клавиатуру еще какое-то время…