Чуть больше ста лет назад американский психолог Джордж Стрэттон задумался над вопросом: насколько жесткий алгоритм человеческого зрения в мозге, а именно, насколько мозг привязан к ориентации изображения, попадающего на сетчатку (как мы знаем, на сетчатку изображение попадает в перевернутом виде)? В результате своего любопытства он построил механическое устройство с зеркалами, надевающееся на голову, которое переворачивает изображение вверх ногами (иногда его называет «инвертоскоп»).
На седьмой день постоянного ношения устройства Стрэттон адаптировался к новому видению мира, и картинка стала казаться абсолютно естественной. Когда же он снял устройство, первое время мир казался ему странным, впрочем, позже зрение ученого вернулось в норму.
Моя идея
Получив первый Development Kit очков Oculus Rift, я подумал: а что, если сделать аналогичный эксперимент, только еще больше исказить реальность человека?
(осторожно, трафик)
Идея заключалась в том, чтобы повесить на стенку две веб-камеры (расстояние между ними соответствует расстоянию между глазами), и транслировать картинку с них на очки Oculus Rift в реальном времени. Камеры должны висеть статично в одном и том же месте и видеть картинку с большей частью комнаты и, соответственно, людьми в ней.
Согласно замыслу я должен был пробыть в очках, видя всё время себя со стороны, много дней, в идеале, достаточно долго, чтобы мозг адаптировался.
Ключевое отличие этой идеи от эксперимента Стрэттона в том, что в моем случае происходит своеобразный «выход из тела». В эксперименте Стрэттона когда человек поворачивает голову, картинка следует за головой в ту же сторону. В моем же случае картинка статична, и когда я поворачиваю голову, я просто вижу, как человек в комнате поворачивает голову.
Разумеется, в течение всего времени я должен быть либо в очках, либо с закрытыми глазами. Чтобы мозг всегда видел мир в том в виде, к которому ему нужно привыкнуть.
Конечно же, меня в первую очередь интересовал вопрос: привыкнет ли мозг к миру в стиле 3rd person view? И если привыкнет, то стану ли я не только видеть, но и представлять окружающую действительность от третьего лица?
Реализация на коленке
Собранная система состояла из двух камер, ноутбука, китайского источника 5В на 25 Вт, HDMI-сплиттера (для вывода картинки на двое очков Oculus Rift), двух Oculus Rift и кучи проводов.
В качестве камер я использовал две модифицированные Logitech C310 с линзами от камер Genius WideCam F100 (чтобы увеличить угол обзора). Здесь я пошел по пути William Steptoe, который использовал две камеры для дополненной реальности.
Камеры были подключены к ноутбуку с виндой. В качестве софта я использовал комбинацию Stereoscopic Multiplexer + Stereoscopic player. Сразу скажу, что к сожалению, в результате была достаточно большая задержка (на глаз — 300 мс). Кроме того, с экрана периодически делались скриншоты, а также всё время писалось видео с собственной веб-камеры ноутбука.
Сигнал с экрана шел по HDMI на китайский no-name разделитель HDMI, а оттуда по двум проводам к двум очкам Oculus Rift. От разделителя шли два длинные HDMI провода к док-станциям очков виртуальной реальности. Сама док-станция находится в кармане штанов. В качестве HDMI-проводов я использовал тонкие и гибкие Rosewill RCHD-12007.
К каждым очкам шли связанные изолентой два провода: тонкий HDMI-провод и питание для очков виртуальной реальности (для того, чтобы очки запустились, 5 В нужно подать и на вход питания, и на USB-порт). HDMI-разделитель и китайский источник питания 5 В, от которых идут провода к двум Oculus Rift, качественно привязан к столу изолентой, чтобы не падать, когда дергают за провода.
На фотографии источник 5 В, питающий очки виртуальной реальности, HDMI-разветлитель и длинные провода, идущие к док-станциям очков (док-станция хранится в кармане одежды). Фотография сделана уже существенно после эксперимента.
На компьютере я настроил голосовое чтение почты и личных сообщений, на смартфоне режим со включенным произношением текста на экране, кроме того, помогло голосовое управление телефоном.
Эксперимент
Сам эксперимент я осуществил с 1 по 4 мая 2014 г, т.е. всего лишь четыре дня. Девушка, изъявившая желание участвовать, продержалась еще на день меньше.
Сразу скажу, что значительного изменения восприятия не произошло (наверное, мало времени продержался). Но всё-таки я опишу субъективные ощущения.
Сильно кружилась голова, особенно в первые два дня. Я заранее предугадал это, и купил таблетки от укачивания. Но оказалось, что у них не стопроцентный эффект.
Были значительные проблемы с ориентацией в пространстве и с управлением телом. То есть, чтобы пойти в правильную сторону, происходит некий осознанный процесс с обратной связью (туда-не сюда, поворот-сюда-еще поворот). Аналогично с тем, чтобы взять любой предмет руками. На такие действия уходило очень много времени. На третий и четвертый день стало проще, но, вероятно, оттого, что мозг просто научился быстрее делать такие странные действия
Сильного ощущения того, что картинка на экране — это ты, не возникло.
Пытаясь представлять окружающую комнату, я начал в небольшом проценте случаев представлять его со стороны.
Сны я видел обычные, не от третьего лица.
Когда я снял очки, весь первый день было неприятное ощущение при каждом повороте головы (видимо, мозг привык, что картинка не должна двигаться). Ощущение слегка напоминает motion-blur и алкогольное опьянение.
Кроме того, первый день после снятия очков мне постоянно казалось, что я вижу пиксели поверх окружающей действительности. То есть, я видел всё качественно и четко, но ощущение, как будто пиксели сверху полупрозрачным слоем.
Секс в 3rd person мне не очень понравился.
Эксперимент стал невыносим из-за большой задержки (на глаз — около 300 мс) и низкого разрешения (я использовал первый development kit Oculus Rift с разрешением 640x800 px на один глаз). Поэтому на пятый день я снял Oculus Rift и оставил эту затею до лучших времен.
Планы на будущее
Дождусь выхода очков виртуальной реальности с разрешением 4k, возьму лучше камеры, наверное, напишу свой софт, и проведу в этом мире минимум 10 дней.