LightSpace 및 인터랙티브 룸. 마이크로소프트가 말하는 미래
차례:
Microsoft Research에서는 오랫동안 환경을 인식하고 상호 작용하는 기술을 연구해 왔습니다. Kinect가 전형적인 예이지만 유일한 예는 아닙니다. LightSpace는 Redmond 연구 부서의 이 분야 프로젝트 중 하나입니다. 표면 인식 요소를 증강 현실과 결합하고 깊이 카메라와 프로젝터 덕분에 LightSpace는 실내의 모든 표면과 표면 사이의 여유 공간까지 대화식으로 만듭니다.
LightSpace의 목표는 다양한 요소를 프로젝션 표면으로 사용하여 일상 환경에서 상호 작용할 수 있도록 하는 것입니다.시스템은 테이블이나 벽을 사용하여 그래픽을 표시 사용자가 손과 제스처를 사용하여 투사된 콘텐츠를 조작할 수 있도록 합니다. 데모에서는 테이블과 벽만 사용되지만 LightSpace는 더 많은 수의 표면을 인식하고 대화형 디스플레이로 사용할 수 있습니다.
어떤 표면과도 상호작용
이 시스템은 마치 멀티 터치 스크린인 것처럼 여러 손을 인식할 수 있을 뿐만 아니라 다양한 표면 간 전환을 가능하게 하는 신체와의 새로운 상호 작용을 추가합니다. 예를 들어, 해당 개체에 손을 대고 대상 표면을 터치하기만 하면 콘텐츠를 서로 이동할 수 있습니다. 이러한 방식으로 LightSpace는 방의 한 부분에서 다른 부분으로 우리 몸을 통해 이동하는 콘텐츠를 시뮬레이션합니다.
한 표면에서 다른 표면으로 콘텐츠를 이동하는 것 외에도 시스템을 통해 콘텐츠를 추출하여 마치 물리적인 물체인 것처럼 손에 쥘 수 있습니다.이를 위해 문제의 콘텐츠를 나타내는 빨간색 공을 손에 투사합니다. 사용자는 이렇게 방을 가로질러 옮길 수 있고 다른 사용자와거래할 수도 있습니다. 표면으로 되돌리려면 콘텐츠를 다시 렌더링하여 전송되도록 가까이 가져가면 됩니다.
시스템에서 사용하는 깊이 감지를 통해 표면 자체 외부에서 표현을 생성할 수 있습니다. 따라서 데모에서 볼 수 있듯이 공중에서 손을 올리거나 내려서 메뉴 옵션을 탐색합니다. 시스템은 다양한 옵션 사이에서 달라지는 높이를 감지합니다. 나머지와 마찬가지로 이것은 LightSpace로 달성할 수 있는 일의 한 예일 뿐입니다.
작동 방식
이러한 방식으로 방을 대화식으로 만들기 위해 시스템은 여러 깊이 카메라와 프로젝터를 사용합니다.방 안의 물체와 표면의 실제 위치를 감지하도록 보정되어 그래프를 표시할 수 있습니다. 이를 위해 각 카메라는 각 물체가 발견되는 깊이를 기록하여 실내의 안정적인 물체와 사용자 자신과 같은 다른 이동 물체를 구별합니다. 각 픽셀은 실제 좌표로 변환됩니다.
LightSpace는 이 데이터를 사용하여 방 요소의 3D 메시를 구축하고 콘텐츠를 투사할 수 있는 표면을 감지합니다. 방의 모델은 환경에서 사용자의 상호 작용을 인식하는 데 사용됩니다. 이전에 사용된 카메라는 사용자의 움직임을 감지하여 윤곽을 구별할 수 있습니다. 그리고 손의 위치를 정확하게 감지합니다.
따라서 시스템은 구현된 각 작업을 수행하기 위해 사용자의 제스처를 해석합니다.우리는 이미 어떤 표면에서든 콘텐츠로 작업하거나, 콘텐츠를 서로 옮기거나, 마치 실제 물체인 것처럼 실내 주위로 옮기는 것과 같은 이들 중 일부를 보았습니다. 그러나 시스템은 다른 지침을 구현할 수 있습니다 모든 표면에서 더 많은 작업을 허용합니다.
여기는 모두의 상상력을 발휘할 수 있는 곳입니다. 목표는 모든 표면을 대화형 화면으로 바꾸는 것입니다. 추가 모니터나 모션 센서가 필요하지 않은 LightSpace는 어떤 방이든 새로운 작업 공간이나 놀이 공간으로 탈바꿈시킵니다. 미래의 무언가로.
In Xataka Windows | Microsoft에 따른 미래 추가 정보 | 마이크로소프트 리서치