Pranav Mistry: The thrilling potential of SixthSense technology
조회 수 1394 추천 수 0 2014.01.17 23:43:22http://www.ted.com At TEDIndia, Pranav Mistry demos several tools that help the physical world interact with the world of data -- including a deep look at his SixthSense device and a new, paradigm-shifting paper "laptop." In an onstage Q&A, Mistry says he'll open-source the software behind SixthSense, to open its possibilities to all.
We grew up interacting with the physical objects around us. There are an enormous number of them that we use every day. Unlike most of our computing devices, these objects are much more fun to use. When you talk about objects, one other thing automatically comes attached to that thing, and that is gestures: how we manipulate these objects, how we use these objects in everyday life. We use gestures not only to interact with these objects, but we also use them to interact with each other. A gesture of "Namaste!", maybe, to respect someone, or maybe -- in India I don't need to teach a kid that this means "four runs" in cricket. It comes as a part of our everyday learning.
So, I am very interested, from the beginning, that how -- how our knowledge about everyday objects and gestures, and how we use these objects, can be leveraged to our interactions with the digital world. Rather than using a keyboard and mouse, why can I not use my computer in the same way that I interact in the physical world?
So, I started this exploration around eight years back, and it literally started with a mouse on my desk. Rather than using it for my computer, I actually opened it. Most of you might be aware that, in those days, the mouse used to come with a ball inside, and there were two rollers that actually guide the computer where the ball is moving, and, accordingly, where the mouse is moving. So, I was interested in these two rollers, and I actually wanted more, so I borrowed another mouse from a friend -- never returned to him -- and I now had four rollers. Interestingly, what I did with these rollers is, basically, I took them off of these mouses and then put them in one line. It had some strings and pulleys and some springs. What I got is basically a gesture interface device that actually acts as a motion-sensing device made for two dollars. So, here, whatever movement I do in my physical world is actually replicated inside the digital world just using this small device that I made, around eight years back, in 2000.
Because I was interested in integrating these two worlds, I thought of sticky notes. I thought, "Why can I not connect the normal interface of a physical sticky note to the digital world?" A message written on a sticky note to my mom on paper can come to an SMS, or maybe a meeting reminder automatically syncs with my digital calendar -- a to-do list that automatically syncs with you. But you can also search in the digital world, or maybe you can write a query, saying, "What is Dr. Smith's address?" and this small system actually prints it out -- so it actually acts like a paper input-output system, just made out of paper.
In another exploration, I thought of making a pen that can draw in three dimensions. So, I implemented this pen that can help designers and architects not only think in three dimensions, but they can actually draw so that it's more intuitive to use that way.
Then I thought, "Why not make a Google Map, but in the physical world?" Rather than typing a keyword to find something, I put my objects on top of it. If I put a boarding pass, it will show me where the flight gate is. A coffee cup will show where you can find more coffee, or where you can trash the cup.
So, these were some of the earlier explorations I did because the goal was to connect these two worlds seamlessly. Among all these experiments, there was one thing in common: I was trying to bring a part of the physical world to the digital world. I was taking some part of the objects, or any of the intuitiveness of real life, and bringing them to the digital world, because the goal was to make our computing interfaces more intuitive.
But then I realized that we humans are not actually interested in computing. What we are interested in is information. We want to know about things. We want to know about dynamic things going around.
So I thought, around last year -- in the beginning of the last year -- I started thinking, "Why can I not take this approach in the reverse way?" Maybe, "How about I take my digital world and paint the physical world with that digital information?" Because pixels are actually, right now, confined in these rectangular devices that fit in our pockets. Why can I not remove this confine and take that to my everyday objects, everyday life so that I don't need to learn the new language for interacting with those pixels?
So, in order to realize this dream, I actually thought of putting a big-size projector on my head. I think that's why this is called a head-mounted projector, isn't it? I took it very literally, and took my bike helmet, put a little cut over there so that the projector actually fits nicely. So now, what I can do -- I can augment the world around me with this digital information.
But later, I realized that I actually wanted to interact with those digital pixels, also. So I put a small camera over there, that acts as a digital eye. Later, we moved to a much better, consumer-oriented pendant version of that, that many of you now know as the SixthSense device.
But the most interesting thing about this particular technology is that you can carry your digital world with you wherever you go. You can start using any surface, any wall around you, as an interface. The camera is actually tracking all your gestures. Whatever you're doing with your hands, it's understanding that gesture. And, actually, if you see, there are some color markers that in the beginning version we are using with it. You can start painting on any wall. You stop by a wall, and start painting on that wall. But we are not only tracking one finger, here. We are giving you the freedom of using all of both of your hands, so you can actually use both of your hands to zoom into or zoom out of a map just by pinching all present. The camera is actually doing -- just, getting all the images -- is doing the edge recognition and also the color recognition and so many other small algorithms are going on inside. So, technically, it's a little bit complex, but it gives you an output which is more intuitive to use, in some sense.
But I'm more excited that you can actually take it outside. Rather than getting your camera out of your pocket, you can just do the gesture of taking a photo and it takes a photo for you.
(Applause)
Thank you.
And later I can find a wall, anywhere, and start browsing those photos or maybe, "OK, I want to modify this photo a little bit and send it as an email to a friend." So, we are looking for an era where computing will actually merge with the physical world. And, of course, if you don't have any surface, you can start using your palm for simple operations. Here, I'm dialing a phone number just using my hand. The camera is actually not only understanding your hand movements, but, interestingly, is also able to understand what objects you are holding in your hand.
What we're doing here is actually -- for example, in this case, the book cover is matched with so many thousands, or maybe millions of books online, and checking out which book it is. Once it has that information, it finds out more reviews about that, or maybe New York Times has a sound overview on that, so you can actually hear, on a physical book, a review as sound. ("famous talk at Harvard University ...")
This was Obama's visit last week to MIT. ("... and particularly I want to thank two outstanding MIT ...") So, I was seeing the live [video] of his talk, outside, on just a newspaper. Your newspaper will show you live weather information rather than having it updated -- like, you have to check your computer in order to do that, right?
(Applause)
When I'm going back, I can just use my boarding pass to check how much my flight has been delayed, because at that particular time, I'm not feeling like opening my iPhone, and checking out a particular icon. And I think this technology will not only change the way -- yes. (Laughter) It will change the way we interact with people, also, not only the physical world. The fun part is, I'm going to the Boston metro, and playing a pong game inside the train on the ground, right? (Laughter) And I think the imagination is the only limit of what you can think of when this kind of technology merges with real life.
But many of you argue, actually, that all of our work is not only about physical objects. We actually do lots of accounting and paper editing and all those kinds of things; what about that? And many of you are excited about the next generation tablet computers to come out in the market. So, rather than waiting for that, I actually made my own, just using a piece of paper. So, what I did here is remove the camera -- All the webcam cameras have a microphone inside the camera. I removed the microphone from that, and then just pinched that -- like I just made a clip out of the microphone -- and clipped that to a piece of paper, any paper that you found around. So now the sound of the touch is getting me when exactly I'm touching the paper. But the camera is actually tracking where my fingers are moving.
You can of course watch movies. ("Good afternoon. My name is Russell ... and I am a Wilderness Explorer in Tribe 54.")
And you can of course play games. (Car engine) Here, the camera is actually understanding how you're holding the paper and playing a car-racing game. (Applause)
Many of you already must have thought, OK, you can browse. Yeah. Of course you can browse to any websites or you can do all sorts of computing on a piece of paper wherever you need it. So, more interestingly, I'm interested in how we can take that in a more dynamic way. When I come back to my desk I can just pinch that information back to my desktop so I can use my full-size computer.
(Applause)
And why only computers? We can just play with papers. Paper world is interesting to play with. Here, I'm taking a part of a document and putting over here a second part from a second place -- and I'm actually modifying the information that I have over there. Yeah. And I say, "OK, this looks nice, let me print it out, that thing." So I now have a print-out of that thing, and now -- the workflow is more intuitive the way we used to do it maybe 20 years back, rather than now switching between these two worlds.
So, as a last thought, I think that integrating information to everyday objects will not only help us to get rid of the digital divide, the gap between these two worlds, but will also help us, in some way, to stay human, to be more connected to our physical world. And it will actually help us not end up being machines sitting in front of other machines.
That's all. Thank you.
(Applause)
Thank you.
(Applause)
Chris Anderson: So, Pranav, first of all, you're a genius. This is incredible, really. What are you doing with this? Is there a company being planned? Or is this research forever, or what?
Pranav Mistry: So, there are lots of companies -- actually sponsor companies of Media Lab -- interested in taking this ahead in one or another way. Companies like mobile phone operators want to take this in a different way than the NGOs in India, [who] are thinking, "Why can we only have 'Sixth Sense'? We should have a 'Fifth Sense' for missing-sense people who cannot speak. This technology can be used for them to speak out in a different way with maybe a speaker system."
CA: What are your own plans? Are you staying at MIT, or are you going to do something with this?
PM: I'm trying to make this more available to people so that anyone can develop their own SixthSense device, because the hardware is actually not that hard to manufacture or hard to make your own. We will provide all the open source software for them, maybe starting next month.
CA: Open source? Wow.
(Applause)
CA: Are you going to come back to India with some of this, at some point?
PM: Yeah. Yes, yes, of course.
CA: What are your plans? MIT? India? How are you going to split your time going forward?
PM: There is a lot of energy here. Lots of learning. All of this work that you have seen is all about my learning in India. And now, if you see, it's more about the cost-effectiveness: this system costs you $300 compared to the $20,000 surface tables, or anything like that. Or maybe even the $2 mouse gesture system at that time was costing around $5,000? So, we actually -- I showed that, at a conference, to President Abdul Kalam, at that time, and then he said, "OK, we should use this in Bhabha Atomic Research Centre for some use of that." So I'm excited about how I can bring the technology to the masses rather than just keeping that technology in the lab environment.
(Applause)
CA: Based on the people we've seen at TED, I would say you're truly one of the two or three best inventors in the world right now. It's an honor to have you at TED. Thank you so much. That's fantastic.
(Applause)
우리는 실제 물건들이 상호작용하는 실세계에서 자라왔습니다. 매일매일 사용하고 있는 물건들은 정말 놀랍도록 많습니다. 이런 물건들은, 컴퓨터 같은 계산 장치들과는 달리 이용하는 것이 훨씬 재미있습니다. 어떤 물건에 대해서 얘기를 한다면, 다른 개념이 자동적으로 따라오게 되는데, 우리가 이 물건들을 실생활에서 어떻게 잘 이용하고, 다룰 것인지, 곧, 제스쳐가 그것입니다. 우리는 제스쳐를 통해서 물건들과 상호작용 하기도 하지만, 서로간에 소통하기 위해서도 사용하기도 합니다. "나마스테" 라는 제스쳐는, 다른 사람에 대한 예의가 되겠구요, 또는 -- 인도에서는 이러한 제스쳐가 크리켓에서 "4" 를 의미한다는 것을 가르칠 필요가 없습니다. 이런 것들은 우리의 일상적인 경험에서 배워집니다.
그런 관점에서 저는, 처음부터, 어떻게 우리의 일상적인 도구들과 제스쳐에 대한 지식과 경험을, 디지털 매체와 더 효과적으로 상호작용 하는데 사용 할 수 있는가에 대해서 많은 관심이 있어 왔습니다. 키보드와 마우스를 사용하는 대신에, 실생활에서 물건들을 사용하는 것과 같이 컴퓨터를 사용 할 수 없을까요?
이건 약 8년 전에 했던 실험입니다. 글자 그대로 제 책상 위의 마우스에서 부터 시작했습니다. 마우스를 컴퓨터에 연결해서 사용하는 대신, 분해 했습니다. 많은 분들이 기억하시겠지만, 그때에는 대부분의 마우스들이 공을 내장하고 있었고, 여기에 두 개의 롤러가 있어서 실제로 공이 어떻게 움직이는지 감지하여 마우스가 어떻게 움직이는지를 전달 했습니다. 저는 이 두 개의 롤러에 집중했습니다. 사실 두 개의 롤러로는 부족했기 때문에 친구의 마우스를 빌렸습니다. 다시는 돌려주지 않았지만요. 그렇게 네 개의 롤러를 갖게 되었습니다. 이렇게 갖게 된 롤러들을, 마우스로 부터 떼어내어, 한 줄로 배열했습니다. 그리고 줄과 도르래와 스프링으로 연결 했습니다. 이렇게 저는 기초적인 제스쳐 인터페이스 장비를 갖게 되었습니다. 이것은 실제로 만드는데 2 달러 밖에 들지 않은 모션 감지 장치입니다. 이렇게, 제가 실제 세계에서 어떻게 움직이는지에 따라 디지털 속에서 행동을 따라합니다. 지난 약 8년 전인 2000 년에 제가 만들었던 장비입니다.
저는 실생활과 디지털세계를 통합하는데 관심이 많았기 때문에, 이런 sticky note (역주: 포스트잇) 장비를 생각해 냈습니다. "실생활에서 일상적으로 사용하는 sticky note 같은 물건을 디지털에서 사용 할 수는 없을까?" 라고 생각했던 것입니다. sticky note 를 통해 종이 위에 적혀진 메세지는 SMS 로 전달 될 수 있고, 제 일정 관리 프로그램과 자동적으로 연동하여 일정을 관리 하는데 사용 될 수 있습니다. 자동적으로 연동되는 할 일 리스트입니다. 또한 이 것을 디지털 매체 속에서, 검색을 하거나 질의를 할 수 있습니다. 이를테면, "Smith 박사의 주소는?" 과 같이 말입니다. 그러면 작은 시스템에서 실제로 프린트 해서, 포스트잇 같은 종이 입출력 시스템으로 유사하게 작동하는 것입니다. 실제 종이를 이용해서요.
또 다른 실험에서는, 펜으로 3차원을 그릴 수 있도록 해 보았습니다. 이 펜은 디자이너나 건축설계사들이 사용할 수 있도록 만들어 보았습니다. 단순히 3차원을 상상하는 것이 아니라, 실제로 그려 볼 수 있기 때문에 훨씬 직관적으로 와 닿습니다.
그리고서 생각했습니다. "왜 Google Map 같은 것은 실생활에는 없을까?" 무언가를 찾기 위해서 키보드를 치는 것이 아니라, 물건을 그 위에 올려 놓으면 됩니다. 이를테면, 비행기 탑승권을 올려 놓으면 탑승구가 어디 있는지 알려 줍니다. 커피 컵을 올려 놓으면 커피를 마실 수 있는 곳, 또는 컵을 버릴 수 있는 곳을 알려줍니다.
이런 일찍이 제가 했던 실험들은 두 세계 - 물리 세계와 디지털 세계 - 를 보다 깔끔하게 연결하려는 시도였습니다. 그런데 이 모든 실험들에는 한 가지 공통점이 있었습니다. 저는 물리 세계를 디지털 세계로 옮기려고 했던 것입니다. 어떤 물체나, 실생활의 직관적인 인터페이스를 디지털 세계로 옮겨 가져와서 디지털 세계의 장비들을 좀 더 직관적으로 다룰 수 있도록 하는 것을 목적으로 하고 있었던 것입니다.
하지만 우리 인간은 본질적으로 컴퓨터 자체에 관심이 있는 것이 아니라는 것을 깨달았습니다. 우리가 관심이 있는 것은 정보입니다. 우리가 알고 싶어 하는 것은 실생활의 것입니다. 우리는 우리 주변에서 어떤 일들이 벌어지고 있는지 알고 싶어 합니다.
지난해 초부터, 저는 이렇게 생각하기 시작했습니다. "이전에 했던 접근법을 반대로 생각하면 어떨까?" 곧, "디지털 세계의 디지털화 된 정보들을 실생활에 그려내면 어떨까?" 하는 것입니다. 지금의 디지털 화소는 주머니에 들어갈 정도로 작게 나오고 있기 때문에 그런 것이 가능합니다. 그렇다면 이런 크기의 제약을 없애고 일상적인 물건과 일상 생활속으로 가져와서 이 픽셀들을 다루는데 새로운 제스쳐를 배울 필요가 없다면 어떨까요?
이 꿈을 실현시키기 위해서 저는 거대한 프로젝터를 제 머리 위에 얹어 봤습니다. 이래서 이런 것을 Head-Mounted 프로젝터라고 하죠. 그렇죠? 저는 실제로, 자전거 헬멧을 약간 잘라내어 그 안에 프로젝터를 끼워 넣어 보았습니다. 그렇게 함으로써 이제 제 주변의 세상을 디지털 정보들로 채워나갈 수 있게 되었습니다.
그리고 얼마 후에, 저는 이 디지털 화소들을 다뤄보고 싶다는 생각 또한 했습니다. 그래서 여기에 조그만 카메라를 달아서 시각장치로 작동하게 하였습니다. 얼마 후에, 우리는 이 보다 훨씬 좋은, 많은 분들이 SixthSense 장비로 알고 계시는 소비자에게 다가 설 수 있는 목걸이형 장비를 갖게 되었습니다.
하지만 무엇보다도 이 기술의 가장 큰 장점은 여러분의 디지털 세상에 있는 것들을 어디에서든지 활용 할 수 있다는데 있습니다. 어떤 표면이던, 주변에 있는 어떤 벽도 인터페이스로 사용 할 수 있습니다. 내장된 카메라가 손 동작을 인식하여 그 제스쳐를 이해하고 적절한 동작을 합니다. 또한, 여기 보시는 것과 같이 초기 버전에서 사용 했던 것 같은 색깔 마커를 사용하면 어떤 벽에던지 그림을 그릴 수 있습니다. 지나가다가, 벽에 그림을 그릴 수 있죠. 하나의 손가락만 인식 할 수 있는 것이 아닙니다. 이처럼요. 양 손가락 모두를 사용하여 제스쳐를 만들 수 있는 자유를 부여하여, 두 손으로 현재 위치의 지도를 확대하거나 축소 할 수 있습니다. 이 카메라는 실제로 영상들을 수집하면서 선분 인식과 색상 인식 기술을 통해 내부의 많은 작은 계산들을 수행합니다. 기술적으로는 조금 복잡하지만, 사용하는데엔 훨씬 직관적인 결과를 제공합니다.
이것을 더 잘 활용할 수 있는 곳은 야외입니다. 주머니에 카메라를 넣고 다닐 것이 아니라 제스쳐를 취하면 사진을 찍어 줍니다.
(박수)
감사합니다.
그런 후에 아무 벽에서나 이 사진들을 둘러 보면서 "이 사진은 조금 수정해서 친구에게 email 로 보내야겠다" 고 생각 할 수 있습니다. 이제, 우리는 디지털 세상이 실제로 실세계와 통합된 시대에 살게 되었습니다. 만약, 프로젝터를 사용 할 마땅한 표면이 없다면, 여러분의 손바닥으로 간단한 조작을 할 수 있습니다. 여기서는 제가 제 손을 사용해서 전화를 걸고 있습니다. 카메라는 단순히 이 손의 움직임만을 인식하는 것이 아니라, 재미있게도, 손에 어떤 물건을 쥐고 있는지도 인식하는 것이 가능합니다.
만약에 손에 들고 있는 것이 -- 이를테면, 책이라면, 이 책 커버의 이미지를 온라인에 있는 이미지와 대조해서 이 책이 어떤 책인지 알려줍니다. 어떤 책인지 특정한 다음에는 책에 대한 리뷰들을 검색해 보여주고, 뉴욕타임즈와 같은 것이라면 음성 개요가 있어서, 책에 대한 정보를 실제 음성으로 들을 수 있습니다. ("하버드 대학에서 있었던 유명한 연설에서...")
이것은 지난주 오바마 대통령의 MIT 방문에 대한 것입니다. ("... 저는 특히 MIT 의 두 가지 놀라운 점에 대해 감사를 표하고자 합니다 ...") 이렇게, 신문을 통해서 기사에 적힌 "라이브 영상" 을 볼 수 있습니다. 여러분의 신문은 앞으로 기상 예보 기사를 컴퓨터를 통해서 실시간 업데이트를 하는 것 보다 이런 식으로 하게 될 것입니다.
(박수)
이제 돌아갈 때가 되면, 저는 제 비행기 표를 통해서 비행 시각이 얼마나 연착되었는지 확인 할 수 있습니다. 바로 이런 시점에, iPhone 같은 장치를 열어서, 특정 Icon 들을 눌러 가면서 시각을 체크 해 보고 싶지는 않습니다. 제 생각이 이 기술은 단순히 방식상의 변화가 아니라 -- 맞습니다. (웃음) 이것은 우리가 사람들간에 관계를 맺는 방식 또한 바꾸어 놓을 것입니다. 물론 실생활에서 만의 이야기는 아닙니다. 특히 재미있는 부분입니다. 저는 보스턴에서 지하철을 타면서 열차 안에서 pong game 을 하고 있습니다. 바닥에 대고요. (웃음) 제 생각에는, 여러분의 생각만이 어떤 기술을 실생활에 접목시킬까 하는 상상력의 장애물이 될 것이라고 봅니다.
많은 반론들이 있을 수 있겠습니다만, 우리의 일상 생활 업무들이 단지 현실적인 물건들만을 다루는 것은 아닙니다. 실제 업무에서는 회계라던지, 원고 수정과 같은 일들 또한 합니다. 이런 것은 어떻습니까? 또, 많은 분들이 곧 출시될 다음 세대 타블렛 컴퓨터를 기다리고 계실텐데, 그것을 기다리는 대신에 저는 제 타블렛 컴퓨터를 종이 한 장으로 만들었습니다. 제가 여기에 작업한 것은 마이크를 내장한 웹캠으로 부터 마이크를 떼어내서, 이렇게 클립으로 만들어서 마이크를 붙인 클립입니다 어디에서나 구할 수 있는 종이조각에 붙입니다. 이제 종이를 만지는 소리로 제가 종이를 만지고 있다는 것을 인식 할 수 있습니다. 그리고 카메라는 손가락이 어떻게 움직이고 있는지 인식합니다.
당연히 영화를 볼 수도 있구요, ("안녕하세요, 저는 Russell 이라고 합니다...") ("... 저는 Tribe 54 에 속한 야생 탐험가입니다....")
물론, 게임을 할 수도 있습니다. (자동차 엔진 소리) 여기에 있는 카메라가 종이를 어떻게 잡고 있는지 인식하여 자동차 레이싱 게임을 할 수 있습니다. (박수)
많은 분들이 이미 예상하셨겠지만, 네, 웹서핑을 할 수도 있습니다. 예, 물론 어떤 웹사이트도 돌아 볼 수 있습니다. 그 외의 컴퓨터로 할 수 있는 모든 것을, 이 종이 한 장을 통해서 언제든지 할 수 있습니다. 또한, 그 이상으로, 이것을 활용한 더 재미있는 방안이 무엇이 있을까요? 여기에 제 자리로 돌아와서 제가 정리했던 내용을 제 데스크탑으로 집어 옮길 수 있습니다. 바로 컴퓨터에서 활용 할 수 있도록 말입니다.
(박수)
또, 왜 꼭 컴퓨터여야 하나요? 종이를 갖고 놀 수도 있습니다. 종이는 또 갖고 놀기 좋은 즐거운 세계입니다. 여기에 저는 문서의 한 부분을 집어내어 여기 두 번째 부분의 두 번째에 붙입니다. 이렇게 해서 이 쪽에 있는 정보를 실제로 수정 할 수 있습니다. 예, 그런 후에 "괜찮은데, 한 번 프린트해서 보자" 싶다면 그 자리에서 바로 프린트를 해서 이제 -- 우리가 약 20년 전 부터 작업해 오던 두 문장을 비교하는 작업을 여기에서는 훨씬 더 직관적인 방법으로 작업 할 수 있습니다.
이제 마지막으로, 매일같이 접하는 일상적인 대상들의 정보를 통합하여 단순히 디지털 기기들을 없애는 문제가 아니라, 이 두 세상의 간격을 좁혀나가는 것이 좀 더 인간적으로 살아가는데, 좀 더 실세계와 연결된 인간으로서 사는데 도움을 줄 것이라고 봅니다. 이렇게, 우리는 기계 앞에 앉아 있는 또 다른 기계에서 벗어 날 수 있는 것입니다.
이상입니다. 감사합니다.
(박수)
감사합니다.
(박수)
Chris Anderson: 네, Pranav, 일단, 당신은 정말 천재적이라고 하고 싶습니다. 정말 대단한 일입니다. 이것들로 어떤 일을 하려고 합니까? 회사를 설립할 계획이 있나요? 아니면 연구로 남게 되는 것인가요? 다른 계획은?
Pranav Mistry: 제가 있는 Media Lab. 을 후원하는 이동통신사 같은 많은 기업체들이 이 기술을 여러 곳에 이용하려는 시도를 하고 있습니다. 또한, 인도의 NGO 들은 "왜 SixthSense (육감) 인가? 말 못하는 장애인들을 위한 'FifthSense' 장비를 통해서 그들이 실제로 말 할 수 있도록 해야 한다" 고 접근합니다. 이 기술은 장애인들이 말 할 수 있는 또 다른 방식의 시스템이 될 것입니다.
CA: 당신 자신의 계획은 어떻습니까? MIT 에 남게 되나요, 아니면 이 기술을 갖고 다른 곳에 갈 것인가요?
PM: 저는 이 기술을 좀 더 사람들에게 널리 퍼뜨리고 싶습니다. 누구라도 자신의 SixthSense 장비를 개발하고 싶은 사람이 있으면 자신만의 기기를 만드는 것은 그렇게 어려운 일이 아닙니다. 그들을 위해서 대략 다음달 부터는 그들을 오픈소스 소프트웨어로 지원할 생각입니다.
CA: 대단한 계획입니다.
(박수)
CA: 이런 것들을 가지고 언젠가는 인도로 돌아오시겠죠?
PM: 아 예, 물론입니다.
CA: 계획은 어떻습니까? MIT? 인도? 자신의 시간을 어떻게 분할해서 사용 할 예정입니까?
PM: 이 곳에는 넘치는 에너지와 배울 것들이 있습니다. 이 작업들은 제가 인도에서 보고 배웠던 것을 활용한 것입니다. 이제, 만약에 비용대비 효용성을 본다면 이 시스템은 $300 정도 밖에 들지 않습니다. 비슷한 작동을 하는 $20,000 달러짜리 화상 테이블 같은것에 비하면 말입니다. 또는 $2 달러의 마우스 제스쳐 시스템 또한 당시에는 $5,000 달러 정도 하던 것이었습니다. 우리는 실제로 -- Abdul Kalam 대통령 앞에서 시연 했을 때 -- 그는, "좋습니다. 우리는 Bhabha 원자 연구 센터에서 저걸 써 보면 좋겠습니다." 라고 했습니다. 저는 이렇게 이 기술들을 여러 분야에 활용하는 것이 단지 연구실의 연구로 남겨두는 것 보다 훨씬 더 기대됩니다.
(박수)
CA: 우리가 TED 를 통해 보았던 사람들에 기반해 보았을 때 당신은 정말 지금 이 세상에 최고의 발명가를 꼽으라면 반드시 그 안에 들어갈 것 같습니다. TED 에서 뵐 수 있어 영광이었습니다. 감사합니다. 환상적인 기술이었습니다.
(박수)