본문 바로가기
IT/구글

검색한 사물과 제품을 3D AR로 볼 수 있는 AR 구글 검색

by 썬도그 2019. 5. 10.
반응형

어느새 구글이 모바일 검색 점유율 2위에 올랐습니다. 아니 구글이 모바일 검색 2등을 한 지는 몇 년 됐죠.  이 구글 모바일 검색이 또 한 번의 진화를 예고했습니다. 이번엔 3D 기술과 AR를 접목해서 내가 검색한 사물이나 제품을 현실 공간에 배치해서 이리저리 둘러볼 수 있게 했습니다. 

구글 공식 블로그에 올라온 글을 보면 구글은 검색 결과에 사물을 3D 객체로 둘러보게 했습니다. 예를 들어 상어를 검색하면 중간에 3D로 보기 메뉴가 있습니다. 


이걸 터치하면 3D로 만들어진 상어를 이리저리 터치로 움직이면서 다양한 각도에서 볼 수 있습니다. 

다시 AR 보기를 누르면 상어를 현실 공간에 배치해서 실제 크기를 갸늠할 수 있습니다. 

상어를 밑에서 볼 수도 있네요. 기존에는  2D 사진으로만 사물을 보다 보니 그 사물이 얼마나 큰지 갸늠할 수 없었습니다. 또한 1방향에서만 봐야했죠. 그래서 제품 판매 사진이나 사물 사진을 촬영할 때는 우리가 크기를 잘 아는 사물을 옆에 배치해서 실제 크기가 얼마나 큰지 비교할 수 있게 해야 합니다. 그러나 사진 못 찍는 분들은 사물의 크기를 알 수 없게 촬영합니다. 그러나 이 3D와 AR이 결합되면 내 눈 앞에서 실제 크기를 갸늠하고 이리저리 둘러 볼 수 있습니다. 


이 3D + AR 검색은 제품 판매를 하는 제조 회사들에게 가장 큰 효용을 제공해 줄 겁니다. 우리가 오픈마켓이나 쇼핑몰에서 제품을 구매할 때 그 제품의 크기를 제대로 알 수 없습니다. 그래서 큰 줄 알고 구매했는데 너무 작아서 반품하는 옷도 많고 반대로 너무 커서 반품하는 제품도 많습니다. 

그러나 구글의 AR 검색을 이용하면 이럴 염려가 줄어들 수 있습니다. 

운동화를 검색한 후 운동화를  3D 이리저리 둘러봅니다. 


밑창까지 확인을 한 후에 


내 침대에 놓으면 그 크기가 얼마나 큰지 실제 크기를 알 수 있습니다.  이게 가능한 것은 듀얼 카메라나 싱글 카메라가 달린 후면 카메라가 AR 기술과 접목되면서 카메라를 이용해서 사물의 크기를 측정할 수 있는 뛰어난 AR 기술을 구글이 가지고 있습니다. 그래서 카메라로 사물을 비추기만 해도 가로 세로 길이를 측정해주는 줄자 앱도 있습니다. 구글 개발팀은 NASA와 뉴밸런스, 볼도 등의 다수의 기업과 협력해서 이 AR 검색을 개발하고 있습니다. 

구글 렌즈도 진화를 할 예정입니다. 전 구글 렌즈 사용을 거의 하지 않습니다. 구글 렌즈는 내가 궁금해하는 사물을 촬영하면 구글렌즈가 자신이 구축한 이미지 DB에서 가장 비슷한 사물을 찾아서 알려주는 비쥬얼 검색입니다. 문제는 검색 품질이 아주 조악합니다. 한국은 DB 축척량이 낮아서 그렇다고 하지만 그럼에도 사용할 수 있얼 정도가 되어야 하는데 엉뚱한 검색 결과를 너무 자주 내놓네요. 솔직히 기대가 컸는데 너무 조악해서 화가 날 지경입니다. 

다만 구글 렌즈는 텍스트도 검색 및 번역을 해주는데 텍스트 번역 쪽에서는 강점이 있다고 할 정도로 뛰어납니다. 이 구글 렌즈가 좀 더 진화를 할 예정이네요. 식당에 가서 메뉴판을 검색하면 이 식당에서 가장 맛있는 음식에는 주황색 형광펜으로 칠해줍니다. 보통 우리는 그 식당에서 가장 인기 있는 음식이 뭔지 잘 모르죠. 그래서 검색을 하거나 아니면 식당 종업원이나 사장님에게 물어봅니다. 이게 가장 좋긴 하지만 뜨내기 손님이라고 생각하고 가장 마진이 좋은 음식을 추천할 수 있습니다. 

이럴 때 구글 렌즈를 켜서 메뉴판을 촬영하면 바로 가장 추천하는 음식을 하이라이트로 칠해서 보여줍니다. 

그렇게 추천한 음식을 누르면 그 음식에 대한 평가와 사진을 볼 수 있습니다. 그러나 이 서비스는 한국에서는 큰 인기가 없을 겁니다. 왜냐하면 한국의 DB 축척량이 많지 않기 때문이죠. 그럼에도 구글은 다양한 식당이나 관광지를 추천해주는 구글 지역 가이드 제도를 운영하고 있습니다. 이 지역 가이드 중에 신뢰도가 높은 분이 추천하는 음식은 어! 인정할 수 있을 겁니다.




구글 렌즈는 텍스트를 음성으로 읽어주는 기능과 반대로 음성을 바로 텍스트로 만들어주는 기숭를 좀 더 정교화하고 있습니다. 현재 전 세계의 8억명 이상은 문맹자로 글을 읽을 수 없습니다. 그래서 버스 시간이나 간판을 읽지 못하고 주의사항이 적힌 글을 읽지 못합니다. 한국은 문맹률이 낮아서 크게 유용하진 않지만 그럼에도  시각 장애가 있는 분이나 청각 장애인, 언어 장애인 분들에게는 유용한 기능이 될 것입니다. 

예를 들어 구글 렌즈로 촬영한 주의사항을 촬영한 후 텍스트로 변환하면 촬영한 사진 속 텍스트를 바로 읽어줍니다. 이 말하기 듣기에 어려움을 겪는 분들을 위해서 실시간으로 텍스트와 이미지를 변환할 수 있는 Live Relay 기술을 발표했습니다. 이 기술은 비장애인에게도 도움이 됩니다. 전화가 왔지만 통화를 할 수 없는 공간에 있다면 상대가 말하는 것을 텍스트로 바로 변환해주면 그 텍스트를 읽고 텍스트로 답해주면 그 텍스트를 음성으로 상대방에게 전달해 줍니다. 즉 카톡과 음성 통화가 혼합될 수 있습니다. 

텍스트와 음성은 내 정보와 메시지를 전달하는 수단이지만 매체가 다르기 때문에 그 장점과 단점과 특징이 다릅니다. 그런데 이걸 구글이 융합하고 있네요. 기대가 많이 됩니다. 

또한 뇌졸증이나 다발성 경화증으로 언어 장애를 가지게 된 분들에게 보다 원활한 대화를 할수 있는 기술을 만들고 있는 Project Euphonia도 진행줍니다. 구글의 기술 진화는 실로 놀랍네요. 

반응형