본문 바로가기
IT/IT월드

사진에서 인간의 감정을 판별하고 수치화 할 수 있는 기술을 MS사가 개발

by 썬도그 2015. 11. 12.
반응형

인터넷 게시판과 블로그 그리고 SNS에서 언쟁을 펼치는 반 정도는 서로 오해로 인한 언쟁인 게 많습니다. 내 생각을 전달할 때는 말이 가장 중요하지만 사람의 표정도 중요합니다. 그래서 같은 말이라도 어투에 따라서 표정에 따라서 그 의미가 달라집니다

"잘 한다"라는 말만 들으면 이게 정말 칭찬의 말인지 비꼬는 말인지 알 수가 없습니다. 어투나 말하는 사람의 표정을 보면 단박에 알 수 있지만 텍스트만으로는 알기 힘듭니다. 그래서 글의 맥락을 찾아보게 되죠. 그럼에도 텍스트의 부정확성 때문에 많은 오해 속에서 언쟁이 일어납니다. 이는 텍스트로만 내 의견을 전달하는 현재의 인터넷 시스템에 기인합니다. 

그래서 문자 채팅 보다는 화상 채팅이 더 빠르고 정확하게 의사 전달을 할 수 있습니다. 
그러나 우리는 익명성도 상당히 중요합니다. 얼굴을 내 보이지 않으면서 내 감정을 텍스트에 녹여낼 수 있는 방법이 없을까요?

방법은 있습니다. 화상 캠을 켜 놓고 문자 채팅을 할 때 내 표정을 감별한 프로그램이 내 감정을 지문처럼 수시로 보여주는 것이죠. 그러려면 우리의 얼굴을 보고 그게 어떤 표정인지 정확하게 감별할 수 있는 기술이 있어야 합니다.

사진을 보고 표정을 감별하는 기술을 MS사가 개발했습니다. 


마이크로소프트 블로그에 따르면 사람의 얼굴을 찍은 사진을 보고 그 사람의 감정 상태를 알 수 있는 기술을 개발했다고 발표했습니다. 이는 기계가 인간을 배우는데 큰 도움이 될 것이라고 말하고 있네요. 


마이크로소프트사는 데모 페이지를 통해서 독자들에게도 직접 테스트 할 수 있는 기회를 주고 있습니다.
위 사진처럼 사진을 올리면 행복, 놀람, 경멸, 슬픔. 분노, 불쾌, 공포, 편안함 등의 8가지 감정을 수치로 표시해서 이 사람이 어떤 감정 상태인지를 알려줍니다. 

위 아이는 놀람이 가장 높네요. 실제 표정도 놀란 표정이죠. 

데모 페이지는  https://www.projectoxford.ai/demo/Emotion입니다. 


서버가 열렸을 때 해봤는데 꽤 정확하네요. 영화 과속스캔들의 왕석현군의 멋진 썩소 사진을 올렸더니 경멸이 99%, 불쾌가 조금 있고 행복도 살짝 보입니다. 아마 입꼬리가 올라가서 그런가 보네요. 

현재는 테스트 기간이지만 데이터가 쌓이고 쌓이면 판별 능력은 더 향상 될 것이라고 하네요. 
마이크로소프트사의 기술 연구팀은 이 기술을 이용해서 손님들의 표정을 관찰해서 매장에서 어떤 감정을 느끼는지 묻지 않고 표정으로만도 판별할 수 서비스로 활용될 수 있으며 제가 서두에 말한 것처럼 사람의 감정을 읽어서 텍스트 대화 옆에 내 감정을 웹캠으로 읽고 이모티콘으로 넣어주는 서비스가 나올 수 있다고 말하고 있습니다. 


얼마나 정확한지 한 분을 모셨습니다. 표정의 달인 미륵 스티븐 시갈입니다. 이분 사진을 넣어봤습니다.



다 같은 얼굴인데 수치는 다 다르네요. 아주 정교하지는 않네요. 그러나 빅데이터를 이용하는 기술이기에 사진 판별을 많이 할수록 기술은 더 정교해질 것입니다. 


데모 페이지  https://www.projectoxford.ai/demo/Emotion 바로가기

반응형