감성컴퓨팅, 나를 알아주는 컴퓨터

감성컴퓨팅, 나를 알아주는 컴퓨터

감성컴퓨팅, 나를 알아주는 컴퓨터
Category
Share Story

사람들은 타인에게 자신의 생각 또는 감정을 전달하기 위하여 말이나 행동으로 의사를 표현 합니다. 의사소통에는 많은 전달 방식이 있지만 전 세계 사람들이 대화를 위해 최근 가장 많이 사용 하고 있는 것은 ‘문자’ 입니다.

특히나 이제는 스마트폰이 일상화되면서 SMS, MMS, SNS 등 관련 어플리케이션을 통해 즉각적이고 편리하게 메시지를 주고 받고, 손에 필기구를 쥐는 대신 키보드, 마우스, 스크린 터치 등의 인터페이스를 통해 UI를 조작하며 글, 사진, 그림, 이모티콘 등 다양한 방식으로 능숙히 전달하고자 하는 콘텐츠를 표현해 냅니다.

그렇다면, 앞으로는 지금의 단계를 넘어 우리가 직접 인터페이스를 조작하지 않거나 혹은 아무런 행동을 하지 않고서도 컴퓨터와 상호작용(interactive)하여 사용자가 원하는 결과를 얻어 낼 수도 있게 되지 않을까요?

감정을 인식하는 컴퓨터

얼마 전 마이크로소프트(Microsoft)사에서는 재미있는 웹 어플리케이션을 발표하였습니다.
바로 ‘Emotion Recognition’ 라고 하는 사진 감정 인식 프로그램입니다.
이 프로그램은 얼굴이 나와있는 이미지를 웹페이지에 업로드 하면 얼굴 표정을 분석하여 화(anger), 경멸(contempt), 혐오(disgust), 공포(fear), 행복(happiness), 중립적(neutral), 슬픔(sadness), 놀라움(surprise) 등의 감정을 수치로 표시해 줍니다.

01

[출처] 마이크로 소프트  https://www.projectoxford.ai/demo/Emotion#detection

사진 속 남자는 친구와 함께인 것이 즐거운지 행복 100%의 얼굴을 하고 있습니다.
마이크로소프트사는 위 기술을 통해 ‘표정’이란 문화를 넘어 세계, 나아가서는 우주까지 통할 수 있는 보편적 커뮤니케이션 기술이라 이야기 합니다.

감정이란 시각적으로 확인가능하지만 소리로도 전달됩니다.
인공지능과 관련된 여러 이야기들에 빠지지 않는 영화 ‘허(HER)’의 인공지능 운영체제(OS)’사만다’는 주인공과의 대화만으로 감정을 이해, 공감하며 상대가 느끼는 감정과 기분을 알아챕니다. 외롭고 쓸쓸한 주인공의 대화상대가 되어 주면서 급기야 주인공은 컴퓨터와 사랑에 빠지게 되죠.

앞서 이야기 했던 ‘Emotion Recognition’ 이나 영화 ‘허’ 에서처럼 컴퓨터가 인간의 감정을 이해하고 서로 대화 할 수 있게 연구하는 분야를 ‘감성 컴퓨팅(Affective Computing)’이라 합니다.

감성 컴퓨팅은 시각 등 오감과 체온, 땀, 혈류량 등의 생체신호, 그리고 사회적 규범, 상식 등 다양한 데이터 처리와 학습을 바탕으로 인간의 감정을 파악하고 인간과 기계간의 자연스러운 언어적, 비언어적 소통을 제공하는 기술입니다.
현재는 인간의 감정을 해석하기 위해 음성과 표정 인식, 복합적인 숨은 감정을 인식하는 기술과 소셜 UI/UX 등 다양한 융합기술로 확대되고 있습니다.

최근에는 스마트폰이나 웨어러블 기기을 통한 센서 기반의 디바이스들도 감성 컴퓨팅을 통해 개발되고 있습니다.
특히, 헬스케어 분야에서는 센서를 통해 수집된 데이터를 다른 디바이스 또는 스마트폰으로 전송, 사용자의 스트레스나 건강상태를 체크하여 훨씬 더 다양한 정보를 제공하고 있습니다.

[Empatica 사의 Embrace 소개영상]

현재 감성 컴퓨팅 기술과 가장 밀접하게 발전한 분야는 가정용 로봇입니다.
인공지능(AI:Artificial Intelligence)의 대폭적인 혁신으로 발전한 새로운 알고리즘, 딥 러닝(deep learning) 기술로 컴퓨터가 마치 사람처럼 스스로 학습할 수 있게 되어 인간과 로봇이 서로 감정적으로 교감하고 대화할 수 있는 시대가 열리고 있습니다.

[세계최초 개인용 로봇 ‘패퍼’]

일본 소프트 뱅크에서 개발한 가정용 로봇 페퍼(Pepper)는 사람의 말을 알아듣고 그에 맞춰 3개 국어로 대답을 해줍니다.
무엇보다 놀라운 것은 카메라와 여러가지 센서를 통해서 사용자의 감정을 읽는다는 것입니다.

이외에도 다양한 로봇들이 현재 개발되고 있습니다.

[인공지능 장난감 ‘코크니토이’-슈퍼컴퓨터인 ‘왓슨’을 기반으로 하여 아이들과 자연스러운 대화가 가능한 장난감]

[가정용 로봇 ‘지보’-가족들과 대화하거나 가사도우미의 역할을 하는 가정용 인공지능 로봇]

감성컴퓨팅 시대 새로운 UX/UI, No User Interface?

감성 컴퓨팅의 발전은 UX/UI 의 가치가 새로운 차원으로 도약했다는 것을 말해줍니다.
인터페이스는 PC 초기에 텍스트 입력만으로 명령했던 CLI(Command Line Interface)방식에서 마우스 키보드를 사용한 OS 중심의 GUI(Graphic User Interface)거쳐 터치 등의 자연스러운 행동을 통한 NUI(Natural User Interface)으로 발전해 왔습니다.

감성 컴퓨팅을 포함한 인공지능 분야의 UI 방식은 별다른 입력 또는 행동을 하지 않고서도 결과 값을 얻고자 한다는 점에서 결국 또 다른 의미의 NUI 즉, No User Interface 로 정의되어야 할 것입니다.

언젠가 그 시대가 오면 어쩌면 우리는 컴퓨터의 존재를 잊고 살지도 모르겠습니다.

02

[출처] Wikimedia Commons

어디까지 기술이 발전 할지는 알 수 없지만 컴퓨터가 사람만의 영역으로 생각되었던 감정까지 읽어 통제하고 학습한다고 하니, 살짝 오싹한 기분이 들기도 합니다.
감성 컴퓨팅을 비롯한 인공지능 분야가 부디 적재적소에 사용되고, 좋은 방향으로 발전하여, 세상에 꼭 필요한 기술로 자리매김 되길 기대해 봅니다.

– 가치 UX 그룹 황상오

* 메인이미지출처. http://www.fastcompany.com/