HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를...

8
4 HRI 연구 동향 : 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로 김준형·김상현·박재흥 서울대학교 1. 서 1.1 HRI (Human-Robot Interaction)의 의미 최근 로봇 기술이 빠르게 발전함에 따라 단순 반복 작업이 요구되는 산업현장에서 주로 활용되던 로봇들이 인간과 능동적으로 교감 할 수 있는 형태로 개발되면서 인간이 생활하는 환경으로 들어오고 있다. 소프트뱅크의 로봇 페퍼 (Pepper)를 시작으로 MIT의 지보 (JIBO)와 인텔의 지미 (Jimmy) 같은 로봇들이 그 예이다. 이렇듯 인간과 능동적으로 교감 할 수 있는 로봇들이 폭발적으로 개발되고 사회적인 주목을 받게 되기 시작하면서 소셜 로봇이라는 새로운 단어 까지 탄생했으며, 로봇에 대한 사람들의 인식 또한 과거 제조업 현장에서 사용되는 산업용 로봇의 이미지로부터 실생 활에서 인간과 함께 공존하는 소셜 로봇의 이미지로 변화해 가고 있다. 이렇게 로봇이 인간이 생활하는 환경으로 들어오게 되면서 인간 환경과 로봇 환경의 구분이 허물어지게 되고 로봇이 인간과 공존하는 것이 점점 자연스러워지고 있다. 그에 따라 인간, 로봇 그리고 각 개체가 서로 영향을 주는 방식을 연 구하는 학문인 인간-로봇 상호작용, HRI (Human-Robot Interaction)가 새롭게 등장하였다[1]. HRI는 크게 인간과 로봇 이 물리적인 상호작용을 통한 협업을 할 때 안전성과 제어 및 planning 이슈들을 연구하는 pHRI (physical Human-Robot Interaction)과 로봇이 인간처럼 소통하고 능동적으로 교감하는 사회적인 상호작용에 대해 연구하는 sHRI (social Human Robot-interaction)으로 나누어진다. , HRI는 사람과 로봇이 상호작용하는데 있어 로봇을 제어 측면에서 단편적으로 바라보는 것이 아니라 로봇과의 의사소통, 감정교환과 같은 사회적인 부분까지 복합적으로 고려 한다.

Transcript of HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를...

Page 1: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

4

HRI 연구 동향 : 작업 수행을 위한 로봇

사용자 인터페이스를 중심으로

김준형·김상현·박재흥

서울대학교

1. 서 론

1.1 HRI (Human-Robot Interaction)의 의미

최근 로봇 기술이 빠르게 발전함에 따라 단순 반복 작업이 요구되는 산업현장에서 주로 활용되던 로봇들이 인간과

능동적으로 교감 할 수 있는 형태로 개발되면서 인간이 생활하는 환경으로 들어오고 있다. 소프트뱅크의 로봇 페퍼

(Pepper)를 시작으로 MIT의 지보 (JIBO)와 인텔의 지미 (Jimmy) 같은 로봇들이 그 예이다. 이렇듯 인간과 능동적으로

교감 할 수 있는 로봇들이 폭발적으로 개발되고 사회적인 주목을 받게 되기 시작하면서 ‘소셜 로봇’이라는 새로운 단어

까지 탄생했으며, 로봇에 대한 사람들의 인식 또한 과거 제조업 현장에서 사용되는 산업용 로봇의 이미지로부터 실생

활에서 인간과 함께 공존하는 소셜 로봇의 이미지로 변화해 가고 있다.

이렇게 로봇이 인간이 생활하는 환경으로 들어오게 되면서 인간 환경과 로봇 환경의 구분이 허물어지게 되고 로봇이

인간과 공존하는 것이 점점 자연스러워지고 있다. 그에 따라 인간, 로봇 그리고 각 개체가 서로 영향을 주는 방식을 연

구하는 학문인 인간-로봇 상호작용, HRI (Human-Robot Interaction)가 새롭게 등장하였다[1]. HRI는 크게 인간과 로봇

이 물리적인 상호작용을 통한 협업을 할 때 안전성과 제어 및 planning 이슈들을 연구하는 pHRI (physical

Human-Robot Interaction)과 로봇이 인간처럼 소통하고 능동적으로 교감하는 사회적인 상호작용에 대해 연구하는

sHRI (social Human Robot-interaction)으로 나누어진다. 즉, HRI는 사람과 로봇이 상호작용하는데 있어 로봇을 제어

측면에서 단편적으로 바라보는 것이 아니라 로봇과의 의사소통, 감정교환과 같은 사회적인 부분까지 복합적으로 고려

한다.

Page 2: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

로봇과 인간 5

특집IROS 2015_IROS 참가보고: 수중로봇 연구동향

1.2 HRI (Human-Robot Interaction)

연구 현황

대표적으로 ICRA의 경우 [그림 1]과 같이 ICRA 2015부터

최근 3년간 HRI 관련 논문들이 꾸준히 증가하는 추세를 보여

왔다. ICRA 2015의 경우 총 5개의 Regular Session (Service

Robotics, Human-Robot Interaction, Service Robots & HRI,

Human-Robot Interaction and Performance Augmenta-

tion, Physical Human-Robot Interaction)에서 41개의 논문

들이 발표되었으며 ICRA 2016에는 총 4개의 Regular

Session (Human Factors and Social HRI, Physical Human-

Robot Interaction, Human-Robot Interaction, Human Detec-

tion and Tracking)에서 44개의 논문들이 발표되었다. 특히

이번 ICRA 2017에서는 총 8개의 Regular Session (Human-

Robot Interaction 1, Human-Robot Interaction 2, Human-

Robot Interaction 3, Physical Human-Robot Interaction,

Human Factor 1, Human Factor 2, Social Robotics 1, Social

Robotics 2)에서 66개의 논문들이 발표 되었다. 매년 HRI 논

문의 수가 증가하는 추세로 로봇 학계에서도 HRI의 중요도

가 점차 높아지고 있음을 알 수 있다. 이렇게 HRI 연구 분야는

다양하고, 많은 세부 연구 분야들이 있지만 본고에서는 사

람이 원하는 작업을 효과적으로 수행하기 위해 인간이 로봇

에게 작업 명령을 주는 방법에 대한 연구를 소개하고자 한다.

다음 장부터 사람이 로봇을 이용하여 원하는 작업을 수행

하기 위해 로봇에 작업 명령을 주는 방법과 관련된 현재까지

진행된 연구들에 대해 알아보도록 한다.

2. 관련 연구

2.1 원격 제어기 (Remote Controller) 사용

인간이 원격 제어기를 사용하여 로봇을 제어하는 것은 가

장 전통적으로 로봇을 제어하기 위해 사용되어져 왔던 방법

이다. 사용자가 스마트폰, 조이스틱, 키보드 등의 다양한 원

격 제어기를 이용하여 직접 작업 수행 시 로봇의 동작 또는

움직임을 제어 할 수 있다. 사용자가 직접적으로 로봇을 원

격으로 제어하기 때문에 사용자가 능동적으로 불규칙한 환

경에서 High-level Decision을 할 수 있다는 장점이 있다. 원

격 제어기를 사용하여 로봇을 제어할 때는 작업 시 판단하고

인식하는 문제들을 로봇 스스로가 아닌 사람이 대신하기 때

문에 다른 연구들에 비해 기술적인 난이도가 낮은 편이다.

University of Oklahoma의 Amber M. Walker 등은 사용자

가 스마트폰에 내장 되어있는 가속도계와 자이로스코프를

이용하여 스마트폰의 기울기에 따라 4륜 구동 로봇의 움직

임(Forward, Backward, and Side to Side)을 제어하였다[3].

또한, University of Massachusetts Lowell의 Daniel J.

Brooks 등은 자율주행 모바일 로봇을 제어 할 때 일반적인

2DOF의 햅틱 조이스틱과 다르게 햅틱 피드백을 3차원으로

제공해주는 6 자유도의 햅틱 조이스틱을 이용하여 사용자와

자율 제어 시스템이 함께 로봇의 움직임을 제어하는 [그림 2]

과 같은 제어 방법 (Shared Autonomy)을 제안하였다[4]. 조

이스틱을 이용한 이전 연구와는 다르게 해당 논문에서 제안

[그림 1] HRI의 연구현황 (ICRA 기준)

[그림 2] 햅틱 피드백을 이용한 Shared Autonomy

Page 3: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

6

하는 제어 방식은 사용자가 로봇과 장애물사이의 거리와 같

은 현재 로봇의 시스템의 상태를 이해하도록 하는데 햅틱 피

드백을 사용하여 사용자가 로봇 시스템의 상태를 직관적으

로 이해할 수 있다.

2.2 사용자의 생체 신호 사용

인간-로봇 상호작용에서 사용자의 생체신호를 이용하여

로봇 작업 수행에 명령을 주는 방법은 로봇이 사용자의 움직

이는 모션을 직접 반영할 수 있다는 장점을 갖고 있다. 이 때

이용하는 생체신호로는 주로 근육의 수축으로 인해 발생하

는 전기신호인 근전도 (EMG)와 뇌가 활동할 때 발생하는 전

기신호인 뇌전도 (EEG) 신호가 있다.

먼저, California Institute of Technology Pasadena의

Christopher Assad 등은 [그림 3]과 같이 ‘Bio Sleeve’라는 팔

뚝에 착용하는 착용형 인터페이스 (Wearable Interface)를

이용하여 근육의 근전도 신호를 측정한 후 작업 수행을 위해

로봇 손과 메니퓰레이터를 제어하였다[5]. 특히, 본 논문의

알고리즘은 측정된 근전도 신호뿐만 아니라 ‘Bio Sleeve’ 인

터페이스의 IMU로부터 얻은 데이터도 사용하기 때문에, 근

전도 센서를 통해 얻은 데이터만을 이용하여 동작을 분류

(Classification)하였을 때보다 높은 정확도로 동작의 분류가

가능하다.

또한, South China University of Technology의 Shuyuan

등은 [그림 4]와 같이 사용자가 눈을 움직였을 때 발생하는

뇌전도 신호를 측정하여 외골격 (Exoskeleton)로봇을 제어

하였다[6]. 해당 논문에서 제안하고 있는 알고리즘은 눈의

움직임에 해당하는 뇌전도 신호를 해독 (Decoding), 특징 추출

(Feature Extraction)한다. 추출된 특징을 바탕으로 외골격

로봇의 fuzzy controller를 구축하여 외골격로봇의 coupled

dynamics와 actuator 제약 조건 등을 고려한 움직임을 생성

하였다.

2.3 물리적 접촉 인터페이스

(Direct Physical Interface)

사람과 사람 사이에도 한 사람이 물리적인 접촉을 가해 다

른 사람의 작업 수행 시 위치나 자세를 조정하여 교시할 수

있듯이 로봇에게도 물리적인 접촉을 통해 로봇의 움직임이

나 자세를 변화시킴으로 작업 수행에 필요한 동작을 교시할

수 있다. 이를 물리적 접촉 인터페이스 (Direct Physical

Interface)라고 한다. 물리적 접촉 인터페이스는 인간과 로봇

이 공존하여 작업하는 환경에서의 작업 수행에 있어 보다 효

율적이며 안전한 인터페이스이다[6].

Universit´e de Sherbrooke의 Franc¸ois Ferland등은 사용

자가 모바일 로봇의 유연한(Compliant) 팔에 물리적인 접촉

을 통해 로봇을 제어할 때, [그림 5]와 같이 팔의 위치 변화와

손목에 가해진 힘을 측정하여 조인트 공간의 임피던스 제어

방식으로 모바일 로봇의 움직임을 제어하였다[7]. 사용자가

물리적으로 접촉하여 로봇을 안내할 때 민감도를 높이기 위

[그림 3] Bio Sleeve를 이용한 메니퓰레이터 제어

[그림 4] EEG를 이용한 Visual based Control

Page 4: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

로봇과 인간 7

특집IROS 2015_IROS 참가보고: 수중로봇 연구동향

하여 조인트 공간의 임피던스 제어방식을 사용하였으며 실

험을 통하여 게임 패드를 이용하여 로봇을 제어했을 때 보다

직접 교시를 통한 제어가 작업 수행에 있어 월등히 효율적임

을 실험을 통해 증명하였다.

이와 유사하게, Georgia Institute of Technology의 Tiffany

L. Chen 등은 사용자가 모바일 메니퓰레이터 (Manipulator)

의 로봇 팔에 물리적인 접촉을 가했을 때 모바일 메니퓰레이

터가 물리적인 접촉에 반응하여 사용자를 따라 움직이거나

로봇 몸통을 위 아래로 움직여 팔 위치를 조절할 수 있도록

로봇을 제어하였다[8]. 로봇 팔 조인트를 토크 방식으로 제

어함으로서 사용자가 팔을 당길 때 매우 유연하게 움직이도

록 하였다. 특별히 로봇이 병원이라는 공간에서 간호 보조

(Nursing Assistant)용으로 활용될 때, 게임용 패드를 사용할

때 보다 물리적 접촉 인터페이스를 사용하였을 때 작업 수행

속도, 선호도, 작업부하 면에서 훨씬 수월하다는 것을 실험

을 통해 증명하였다.

2.4 언어적 의사소통

(Verbal-Communication)

사람과 사람 사이에 의사소통할 때 언어적 의사소통을 주로

이용한다. 음성 인식 시스템 (Speech Recognition System)이

발전함에 따라 로봇이 사람의 음성 명령을 인식하여 작업을

로봇 스스로가 판단하여 수행하는 방식의 인터페이스에 대

한 연구가 되고 있다.

IIT의 Shilpi Dwived 등은 Hidden Markov Model (HMM)

를 이용한 음성인식체계를 구축하여 사람의 말을 인식한 후

로봇이 목적지까지 보행을 수행하는 실험을 수행하였다[9].

하지만, 복잡한 수준의 말들은 로봇이 인식할 수 없으며 특

정 걷는 행동만 구현이 가능한 한계가 존재한다.

Akita Prefectural University의 Shinya Kajikawa등은 로

봇이 애매한 표현을 포함한 음성 명령을 받았을 때 작업 수

행에 적당한 로봇의 움직임을 추정하는 컨트롤러를 제안하

였다[10]. 물체와 목표지점 사이의 각도에 관한 애매한 표현

(A Little, A Little More, Just A Little, Non)을 듣고 작업자가

움직인 거리사이의 관계를 실험을 통해 직접 측정한 후 모델

링하였다. 모델링한 데이터를 토대로 애매한 표현에 대해 작

업 명령이 주어졌을 때 경험적으로 로봇의 움직임을 추정하

는 컨트롤러를 본 논문에서 제안하였다. 하지만 본 논문에서

는 로봇이 인식할 수 있는 물체와 로봇이 이해할 수 있는 목

표지점 사이의 각도에 대한 애매한 표현의 개수가 3가지로

한정되어 있는 한계를 지니고 있다.

Tufts university의 Matthias Scheutz 등은 인간의 일상의

대화에서 사용하는 언어 (Natural Language Dialogue)로부

터 로봇이 수행해야할 작

업을 스스로 판단할 수 있게 하는 새로운 메커니즘으로 [그

림 6]와 같은 DIARC architecture (Distributed, Integrated,

Affect, Reflection,

Cognition architecture)를 제안하였다[11]. DIARC architec-

ture는 인간의 일상의 대화에서 사용하는 언어로부터 작업

[그림 5] 조인트 공간의 임피던스 제어방식 [그림 6] DIARC 전체 구성도

Page 5: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

8

수행 명령을 찾아내고 스스로 환경이나 목표물들을 인식하

여 작업을 수행하도록 하는 다용도의 robotic architecture

이다. 현재로서는 제한된 영역에서의 임무 수행만이 가능하

다는 한계를 갖고 있다.

2.5 비언어적 의사소통

(Non-Verbal Communication)

사람과 사람사이에서도 언어를 사용하지 않고도 몸의 몸

짓을 통해 의사소통을 하듯이 로봇에 작업 수행 명령을 내릴

때 몸짓 같은 비 언어적 커뮤니케이션을 통해 명령을 내릴

수 있다. 로봇이 사용자의 몸짓을 통해 물체를 인식하고 다

양한 작업을 구분하여 수행하도록 연구가 많이 진행되어 왔다.

University of Alberta의 Camilo Perez Quintero 등은 사

람의 몸짓을 통하여 로봇의 작업 수행명령을 주는 방법을 제

시하고 있다[12]. 시스템 알고리즘은 [그림 7]에서와 같이 총

4단계로 구성된다.

1) Selection : 사용자가 물체를 가리켰을 때 가리킨 물체

의 RGB 포인트 클라우드 (Point Cloud) 데이터를 로봇

이 받아와 물체를 인식한다.

2) Gesture Identification : 로봇이 잘못된 물체를 인식할

가능성을 고려하여 사용자의 확인 몸짓을 통해 로봇 스

스로가 정확한 물체를 인식했는지 판단한다. 잘못된 물

체를 인식했다면 다시 Selection 단계로 돌아간다.

3) Object Localization : 포인트 클라우드 데이터를 이용

하여 물체의 무게중심의 위치를 계산한다.

4) Decision : 사용자가 로봇에 작업 수행 몸짓을 보냈을

때 로봇이 사용자의 몸짓을 인식하여 간단한 작업

(Selecting, Pick Up Object, Dropping)을 수행한다.

University of British Columbia의 Sina Radmard 등은

leap motion sensor를 이용하여 [그림 8]과 같이 로봇이 사

람 손의 자세와 위치를 인식하여 사용자가 손을 움직이며 로

봇 팔을 제어하여 작업을 수행하는 Leap based interface를

제안하였다[13]. 비언어적 의사소통인 손 동작을 이용하여

로봇을 제어하였기 때문에, 원격 제어기를 이용할 때 보다

작업 지시를 빠르게 할 수 있다는 장점이 있다.

2.6 시연을 통한 프로그래밍

(Programming by Demonstration)

사용자가 로봇에게 작업 수행에 필요한 동작을 시연하면

로봇이 스스로 학습하여 제한조건을 고려하여 시연 동작을

모방해 작업을 수행한다. 사용자가 특정 작업 시나리오에 맞

게 로봇의 동작을 직접 프로그래밍 하지 않고도 작업 시 필

요한 로봇의 동작을 만들어 낼 수 있다.

[그림 7] 제스쳐를 이용한 메니퓰레이터 제어 알고리즘

[그림 8] 손 인식을 이용한 로봇의 위치, 방향 제어

Page 6: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

로봇과 인간 9

특집IROS 2015_IROS 참가보고: 수중로봇 연구동향

EPFL의 Elena Gribovskaya 등은 [그림 9]와 같이 Rbd

(Robot Programming By Demonstration)를 이용하여 사용

자가 양손을 사용하는 동작을 로봇에 가르칠 때 사용자의 동

작을 모방하는 알고리즘에 대해 제안하고 있다[14]. 로봇의

양손 제어는 전통적으로 로봇공학에서 연구되어온 주제이

지만 기존의 연구들은 양팔로 특정 동작만 수행할 수 있거나

모델링할 때 양팔 간 coupling을 고려하지 않아 양팔을 상호

적응 (Mutual Adaptation)하게 제어하지 못하는 문제들이

있었다. 그러므로 해당 논문에서는 로봇이 사람의 동작을 학

습할 때 모터 시스템과 coordination constraint를 고려하여

학습함으로서 이전 연구들의 문제점들을 극복하였다.

University of Washington의 Maxwell Forbes등은 사람이

일상 언어 (Natural Language)로 로봇에 작업 명령을 주었

을 때 로봇이 Rbd방식을 이용하여 스스로 물체를 판단하고

작업을 수행한다[15]. 로봇이 작업을 수행할 때 손을 쓰지

않고 프로그래밍이 가능하며 언어적 의사소통을 통해 로봇

에 작업 명령을 줄 수 있기 때문에 기존의 Kinesthetic

teaching Rbd 방식보다도 훨씬 간편하다. 하지만 아직까지

물체를 로봇이 스스로 인식하는데 한계가 있을 뿐 아니라

복잡한 명령이 사람의 일상 언어로 주어졌을 때 로봇이 작업

수행을 할 수 없다는 단점이 존재한다.

3. 결 론

본 고에서는 사람이 로봇을 이용하여 원하는 작업을 수행

하기 위해 로봇에 작업 명령을 주는 방법에 대해 현재까지

진행된 연구들을 방법별로 나누어 정리하였으며 최근에 발

표된 논문들을 통해 연구동향들을 소개하였다. 고전적인

HRI에서는 단순히 인간과 로봇이 공존한 환경에서 작업수행

을 위해 로봇을 제어하기 위한 방법과 전략에 대한 연구가

주로 진행되어왔다. 하지만 최근 HRI 연구의 트렌드는 제어

적인 측면이 강조되었던 기존의 HRI 연구들과는 다르게 로

봇과 사람이 공존할 때 사회적인 의사소통, 교감의 중요성이

중점적으로 강조되고 있다. 고전적인 HRI에서는 단순히 원

격 제어기, 생체신호를 사용하여 로봇에 작업 명령을 주는

방법에 대해 연구가 주로 진행되어 왔다면 최근에는 사람과

사람 사이의 소통하는 방식을 로봇에 적용한 언어적, 비언어

적 의사소통과 Programming by Demonstration와 같은 연

구가 활발히 진행되고 있다.

그 중에서도 사람과 사람 사이의 주된 의사소통 방식인 언

어적 의사소통을 이용하여 로봇에 작업 명령을 주는 방식은

가장 발전적인 단계의 HRI 연구이다. 로봇이 사람의 natural

dialogue로부터 작업 명령을 스스로 인식하여 수행하는 것

은 현재로서는 어려운 기술이다. 현재의 기술로는 로봇이 특

정 시나리오에서 사람의 natural dialogue에서 한정된 단어

들만 인식하여 작업을 수행할 수 있으며 사전에 로봇이 작업

에 맞게 프로그래밍 되어 있어야 한다.

위와 같은 HRI의 기술적 한계들을 극복하기 위하여 최근

HRI 연구들은 로봇 제어, 인터페이스 설계 외에도 AI, 인지/

정서 기능 같은 기술들의 중요도가 높아지고 있다. 기존까지

개별적으로 연구가 진행된 각각의 기술들이 융합되어 연구

가 진행될 때 현재 HRI 기술적 한계를 극복할 수 있을 것으로

기대 된다.

참고문헌

[1] 권동수, 이강우, “인간-로봇 상호작용연구; 인간과 로봇

의 새로운 공존을 위하여”, 로봇공학회지 제 2권, 제 3

호, pp. 5-8, 2005.

[2] 신동준, “휴먼 로봇 인터랙션: ICRA 2014 연구 동향”,

로봇공학학회지 제 11권, 제 4 호, pp 29-35, 2014.

[3] Amber M. Walker and David P. Miller, “Tele-operated

Robot Control Using Attitude Aware Smartphones”,

[그림 9] Robot programming by Demonstration을 이용한

로봇의 동작 생성

Page 7: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

10

The 7th ACM/IEEE International Conference on Human-

robot Interaction (HRI’ 12), pp. 269-270, March 2012.

[4] Daniel J. Brooks and Holly A. Yanco, “Design of a

Haptic Joystick for Shared Robot Control”, The 7th

ACM/IEEE International Conference on Human-

robot Interaction (HRI’ 12), pp.113-114, March 2012.

[5] Assad C., Wolf M., Theodoridis T., Glette K., and

Stoica A., “BioSleeve: a Natural EMG-Based Interface

for HRI”, The 8th ACM/IEEE International Conference

on Human-robot Interaction (HRI’ 13), pp. 69-70,

March 2013.

[6] Shiyuan Qiu, Zhijun Li, Wei He, Lognbin Zhang,

Chenguang Yang, and Chun-Yi Su, “Brain–Machine

Interface and Visual Compressive Sensing-Based

Teleoperation Control of an Exoskeleton Robot”,

IEEE TRANSACTIONS ON FUZZY SYSTEMS, VOL.25,

NO.1, pp.58-69, February 2017.

[7] Franc¸ois Ferland, Arnaud Aumont, Dominic L´etour-

neau and Franc¸ois Michaud, “Taking Your Robot For

a Walk: Force-Guiding a Mobile Robot Using Comp-

liant Arms”, The 8th ACM/IEEE International Confe-

rence on Human-robot Interaction (HRI’ 13), pp.

309-316, March 2013.

[8] T.L.Chen and C.C.Kemp, “Lead me by the hand :

Evaluation of a direct physical interface for nursing

assistant robots,” 5th ACM/IEEE International Confe-

rence on Human-Robot Interaction (HRI’ 10), pp.

367-374, Mar 2010.

[9] Shilpi Dwivedi, Ashish Dutta, Amitabha Mukerjee

and Prasad Kulkarni, "Development of A Speech

Interface for Control of a Biped Robot", The 13th

IEEE International Workshop on Robot and Human

Interactive Communication (RO-MAN), pp.601-605,

September 2004.

[10] Kajikawa S, Hiratsuka S, Ishihara T and Inooka H,

“Robot position control via voice instruction inclu-

ding ambiguous expressions of degree”, The 12th

IEEE International Workshop on Robot and Human

Interactive Communication (RO-MAN), pp.223-228,

November 2003.

[11] Schermerhorn P, Kramer J, Brick T, Anderson D,

Dingler A and Scheutz M, “DIARC: A testbed for

natural human-robot interactions”, AAAI’ 06 pro-

ceedings of the 21st national conference on Artificial

intelligence, Volume 2, P.1972-1973, July 2006.

[12] Camilo Perez Quintero, Romeo Tatsambon, Mona Gri-

dseth and Martin Ja¨gersand, “Visual Pointing Ges-

tures for Bi-directional Human Robot Interaction in a

Pick-and-Place Task”, The 24th IEEE International Sym-

posium on Robot and Human Interactive Commu-

nication (RO-MAN), pp.349-354, November 2015.

[13] Sina Radmard, AJung Moon and Elizabeth A. Croft,

“Interface Design and Usability Analysis for a Ro-

botic Telepresence Platform”, The 24th IEEE Interna-

tional Workshop on Robot and Human Interactive

Communication (RO-MAN), pp.511-516, September

2015.

[14] Elena Gribovskaya, and Aude Billard, “Combining

Dynamical Systems Control and Programming by De-

monstration for Teaching Discrete Bimanual Coor-

dination Tasks to a Humanoid Robot”, The 3rd ACM/

IEEE International Conference on Human-robot

Interaction (HRI’ 08), pp.33-40, March 2008.

[15] MaxxWell Forbes, Rajesh P.N. Rao, Luke Zettlemoyer

and Maya Cakmak, "Robot Programming by Demon-

stration with Situated Spatial Language Understan-

ding", 2015 IEEE International Conference on Robo-

tics and Automation (ICRA), pp.2014-2020, May 2015.

Page 8: HRI 연구 동향 작업 수행을 위한 로봇 사용자 인터페이스를 중심으로dyros.snu.ac.kr/wp-content/uploads/2017/12/3... · 4 HRI 연구 동향 : 작업 수행을

로봇과 인간 11

특집IROS 2015_IROS 참가보고: 수중로봇 연구동향

김준형

2017 성균관대학교 기계공학부(공학사)

2017~현재 서울대학교 융합과학기술대학원

석사과정

관심분야 : Bipedal Walking Control,

Robot Manipulation, Human-Robot

Interaction

E-mail : [email protected]

김상현

2012 서울대학교 기계항공공학부(공학사)

2012~현재 서울대학교 융합과학기술대학원

박사과정

관심분야 : Human-robot Imitation,

Robot Manipulation, Grasping Optimi-

zation, Machine Learning

Email : [email protected]

박재흥

1995 서울대학교 항공우주공학과(공학사)

1999 서울대학교 항공우주공학과(공학석사)

2006 Stanford University Aero/Astro(공학박사)

2006~2008 Post Doc, Stanford University

AI Lab

2007~2008 Hansen Medical, Inc. Senior

Engineer

2009~현재 서울대학교 융합과학기술대학원

융합과학부 부교수

관심분야 : Robot-environment Interaction,

Contact Force Control, Multicontact

Control, Whole-body Dynamic

Control, Biomechanics

E‐mail : [email protected]