×

뉴스


학부의 새로운 소식을 알려드립니다.

[언론보도] 서울대 공대 학생과 동문이 뽑은 ‘미래 바꿀 7대 기술’은?(동아사이언스,2016.12.29)

2016.12.29.l 조회수 17904

서울대 공대 전기정보공학부와 컴퓨터공학부에서는 개교 70주년을 맞아 ‘앞으로 우리나라를 이끌어갈 7대 미래기술’을 선정했다.

 

각 분야의 동문들과 재학생들이 투표한 결과다. 영화에서나 나올 것 같은 이야기지만 가까운 미래에 상상했던 수준 이상으로 발전하게 될 전망이다. 각 기술의 최전선을 서울대 연구자에게 직접 들어본다. 현재 어디까지 개발됐고, 미래에는 어떤 놀라운 기술로 완성될까.

 

Dick Thomas Johnson(W) 제공
Dick Thomas Johnson(W) 제공


1분 요약
● 서울대 공대에서는 앞으로 한국을 이끌 7대 미래기술을 선정했다.
● 인공지능이나 사물인터넷, 빅데이터 등은 이미 실현되고 있다.
● 현 기술의 한계점을 해결하면 미래 기술은 우리 생활에 훨씬 더 밀접해질 것이다.

 

 

1. 인공지능
글 장병탁 컴퓨터공학부 교수


어디까지 왔나 음성기반 대화형 인공지능 챗봇


2011년 IBM 왓슨이 TV 퀴즈쇼 ‘제퍼디’에서 우승했다. 2016년에는 구글 딥마인드가 만든 인공지능 프로그램 알파고가 이세돌을 이겨 세상을 다시 한 번 놀라게 했다. 인공지능이 이제 우리 생활에 성큼 들어온 셈이다.


최근 인공지능이 가장 빨리 상용화되고 있는 분야는 ‘음성기반 대화형 개인비서 로봇’과 ‘챗봇’ 분야다. 2011년 애플에서 ‘시리’를 내놓은 이듬해, 구글은 지능형 개인 비서 ‘구글 나우 서비스’를 시작했다. 2014년에는 마이크로소프트가 지능형 개인 비서인 ‘코타나’를 발표했다. 2015년 아마존은 스피커로 대화할 수 있는 ‘에코’를 내놨다. 에코는 음악을 틀어주거나 책을 읽어주며 질문에 대답하는 대화형 가상 비서 역할도 한다. 2016년에는 음성대화 챗봇인 ‘구글 어시스턴트’가 나왔다. 챗봇은 귀와 입만 갖춘 로봇으로 텍스트나 음성기반의 언어만을 사용해 사람과 소통한다. 앞으로는 여기에 눈을 달고 시각 인지 기능을 갖춰, 사람과 주변 환경을 인식해 좀 더 자연스럽게 대화할 수 있는 로봇이 탄생할 전망이다.


미래 사람 마음을 읽는 ‘인공지능 소셜로봇’ 나온다


팔과 손을 달고 제스처를 하면서 사람과 상호작용하며 감성과 사회성을 표현하는 인간형 소셜로봇이 등장할 것이다. 독일의 프라운호퍼 연구소가 개발하는 ‘케어오봇(Care-o-bot)’과 일본의 소프트뱅크 로보틱스의 ‘페퍼(아래 사진)’는 머리와 눈을 일부 움직이며, 팔과 손을 가지고 동작을 하고, 바퀴로 이동할 수 있는 인간형 로봇이다.


이 로봇들은 아직은 간단한 대화를 하고 상점을 안내하는 등의 활동을 한다. 하지만 앞으로 훨씬 고차원적인 지각, 인지, 행동 능력을 갖춰 사람의 마음을 파악할 수 있을 것이다. 인공지능 소셜로봇이 가정에 들어온다면 새로운 식구로서 노인들의 심부름을 하거나 말동무를 하는 반려자 역할을 하고, 아이들을 돌보고 놀아주며 같이 공부하는 역할을 할 것이다.

 

Tokumeigakarinoaoshima(W) 제공
Tokumeigakarinoaoshima(W) 제공


2. 맞춤형 건강의료 기술

글 서종모 전기정보공학부 및 서울대병원 의생명연구소 교수


어디까지 왔나 ‘건강한 수명’이 늘어났다


유전자와 유전물질, 단백질 사이의 관계가 밝혀지고, 체내 대사와 신호전달 과정이 상세히 알려지면서 현대의학도 함께 발달했다. 효과가 뛰어나지만 부작용은 줄인 신약이 등장했고, 병을 비교적 정확하게 살펴볼 수 있는 고해상도 장비도 나왔다.


예전에는 천연 물질에서 치료 효과가 있는 성분을 찾아 약으로 만들었다. 하지만 지금은 기존 체내 물질과 비슷한 구조를 가지면서 안정성과 효과를 극대화해주는 물질을 찾아 신약으로 개발한다.


컴퓨터단층촬영(CT)이나 자기공명영상(MRI) 같은 장비 덕분에 병이 어디에 어떻게 생겼는지 고해상도 이미지로 관찰할 수 있다. 병의 위치나 진행된 상태에 따라 적절한 수술 방법을 선택해 의료비용뿐만 아니라 수술 시간과 수술 후 회복 시간도 줄일 수 있다.


미래 미세 진단, 질병의 이름까지 바꾼다


고해상도 의료영상기기가 더 발전해, 빠른 시간에 더 저렴한 비용으로 정확하게 병을 진단할 수 있을 것이다. 기능영상이나 대사영상 등 다양한 부가 기능이 결합되거나, 영상을 찍는 동시에 실시간으로 병변을 치료하는 영상-치료 융합기기로 발전할 가능성도 높다.


지금은 진단을 내릴 때 장기 이름에 병리학적 변화를 반영하는 설명을 붙인다. 하지만 미래에는 지금보다 훨씬 정확하게 병의 원인을 찾을 수 있기 때문에, 생체정보전달 오류 혹은 특정대사과정 변화에 따른 병리학적 변화를 설명하는 진단이 늘어날 것이다. 예를 들어 위선암이나 폐선암은 분자생물학적 진단기법으로 관찰하면 특정 분자와 관련된 유전자 변이가 원인이다. 앞으로는 병이 난 부위가 달라도 ‘EGFR변이 암’처럼 부를 가능성이 있다. 치료도 개인 맞춤형으로 다가설 것이다.

 

연구실에서 개발 중인 자율주행자동차. 주변을 360°로 확인하는 센서가 꼭대기에 달려 있다. - 서울대 제공
연구실에서 개발 중인 자율주행자동차. 주변을 360°로 확인하는 센서가 꼭대기에 달려 있다. - 서울대 제공


3. 자율주행자동차

글 서승우 전기정보공학부 교수


어디까지 왔나 상용화 단계에 접어들었다


최근 자율주행자동차 관련 기술은 초기 연구 수준을 지나 상용화 단계에 접어들고 있다. 2040년경에는 전 세계 차량의 75%가 자율주행 차량일 것이라는 전망도 나오고 있다. 운전자가 개입하는 제한적 자율주행기술은 이미 상당 부분 완성됐고, 고속도로 특정 구간에서 주행하는 기술은 양산 직전 수준이다.


실제로 독일의 자동차 제조업체인 아우디는 2016년 초에 800km가 넘는 고속도로 구간에서 자율주행에 성공했다. 구글 자율주행차는 이미 일반 도로에서 500만km가 넘는 주행기록을 달성했다. 최근에는 인간 운전자와 동등한 지위까지 인정받았다. 자율주행 기술은 최근 5년 사이에 획기적으로 발전했는데, 그 이면에 심층신경망 이론, 빅데이터, 전용 하드웨어 성능 등의 놀랄 만한 변화들이 있었다. 이런 새로운 기술들 덕분에 과거보다 훨씬 다양하고 열악한 조건에서도 정확하게 물체를 탐지하고 주변 상황을 이해할 수 있게 됐다.


미래 ‘사람의 직접 운전’ 금지하는 시대 올까


센서와 통신, 인공지능 기술 등의 발전으로 자율주행은 결국은 사람보다 뛰어난 수준이 될 것이다. 그러나 자율주행은 단지 기술적 문제만이 아니라 사회, 경제, 법, 문화, 관습 등 다양한 분야와 얽혀 있는 사회 정치적 문제다. 자율주행차는 인간이 프로그래밍해둔 방식대로 작동할 것이므로 자동차가 합리적인 방식으로 주행하기를 원한다면 인간의 합리적 행동 방식에 대한 사회적 합의를 먼저 도출해야 한다. 20년 뒤쯤에는 사람보다 더 안전하고 합리적이며 융통성 있게 운전하는 자동차가 탄생해, 사람이 직접 운전하는 일을 금지하는 시대가 올지도 모른다.

 

GIB 제공
GIB 제공


4. 사물인터넷

글 최성현 전기정보공학부 교수


어디까지 왔나 이미 사물인터넷 시대


오늘날 우리 삶의 일부가 된 스마트폰을 포함해 이미 100억 개가 넘는 기기가 인터넷에 연결돼 있다. 앞으로 2020년까지는 300억 개가 넘는 기기와 센서가 연결될 것으로 추정된다. 사물인터넷(IoT, Internet of Things) 시대는 이미 도래해 있다.


이미 스마트폰이나 스마트미터, 스마트카, 스마트홈, 스마트빌딩, 스마트팩토리 등 여러 기기나 환경에 ‘스마트’를 붙인다. 기기와 인터넷을 연결한 사물인터넷 기술 덕분이다.


홈 IoT 기기와 서비스도 늘고 있다. 디지털 도어록이나 창문 열림 감지기, 가스 안전기, 전기 플러그, 조명기기 및 냉장고, 에어컨, 세탁기 등 다양한 가전제품이 인터넷에 연결됐다. 그 덕분에 우리는 스마트폰을 이용해 원격으로 조종할 수 있다. 실외에서 동작하는 원격 위치 추적기 및 센서를 이용하는 다양한 서비스도 등장하고 있다.


미래 전세계 ‘사물인터넷 네트워크’ 뜬다


미래에는 인터넷에 연결되는 사물이 더욱 더 많아져 결국 전 세계를 거대한 신경계처럼 만들 전망이다. 미래 컴퓨터는 사람의 신경망처럼 사물인터넷을 통해 다양한 형태의 데이터를 수집하고 분석해 사람에게 더 다양한 서비스를 제공할 것이다.


빅데이터와 인공지능 기술이 접목돼 인공지능의 신경계 역할을 할 전망이다. 이에 따라 미래에는 더 다양한 유무선 통신 기술이 사물인터넷을 위해서 사용될 것이다. 특히 2020년 이후 등장할 5세대(5G) 이동통신 기술은 더 많은 기기를 인터넷에 연결시키고, 데이터 전송 시간을 수 ms(밀리초, 1ms는 1000분의 1초) 수준으로 줄일 것이다. 여기에 VR 기술까지 접목하면, 아주 먼 곳의 일도 마치 눈 앞에서 일어나는 일처럼 실시간으로 볼 수 있다.

 

일본 오사카대 로봇공학자인 이시구로 히로시 교수가 만든 휴머노이드인 ‘제미노이드F1’. - ATR Hiroshi Ishiguro Laboratories 제공
일본 오사카대 로봇공학자인 이시구로 히로시 교수가 만든 휴머노이드인 ‘제미노이드F1’. - ATR Hiroshi Ishiguro Laboratories 제공


5. 로봇

글 이제희 컴퓨터공학부 교수


어디까지 왔나 두발로 걷고 도구 쓰고


2011년 일본 후쿠시마에서 원자력발전소 사고가 일어난 뒤, 사람을 대신해 위험한 지역에서 작업을 할 수 있는 로봇의 필요성이 제기됐다. 사람처럼 섬세한 작업을 할 수 있는 휴머노이드 로봇이다. 휴머노이드 로봇은 사람을 위한 작업 환경에서, 사람을 위해 설계된 도구를 이용해, 사람이 수행하던 작업을 대신해야 한다. 따라서 공장 기계처럼 바퀴나 캐터필러가 아니라, 사람처럼 두 다리로 걷고 계단과 사다리를 올라야 한다. 사람처럼 손을 이용해 전동 드릴을 쥐고 벽에 구멍을 뚫어야 한다.


그러나 아직까지 휴머노이드 로봇 기술은 사람의 능력을 따라가기에 많이 부족하다. 마치 느린 화면을 재생할 때처럼 행동이 굼뜨고, 발과 무릎에 달린 바퀴에 의지해야 한다. 게다가 스스로 사물을 인지하는 능력이 없다. 외부에서 사람이 명령을 내려 조종해야 한다.


미래 사람처럼 인지하고 생각하고 행동하는 로봇


사람은 인지능력과 사고능력, 운동능력이 있다. 로봇이 사람처럼 인지하고 생각하고 행동하려면 이 세 가지 능력을 모두 갖춰야 하고, 또 서로 조화를 이뤄야 한다. 전문가들은 딥러닝 기술을 이용해 로봇이 학습할 수 있도록 연구하고 있다. 또 인공지능 기술로 로봇이 스스로 판단하거나 기억하고 계획을 세우는 등 다양한 사고를 할 수 있게 개발하고 있다. 컴퓨터 시뮬레이션과 최적화 기술을 적용하면 로봇의 운동 능력도 사람 이상으로 구현할 수 있다. 이런 기술을 바탕으로 미래에는 요리하는 로봇, 빨래 개는 로봇, 간병하는 로봇 등 사람과 함께 교감하고 사람처럼 생각하거나 행동하는 로봇이 나올 전망이다. 우리 삶에 로봇을 어떻게 받아들일지 진지하게 고민해야 할 때다.

 

GIB 제공
GIB 제공


6. 빅데이터

글 강유 컴퓨터공학부 교수


어디까지 왔나 고객 맞춤형 광고와 배송


기존에는 기업이 상품을 광고하기 위해 주로 TV나 신문으로 불특정 대중에게 이미지를 함께 전달했다. 하지만 대용량의 상품 데이터, 고객 데이터, 고객-상품 상호작용 데이터가 쌓이면서, 빅데이터를 활용해 개인화된 추천을 제공하는 회사가 점점 늘고 있다.


미국의 인터넷 쇼핑 사이트 아마존은 고객의 기존 구매 내역을 토대로 맞춤형 상품을 추천하고 있다. 각 사용자의 개인적인 선호도를 정확히 반영해 고객의 구매 가능성을 극대화한다는 점에서 불특정 다수를 대상으로 하는 광고보다 훨씬 효율적이다.


빅데이터는 배송 시스템도 향상시켰다. 기존에는 고객이 주문하면 제품을 준비해 배송했다. 하지만 최근 등장한 ‘예측 배송시스템’은 상거래 내역 빅데이터를 분석해 각 제품이 언제 어디에서 얼마만큼 주문될지를 예측한다. 그리고 제품을 사전 주문해 적절한 장소로 배송시켜 시간을 단축시킨다.


미래 먹는 음식, 습관으로 질병 예측


실시간으로 빅데이터를 생성하는 다양한 기기와 도메인이 늘어나고 있다. 예를 들어 스마트폰, 웨어러블 센서, 가정용 네트워크 장비 등에서 실시간 데이터가 끊임없이 생성되고 있다.


이러한 실시간 빅데이터에 대한 분석 및 예측 기술은 신속한 의사 결정에 큰 도움을 줄 수 있다. 또한 다양하고 복잡하게 연관된 빅데이터를 활용해 서로 다른 도메인에서도 응용할 수 있을 전망이다.


빅데이터가 물건을 광고하거나 판매하는 분야에서만 쓰이는 게 아니다. 예를 들어 어떤 사람이 좋아하는 음식, 즐겨 하는 행동 데이터를 기반으로 그 사람의 향후 질병 발생 가능성을 예측하고 질병 예방을 위한 행동 변화를 제시할 수 있다.

 

GIB 제공
GIB 제공


7. 가상현실과 증강현실

글 조남익 전기정보공학부 교수


어디까지 왔나 사용자를 새로운 세계로 이동시킨다


VR(가상현실, Virtual Reality) 기기를 쓰는 순간, 눈앞에는 지금껏 전혀 본 적 없었던 새로운 세계가 펼쳐진다. 우리는 가상현실 속에서 관광객이나 우주비행사, 게임 캐릭터나 영화 주인공이 된다. 가상현실에서 가상 인물이나 물체와 서로 반응하고 상호작용하려면 사용자의 움직임과 의도를 잘 파악할 수 있는 장치가 필요하다.


AR(증강현실, Augmented Reality)은 현실세계와 가상현실을 합치는 것으로, ‘포켓몬고’ 게임이 대표적인 예다.


한계도 있다. 아직까지는 사용자의 움직임과 의도를 정확히 추정하고 파악하지 못한다. 픽셀 격자가 보일 만큼 해상도가 떨어지고, 완벽하지 않은 영상기술과 광학기술 때문에 색수차와 영상 왜곡 현상도 심하다. 신체가 움직이는 것만큼 화면이 자연스럽게 움직이지 않아 메스꺼움이 느껴지고, 가상현실을 즐길 때마다 장갑을 껴야 하거나 센서가 달린 봉을 잡아야 하는 것 자체가 걸림돌이 될 수 있다.


미래 좀 더 실감나고 안전한 가상세계 탄생!


전문가들은 좀 더 자연스러운 가상현실과 증강현실을 위해 지금까지 한계에 부딪힌 문제점을 해소할 기술과 질 좋은 콘텐츠를 함께 개발하고 있다. 가상현실이 너무 실감이 난다면 문제점도 발생할 수 있다. 가상세계의 매력에 지나치게 몰입한 나머지, 실제 세상과 구분을 못 하고 많은 시간 동안 매달릴 수도 있다. 이에 따라 육체나 정신건강도 영향을 받을 수 있다.


그래서 전문가들은 이런 문제를 해결하기 위해 연구하고 있으며, 역으로 가상현실을 이용해 건강을 증진시키는 콘텐츠도 개발하고 있다. 부정적인 면을 줄이고 긍정적인 면을 최대한 활용하기 위해서다. 또 언젠가는 홀로그램 기술을 실현시켜 아무 장비 없이도 편리하고 실감나게 가상세계를 즐길 수 있는 날이 올 것이다.

 

※글 장병탁 서울대 컴퓨터공학부 교수 등 7명 | 에디터 이정아

※이 내용은 과학동아 1월호에서도 만날 수 있습니다.