▲ 그래픽_황성환 뉴스워커 그래픽 1담당 기자

[뉴스워커_오피니언]지난 3월 14일 한국정보화진흥원에서는 ‘글로벌 인공지능 연구의 4대 키워드와 시사점’이라는 보고서를 발간하여 최근 국제적으로 수행되고 있는 AI 연구개발의 핵심 키워드가 무엇인지에 대한 분석을 내놓았다.

보고서에서는 4대 키워드로 ‘인간’, ‘유용’, ‘안전’, ‘이해’를 제시했는데 각 키워드를 구체적으로 살펴보면 다음과 같다.

먼저 인간이란 키워드는 AI가 ‘인간을 닮은 기술 발전’이 기본적인 목표라고 하는 것인데, 머신러닝, 확률추론, 신경망, 자연어처리 등의 항목이 이와 관련된다.

인간을 닮은 AI를 지향하는 ‘인간’이란 키워드를 이해하기 위해서는 머신러닝과 자연어처리를 예로 들어 설명하는 편이 조금 쉽게 접근할 수 있는 방법이다.

머신러닝은 AI가 ‘학습’을 한다는 것으로 짜여진 프로그램에 의해서 정해진 답만을 내놓는 것과는 반대되는 개념으로 머신러닝을 쉽게 알려면 ‘심심이’나 ‘시리’같은 대화형 AI 서비스를 연상하면 된다.

심심이나 시리에게 “나 너 사랑해.”라는 말을 하면 사용자에게 도움을 드리는 것만이 저의 소임입니다.”라는 진지한 답을 내어놓거나 “이건 금지된 사랑이에요.”라는 다소 위트 섞인 답변을 내어놓는다.

장난기 있는 사용자에 의해 어두운 세계에 발을 들여놓은 AI의 경우 쌍욕이 섞인 답변을 내놓기도 해 사용자들을 놀라게 하기도 하는데 같은 질문에 AI가 획일적인 답변을 내놓지 않고 다양한 답변을 할 수 있는 것은 학습에 의해 AI가 가진 경험치가 달라지기 때문이다.

자연어처리 항목은 0과 1로 이루어진 프로그램이 아니라 ‘자연어 즉 일상어’를 통해 AI에게 작업을 지시하고 자연어(일상어)로 된 결과물을 받아볼 수 있다는 것을 의미한다.

이 또한 대화형 AI 서비스를 연상하면 쉽게 이해될 수 있는데 과거처럼 컴퓨터를 작동시키기 위해서 C, 베이직 같은 언어로 프로그램을 만드는 것이 아니라 AI 스피커에 대고 “아이언맨 영화 틀어줘.”라고 일상 언어로 작업을 지시하면 AI 스피커가 알아듣고 영화를 재생하는 것이 자연어처리이다.

즉 인간이라는 키워드는 AI에 학습, 자연어(일상어) 등의 인간이 평상시 활용하고 있는 개념, 시스템을 적용하여 유연한 상황대처능력을 가지면서 인간에게 친숙한 AI를 지향하는 것이라고 할 수 있다.

한편 ‘유용’이란 키워드는 사회현안 해결에 적극 활용될 수 있는 AI연구를 의미한다.

불과 3년 전인 2016년 3월에 알파고와 이세돌 9단의 바둑대결이 펼쳐질 때까지만 해도 시중에서 AI라는 단어를 보기는 쉽지 않았다. 반면 현재는 자율주행차와 같은 기계, AI 보안과 같은 전자, AI 연구개발보조와 같은 바이오 분야 등 어느 분야에 한정되지 않고 AI란 단어를 쉽게 접할 수 있다.

이는 현장에 사용할 목적보다는 순수 기술개발 목적으로 AI를 개발하던 단계에서 산업현장에서 직접 사용이 가능할 정도로 AI 기술 수준이 발전했기 때문으로 풀이된다.

최근 AI가 적용되는 분야의 한 예로 신약개발을 들 수 있는데, 신약개발을 위해서는 신약의 후보물질에 관한 논문, 특허 정보, 유전자 정보 등 광범위한 관련 정보를 수집, 분석해야할 필요가 있다.

기존에는 신약개발 연구원들이 도서관, 네트워크 등을 이용하여 작업을 수행했기 때문에 무리를 한다고 해도 연구원들이 인간인 이상 수면, 식사, 대소변과 같은 생리현상을 해결해야 했으며 자료를 수집해도 문헌을 읽고 분석하는데 시간적 한계가 있는 것은 분명했다.

반면 AI가 후보물질에 관한 정보수집, 분석에 활용될 경우 네트워크에 공개된 수백만 건의 문헌 중 관련 정보를 빠른 시간 안에 수집할 수 있는 것은 물론이고 충분한 분석 능력을 갖춘 시스템을 구축했다면 막대한 자료의 동시 분석, 24시간 분석도 가능해져 효율성면에서 비교가 안 된다는 평가를 받고 있다.

AI의 완성도가 높아지면 높아질수록 ‘유용’이라는 키워드가 나타내는 AI 연구경향은 더욱더 커질 것으로 전망된다.

‘안전’이라는 키워드는 한마디로 ‘인간에 위협을 가하지 않는 AI’로 정의할 수 있다.

터미네이터, 매트릭스라는 영화를 봤거나 알고 있는 사람이라면 영화 속에 등장하는 AI가 인간을 지배하거나 멸망시키려고 한다는 점에서 안전이라는 키워드를 쉽게 이해할 수 있을 것이다.

AI 연구자들에 따르면 미래에 인간에게 유해한 AI가 등장할 가능성은 충분하다.

군사용으로 개발되고 있는 킬러 로봇, 킬러 드론의 예를 들지 않더라도 한 TV쇼에서 “인류를 멸망시키겠다.”고 농담처럼 말한 AI 로봇 ‘소피아’도 상황에 따라 인간을 해치는 것이 전혀 불가능한 것은 아니다.

이는 AI 개발자가 AI로 하여금 인류에 대해 유해한 행위를 하도록 고의적으로 학습시키는 것에 의해서도 가능하며 프로그램의 오류로 인해 의도하지 않게 발생할 수도 있다.

AI에 우려를 표하는 유명인사로 대표적인 것은 고 스티븐 호킹 박사와 테슬라의 CEO인 엘론머스크를 들 수 있는데 그들은 “AI에 의한 전쟁은 인류를 효과적으로 제거할 수 있고 완전한 AI는 인류의 통제에서 벗어날 것이므로 인류의 미래는 AI에 의해 결정될 수 있다.”고 우려를 나타낸바 있다.

따라서 AI 연구관련 4대 키워드 중 ‘안전’은 인간에게 유해하지 않은 AI 개발에 관한 연구이며 로봇3원칙, 아실로마 원칙(Asilomar AI Principles)과 같은 사회 윤리와 관련성이 높다.

마지막으로 ‘이해’라는 키워드는 AI가 사회에 미치는 영향에 관한 연구라고 볼 수 있다.

이미 광범위한 산업현장 분야에서 적용되고 있는 AI의 영향은 결코 작지 않은데, 예를 들어 자율주행차가 완전히 상용화될 경우 여객운송업계와 화물운송업계의 프레임이 바뀔 정도의 변화가 예상된다는 것을 들 수 있다.

이 외에도 인간이 아닌 AI가 창작한 예술품에 대한 저작권과 개발한 제품에 대한 특허권 등의 지적재산권을 AI에게 인정할 수 있는가와 같은 법률적 문제도 제기될 정도로 연구 범위는 비교적 광범위하다.

4대 키워드 관련하여 보고서는 AI 연구는 인간을 닮은 기술의 발전을 기본 목표로 해야 하고 AI의 사회적 가치 창출과 활용연구를 확산해야 하며 AI 관련 윤리 및 안전성 연구를 추진하는 동시에 AI에 대한 이해도를 높여야만 AI 혁신을 이룰 수 있다고 조언하며 결론을 맺었다.

저작권자 © 뉴스워커 무단전재 및 재배포 금지