개인회원 메뉴

개인회원 정보

이력서 사진
이력서 사진 없음
로그인 링크
로그인
회원가입 링크
아직 회원이 아니세요?

개인회원 서비스

취업뉴스

시사

[이슈&논술] 인공지능(AI)의 위협과 대응 방안

2020-07-27 15:40 2,335

 

 

이슈의 배경

 

미래학자 레이 커즈와일은 저서 『특이점이 온다』에서 “2045년쯤 한 대의 컴퓨터에 담긴 인공지능(AI, Artificial Intelligence)이 모든 인류의 지능 합계를 초월하는 시대가 올 것”이라고 말한다. AI가 인간의 모든 지식 노동을 대체해 사람은 먹고 자는 것 이외에는 할 일이 없어진다는 것이다. 최근 AI의 발전 속도를 보면 이 예언은 더 빨리 적중할 수도 있다.

AI 연구는 1950년대부터 시작됐지만 발전 속도가 더뎌 외면받다가 2010년대 초반부터 딥러닝(deep learning) 기술이 등장하며 비약적으로 성장했다. 과거 AI가 인간이 기계에 일일이 지식(데이터)을 입력해주는 방식이었다면 딥러닝은 ‘생각하는 방식’을 주입함으로써 AI가 사람의 두뇌를 모방해 스스로 학습할 수 있도록 했다.

딥러닝을 장착한 AI 프로그램 알파고(AlphaGo)는 2016년 세계 최정상급 바둑기사 이세돌 9단에게 압도적으로 승리하며 충격을 안겨줬다. AI의 전성시대를 알리는 ‘알파고 모멘트’가 활짝 열렸다. 스마트폰, 카메라 등 가전제품에 부가 기능으로 적용되는 수준에서 벗어나 AI가 사람이 하는 업무를 도맡기 시작했다.

AI는 블루칼라 노동자는 물론, 화이트칼라 전문직 노동자의 일자리까지 침범하고 있다. AI 비서는 데이터 관리·분석은 기본이고 고도의 비즈니스 의사 결정까지 참여한다. 제조업 분야에서는 사람과 격리된 장소에서 주어진 프로그램에 따라 특정 위험·정밀 작업만을 수행하던 로봇이 AI를 장착하여 직원들과 협업하는 형태로 발전하고 있다.

 

 

이슈의 논점

 

AI가 가져올 발전상


AI는 미래 지식정보사회를 이끌어 갈 핵심 부가가치 창출 수단이다. 제조업에서 AI는 자동화·지능화를 촉진하고 인간의 단순 반복적인 업무를 대체하여 노동 생산성을 크게 높일 것으로 기대된다.

서비스 분야에서도 AI가 맞춤형 정보를 제공함으로써 데이터 관리 및 분석, 비즈니스 의사 결정 등에 활용돼 효율성을 높이고 있다. 미국 켄쇼(Kensho)사의 AI는 수억 원의 연봉을 받는 애널리스트 15명이 4주 동안 걸렸던 분석을 5분 만에 해결함으로써 금융 전문가보다 월등한 수익을 냈다.

AI는 소득수준 향상, 저출산·고령화 현상과 더불어 인간의 편의와 안전을 중시하는 인간중심 가치 산업으로도 기대를 모은다. AI 도입으로 인한 생산·유통 최적화는 생산인구 감소에 따른 사회 비용을 줄일 수 있는 대안으로 제시된다. 손이 많이 가는 단순한 업무를 AI에 맡김으로써 짧은 시간에 짧은 일을 처리하면 고객에게 많은 시간을 할애하여 더 나은 서비스를 제공할 수 있게 될 것이다.

이처럼 발전가능성이 무궁무진한 AI 기술의 주도권을 쥐기 위해 각국 정부와 글로벌 기업은 천문학적인 투자를 아끼지 않고 있다.

AI의 위협 ①: 인간 윤리와 존엄성

하지만 AI의 발전상에 대해 기대뿐만 아니라 부정적 영향에 대한 우려도 크다. 세계적 우주물리학자 스티븐 호킹은 2018년 타계하기 직전까지 “AI의 등장은 인류의 멸망을 초래할 수 있다”고 경고했다.

AI는 윤리와 존엄성의 문제를 제기한다. 인간은 고도의 이성과 판단력을 지녔기 때문에 주체성을 지닐 수 있다. AI 기술이 고도화되고 자동화 수준이 높아질수록 기게는 인격성을 갖고 위험의 책임 주체가 된다. 인간성이 존재하지 않는 AI 기기에 자율적 의사 결정 기능을 부여하면 통제할 수 없는 상황이나 예기치 못한 문제가 생길 수 있다.

만약 AI가 운전하는 자율주행자동차가 인명 사고를 내면 누가 책임을 져야 하는가. 갑자기 공을 잡기 위해 도로로 뛰어든 아이를 피하기 위해 자율주행자동차가 다른 사람이 있는 인도를 덮친다면 AI의 이런 판단은 존중받을 수 있을까. AI 투자 시스템이 잘못된 판단으로 고객의 자금을 모두 날렸다면 고객은 누구에게 보상을 청구해야 하는가. 미처 고려하지 못했던 조건이나 상황에 직면했을 때 AI가 제어할 수 없는 상황은 얼마든지 발생할 수 있다.

그중에서도 과학자들이 가장 우려하는 최악의 상황은 AI가 전쟁 무기로 악용되는 것이다. 자율살상무기시스템(LAWS, Lethal Autonomous Weapons Systems)이 인간의 통제를 벗어나 목표를 제거한다면 인간의 존엄성은 추락할 것이다. 기계가 프로그램상 오작동을 일으켜 무고한 시민들을 살상한다면 영화 ‘터미네이터’ 시리즈의 암울한 디스토피아가 현실이 되는 셈이다.

 

디스토피아 (dystopia)

디스토피아는 현대 사회의 부정적 측면이 극대화돼 나타나는 어두운 미래상을 의미한다. 컴퓨터 기술의 발달로 감시가 더욱 공고화되는 사회, 극단적인 환경오염으로 인류가 생존할 수 없는 사회, 인공지능에 지배당하는 사회, 핵전쟁으로 인류가 멸망하는 사회 등이 모두 디스토피아다. 디스토피아는 ‘현실 어디에도 존재하지 않는 이상적인 나라’를 뜻하는 유토피아(utopia)의 반대말이다.

 

AI의 위협 ②: 프라이버시 개인 정보 침해

AI는 프라이버시의 자유를 위협한다. 중국 정부는 범죄 용의자 추적을 목적으로 지하철, 공항 등 사람이 많이 다니는 곳에 CCTV 수억 개를 설치해 이로부터 수집되는 방대한 개인 얼굴과 동작 데이터를 AI 기술로 학습시켜 특정 개인의 위치와 상태를 감시하고 있다.

최근 AI 안면 인식 기술은 장거리에서 감정을 인식하는 수준까지 발전했다. 수백만 명이 모인 곳에서 특정 인상착의를 지닌 사람을 찾는 것은 물론 슬픔과 분노까지 인식해 자살 위험이 크거나 범죄를 저지를 가능성이 큰 사람, 은행에서 돈을 빌리고 갚지 않을 사람까지 판별할 수 있다. 이름이나 주소를 넘어 개인이 드러내고 싶지 않은 감정까지 개인 정보로 축적되는 것이다.

우리나라에서도 최근 코로나19 자가격리 위반자에게 위치 추적용 전자팔찌를 채우게 했다. 확진자의 휴대전화 및 신용카드 사용 기록을 조회해 동선을 공개하는 등 코로나19 확산을 틈타 개인정보가 남용되는 디지털 감시 사회에 가까워지고 있다. 감시와 통제가 사회 안전이나 방역에 도움을 준다고 해도 프라이버시와 개인 정보 침해라는 더 큰 피해를 낳을 수 있다.

AI의 위협 ③: 일자리 감소

일자리 감소는 가장 피부로 와닿는 AI의 위협이다. 최근 공개된 정부 보고서에 따르면 AI 등 디지털 기술의 대체로 일자리를 잃을 사람이 향후 10년간 700만 명이라고 한다. 우리나라 노동자 2,300만 명 중 3분의 1에 해당하는 수치로서 광범위한 실업과 저임금 고통을 예고한다.

AI는 제조업과 서비스 업종은 물론 전문직까지 대체할 전망이다. 매뉴얼에 기반한 텔레마케터나 콜센터 상담원, 운송업자, 노동 생산직은 물론 기자, 법률 상담, 회계, 의료 등 전문 서비스 직종 직업군 역시 대체될 가능성이 큰 직업군으로 꼽힌다.

AI의 직격탄을 맞고 있는 대표적 분야가 금융업이다. 인터넷과 스마트폰에 의한 입출금 등의 업무 자동화에 이어 AI를 이용한 로보어드바이저(roboadviser:자동 온라인 금융 자문)가 대출 상담 업무까지 대신하면서 은행 창구 직원(텔러)과 오프라인 점포 수는 갈수록 줄어든다. 빅데이터를 활용해 소비자의 편의성을 극대화한 보험 서비스인 인슈어테크(insure tech)가 등장하여 보험 판매원은 물론 금융상품을 설계하는 고급 인력도 사라질 가능성이 크다.

“AI는 단순 반복적인 업무를 도맡아 효율성을 높일 뿐 고도의 분석력과 창조력, 감성이 필요한 업무는 인간의 영역으로 남을 것”이란 낙관론도 장담할 수 없다. 문학, 음악, 회화 등 인간 고유의 영역으로 여겼던 예술 분야에서도 AI가 두각을 나타내고 있다.

실제로 IBM의 AI 슈퍼컴퓨터 ‘왓슨’은 200만 건의 처방을 실수 없이 조제한 로봇 의사이자 약사로서 이미 국내 많은 병원에 도입돼 의료진의 일원으로 활용하고 있다. AI가 빈센트 반 고흐나 렘브란트의 화풍을 모사한 작품은 “예술인가 기술인가”라는 논란에도 고가에 팔린다.

대응 방안

AI의 통제 불능 및 악용으로 인간 존엄성이 위협받는 문제를 해결하기 위해서는 먼저 AI의 권한 설정과 결과에 대한 책임 소재를 명확히 할 필요가 있다. 인간과 AI의 공존을 고려한 새로운 윤리 규범 체계와 법제화의 정립이 요구된다.

인간의 개입 없이 AI가 윤리적 판단을 하는 주체가 되어서는 안 될 것이며 AI로부터 파생된 피해에 대해서는 이를 가능케 한 사람에게 책임을 물을 수 있어야 한다. 윤리적 가치판단은 사람이 내리고 AI는 개발 단계부터 사람을 돕는 기능적 역할을 담당해야 하는 데 그치도록 세심하게 설계돼야 한다.

유럽연합(EU)은 2017년 AI와 로봇 제작자의 윤리 규범, 책임 등이 포함된 로보틱스(로봇공학)에 관한 민법 결의안을 발표했다. 이듬해 시행된 개인정보보호법에 AI에 의한 자동화 의사결정 거부권인 프로파일링 거부권도 두었다. 일본 정부는 기업체가 개발하는 AI의 안정성과 보안성을 평가하는 공적 인증제도를 운용하기로 했다.

우리나라는 AI의 책임성과 윤리성을 다루는 관련법이 전무한 실정이다. 그나마 입법이 논의되는 부분도 AI 기술개발이나 산업 진흥책 부분에 한정되고 있다. AI의 장밋빛 미래만 기대하며 다가올 위협에는 눈을 감고 있는 것이다.

일자리 감소 우려와 관련해서도 대비가 필요하다. AI는 많은 직업을 도태시킬 것이지만 AI와 직간접적으로 연관해 새로운 일자리를 창출할 수 있다. 데이터 과학이나 로봇 연구, 소프트개발 운용, 수리 및 유지 보수 등의 시장 수요는 갈수록 증가할 것이다.

이러한 일자리 구조 변화에 대응하기 위해 인재를 양성해야 한다. AI 대체에 취약한 직무에 근무하는 사람들이 전문성을 가지고 적합한 역할을 할 수 있도록 교육 시스템을 개선하고 직종 간 이동이나 업무 변화에 적응할 수 있도록 재교육·훈련 프로그램을 확대할 필요가 있다.

미국 최대 유통 기업 아마존은 지난해 7억 달러(약 8,000억 원)를 투자해 직원 10만 명에게 재교육을 실시했다고 발표했다. 우리나라 정부와 기업도 노동 시장의 변화에 맞춰 직업 재교육 체계를 강화하고 고용 구조를 재편해야 한다. 이와 함께 앞으로 본격적인 AI 시대를 맞이하는 학생들의 교과 과정은 기술을 이해하고 통제하면서도 인간 고유의 감성과 공감 능력을 키울 수 있도록 설계돼야 한다.

 

 

저작권은 잡코리아(유)에 있으며, 무단전재 및 재배포를 금지 합니다.

0 / 200
;