[유튜브 바로가기]
[애플 팟캐스트 바로가기]
[팟빵 바로가기]

SF 속 인공지능과 실제 개발되는 인공지능의 차이?

그 둘이 다르다는 점을 이해하고, 자율주행차를 예로 살펴봄으로써 이해를 돕고, 명사들이 경고하는 인공지능의 미래 사회가 별 근거가 없음을 살핀다.

SF 속 인공지능의 주요 특징과 비판 : 목적 설정과 자유의지는 공상일 뿐

[유튜브 바로가기]

일반인이 인공지능의 대표라고 생각하는 SF 속 인공지능은 실제의 인공지능과 다르다. 대표적인 오해를 극복해야 인공지능에 제대로 접근할 수 있다. 오해를 풀어 보자.

우리는 ‘인공지능’ 하면 SF에 등장하는 사례를 떠올림. 터미네이터, 매트릭스, 엑스마키나 등.

이들의 특징은 자유의지와 ‘의도’를 갖고 있으며, ‘목표’를 세우고 실행할 수 있다.

그러나 엔터테인먼트와 상상의 영역일 뿐 현실의 인공지능과는 전혀 관계 없다.

SF 속 인공지능은 공학자들이 개발하는 인공지능이 아니며, 인공지능은 사람이 시키는 대로 작동하는 소프트웨어일 뿐. SF 속 인공지능은 논리와 알고리즘, 반도체 설계, 실제 구현 등 여러 차원에서 아직은 상상의 영역이다.

이러한 오해를 피하는 것이 현실을 대비할 때 꼭 필요하다.

자료 [다운로드]

자율주행차의 사례

[유튜브 바로가기]

인공지능을 활용하는 대표적 사례로 언급되는 자율주행차의 실체를 파헤친다. 이를 통해 인공지능이 사회에 도입될 때 생겨날 문제점과 함께, 인공지능 기술의 한계를 이해해 본다.

여기서 말하는 ‘자율성’이 인간의 자율성과 관계가 없다.

자율주행차 전망. 기술적으로는 인간 운전보다 사고나 사망 확률이 낮지만, 사회적 차원에서 책임 소재에 대한 합의가 없이는 운용에 한계가 있다.

인간의 생명과 관련해 선택을 강요하는 트롤리 딜레마…

철도망 설계 공학적으로 또 인공지능 프로그래밍상 가짜 문제이다. 애당초 사고가 일어나지 않게 프로그래밍해야 한다. 인공지능 기술을 모를 때 제기하는 공허한 문제…

독일 연방보고서에서는 인간의 생명과 관련해 윤리평가를 못하게 했다.
이런 중대한 문제의 결정은 반드시 인간이 내려야 한다.

명사들의 경고 발언 검토

이름만 들어도 알 법한 명사들(스티븐 호킹, 일론 머스크, 빌 게이츠, 레이 커즈와일, 유발 하라리 등)이 언론을 통해 인공지능의 위험을 경고하고 있다. 이 발언들이 얼마나 현실성이 있는지 점검해 본다.

자기 분야에서 업적을 이룬 명사들의 경고 발언 : 인공지능이 인류에게 큰 재앙이 될 수 있다.

이들은 자기 분야에서는 뛰어난 업적을 남겼을지 몰라도 실제로는 인공지능 비전문가이다. 이들은 먼 미래에나 일어날 법한 일들에 눈길을 돌리게 함으로써, 가까운 미래에 풀어야 할 긴급한 문제를 보지 못하게 하는 역효과가 있다. 괜한 공포 조장은 사회적 책무를 방기하는 행동일 뿐이다.

장기적 위험(강인공지능 등장)은 크게 고려하지 않아도 무방하다. 인공지능 전문가들에게 설문조사를 해본 결과 실제로 강인공지능이 실현될 시점은 점점 멀어지고 있다.

중단기적 위험(사회 적용, 정책, 분배, 일자리 상실 등)은 실질적으로 고민하고 해법을 찾아야 한다. 이런 것들이 당장 닥쳐올 문제이며, 제 때 대처하지 않으면 사회적 불행이 닥칠 것이다.

<자료>

자율주행차의 책임소재

기술적 측면 말고도 문제가 있다. 핵심은 책임 소재이다. 누가 책임을 질 것인가? 완전 자동화인 5단계가 되면 인간 운전자는 운전에 전혀 관여하지 않는다. 그렇다면 사고가 났을 때 누가 책임져야 할까? 확률적으로는 인간이 사고 낼 확률이 자율주행차 경우보다 훨씬 높지만, 이 경우에도 책임 소재는 거의 분명히 가릴 수 있다. 반면 자율주행차의 경우는 굉장히 복잡하다. 부품 제조사, 완성차 제조사, 부품 알고리즘 프로그래머, 완성차 알고리즘 프로그래머, 도로망 시스템 설계자 및 프로그래머, 아니면 다른 변수들? 고려할 책임 주체가 너무도 많다. 따라서 5단계는 어쩌면 끝내 실현되지 않을지도 모른다. 사회적 합의에 이를 길이 난망하기 때문이다.

트롤리 문제

트롤리 = 광산에서, 캐낸 광석을 실어 나르는 뚜껑 없는 화차(貨車).

사례 1)

트롤리는 선로를 따라 달려오고 있고, 선로에는 다섯 사람이 있다. 당신은 선로 밖에 서 있고 다섯 사람을 구하기 위해서는 선로전환기를 당기면 되지만 그렇게 되면 다른 선로에 있는 다른 한 사람이 죽게 된다. 선로전환기를 당기는 행위는 도덕적으로 허용 가능한가?

사례 2)

트롤리는 선로를 따라 달려오고 있고, 선로에는 다섯 사람이 있다. 당신은 선로 밖에 서 있고, 바로 옆에는 상당히 무거운 사람이 한명 서 있다. 다섯 사람을 구하는 유일한 방법은 옆에 서 있는 사람을 선로 위로 밀쳐서 그 무게로 트롤리를 멈추게 하는 것인데, 이 경우 트롤리는 멈추게 되지만 그 사람은 죽게 된다. 이는 도덕적으로 허용 가능한가?

독일 정부 지침

소위 ‘트롤리’ 문제라고 하는 자율 주행차의 선택 문제는 사실 실제로 자율 주행차에서는 적용할 수 없는 문제일 수 있다. 독일 연방의 운송과 디지털 인프라부에서 2017년에 발표한 자율주행을 위한 윤리 위원회 보고서처럼, 인공지능 소프트웨어는 어떤 상황에서도 사람의 가치를 비교해 어떤 선택적 판단을 내릴 수 없다는 것이 현재 우리가 동의할 수 있는 기준이기 때문이다.

=>독일연방 운송과 디지털 인프라부의 보고서 http://www.itfind.or.kr/admin/getFile.htm?identifier=02-001-180227-000023


[콘텐츠 문의] jim@innoaca.kr