[유튜브 바로가기]
[애플 팟캐스트 바로가기]

[팟빵 바로가기]

인공지능의 공정성?

인공지능은 인간을 위해 작동해야 하지만, 대표적으로 편향과 차별 같은 문제를 일으키곤 한다. 인공지능을 만드는 법을 이해하고, 대표적인 사례를 분석한 후, 블랙박스 문제로 알려진 문제를 점검해 본다.

인공지능의 공정성을 위한 기초

[유튜브 바로가기]

인공지능이 초래할 문제 중에 편향과 차별 같은 문제는 즉각 심각하게 다가온다. 왜 이런 문제가 생기게 되는지를 인공지능이 학습하는 방식을 알아봄으로써 정확히 이해하고, 문제를 극복할 방안을 찾아볼 기회를 마련한다.

실제의 인공지능을 정확히 이해해야 공정성, 편향성, 차별 등의 문제에 대비 가능하다.

인간이 직접 코드를 작성하는 프로그래밍과 프로그램을 이용하는 기계학습으로 구분된다.

인공지능 기술로 가장 많이 활용하는 것이 ‘데이터’를 활용하는 ‘지도학습’

정확한 데이터, 문제 상황에 맞는 데이터가 필수이다.

데이터가 왜곡되면 그런 데이터를 통해 학습한 인공지능도 엉망진창이 될 수 있다.

인공지능은 패턴 분석에 탁월하고, 기존 사례를 바탕으로 예측을 하는 데 능력을 발휘하며, 최적화에 뛰어난 성능을 발현한다.

편향과 차별의 사례들

[유튜브 바로가기]

인공지능이 각 분야에서 편향과 차별을 드러내는 구체적 사례를 살펴보고, 왜 문제가 생겼으며, 어떻게 대처해야 하는지 이해해 본다.

젠더 편향성(구글번역에서 성별 구분이 없는 언어를 영어처럼 성별 구분이 있는 언어로 변환할 때 기존 사회의 편향이 반영되어 결과가 차별적이 된다. 아마존 인공지능 면접에서 기존 합격자가 주로 남성이었 때문에 남성 위주로 선발하게 될 것이다.)

법률 분야에서 재범 가능성을 평가할 때 과거의 데이터가 편향되어 있기 때문에 흑인 차별이 생겨난다. -> [이정태의 뒤뚱뒤뚱] 알고리즘은 편견을 학습한다?
http://www.aitimes.com/news/articleView.html?idxno=127152

자산관리(금융고객판정) : 신용평가, 대출심사 등에서 기존 데이터 때문에(성별, 인종별, 연령별, 지역별 차별이 생겨난다.-> 인공지능(AI)에게도 편견이 있다? http://www.digitaltoday.co.kr/news/articleView.html?idxno=203742

소결론 : 기존의 편향과 차별 관행을 은폐하고, 나아가 확대 재생산 강화할 수 있다. 학습에 사용하는 데이터가 중요, 데이터를 생산하고 있는 사회를 좋게 만드는 일이 관건이다.

의사결정 과정의 블랙박스 문제

[유튜브 바로가기]

인공지능을 개발하는 과정에서 기계학습, 특히 ‘딥러닝’은 인간이 내부를 들여다볼 수 없는 방식으로 코드를 만든다. 이를 ‘깜깜이 상자’라는 뜻에서 ‘블랙박스’라고 부른다. 블랙박스 때문에 인공지능이 내린 결론에 문제가 생길 때 인간이 해결책을 찾기 어렵다는 문제가 생긴다.

블랙박스 문제란 기계학습의 특성 때문에 인공지능이 내린 결론이 왜 그렇게 되었는지 인간이 알기 어렵다는 문제이다.

블랙박스 의사결정은 자율주행장치, 공공 정책 결정 등에서 왜 그러한 결론을 이끌어냈는지 설명할 수 없다는 점 때문에 문제가 발생할 경우에 해결이 어렵고,

문제에 대한 책임 소재를 밝히기 어려움이 있다.

문제를 해결하기 위해 XAI(eXplainable AI, 설명 가능 인공지능)에 대한 연구가 이루어지고 있으나, 아직 갈 길이 멀다.

신뢰 가능한 인공지능(Trustworthy AI)으로 나아가야 할 것이다.


[콘텐츠 문의] jim@innoaca.kr