AI에서 필요한 윤리

AI에서 필요한 윤리
AI에서 필요한 윤리

AI에서도 윤리가 필요한 것이 현실입니다. 문제가 되는 인공지능이 있기 때문인데요. 대표적인 사례를 한번 살펴보겠습니다. 아마 신문에서도 보신 기억이 있을 겁니다. '이력서를 AI가 살펴본다. '라는 기사 보신 적 있을 건데요. 해외 사례이긴 합니다만 아마존이라는 회사 알고 계시죠? 미국에 있는 유통회사인데 아마존에서 너무 이력서를 내는 사람이 많다 보니까 AI가 이력서를 검토해서 거기에서 나온 사람들을 최종 면접을 봤습니다. 그런데 그 결과를 보니까 놀랍게도 여성 참가자들이 현저히 적고, 특히 백인이 많았습니다. 그러니까 어떻게 보면 이런 인공지능을 만든 사람들의 편견이 들어가 있었던 거죠. 이게 문제가 돼서 사실 아마존은 더 이상 AI를 이용해서 면접을 보지 않습니다. 그럼에도 불구하고 많은 기업들이 AI가 이력서를 검토하면 더 정확할 것처럼 많이 호도하고 있습니다. 그 외의 사례를 한번 알아볼까요?

AI가 문제 되는 사례

영화 〈마이너리티 리포트〉의 현실화가 아닌가 하는 생각이 들 수 있는 사례가 있습니다. 피고인의 재범 가능성을 판단하는 인공지능 COMPASS라는 제품을 일부 주에서 활용을 해봤는데, 유사한 다른 범죄자들의 기록과 특정 범죄자의 정보의 빅데이터 분석을 통해서 범죄자의 재범 가능성을 계량화할 수 있다고 주장을 했습니다. 그런데 실제 사례를 보니까 사진에 보이는 것처럼 왼쪽 편에 백인이 보이죠? 이 백인의 재범률은 Low risk라고 나오고 3이라고 나옵니다. 그런데 오른쪽 편에 나오는 흑인의 risk는 High risk에 리스크 범죄 인덱스가 10이라고 나옵니다. 그런데 실제는 왼쪽 편의 사람은 범죄자였고, 오른쪽의 흑인은 그냥 선량한 시민이었습니다. 그러니까 얼굴, 인종, 다른 기록들이 우리 인간이 가지고 있는 편견이 녹아서 만들어진 것이 COMPASS라는 프로그램이었는데, 이런 것을 봤을 때 사실 인공지능이 정확하지만은 않다는 것을 알 수 있는 대표적인 사례라고 할 수 있습니다. 또 한 사례를 살펴볼까요? 2015년도에 있었던 일입니다. 구글 포토 좀 사용하시죠? 저도 구글 포토 잘 사용하고 있는데, 거기에 보면 자동으로 사진을 분류해주는 기능이 있습니다. 제가 비행기 안에서 사진을 찍으면 '비행기 안에서 찍은 사진이네? 여행 중 사진이네?'라고 자동으로 분류해주고, 자동으로 스토리를 만들어서 저한테 서비스를 해주는데요. 2015년도에 처음 이 서비스가 나왔을 때 굉장히 유명한 사건이 벌어졌습니다. 무엇이냐? 사람을 고릴라로 인식한 겁니다. 왜 그랬을까요? 추론컨대 많은 개발자들이 대부분 백인이었고, 흑인을 상정해서 '이 데이터가 흑인일 수도 있다. '라는 거를 인식하게 만들지 않았던 겁니다. 그래서 굉장히 항의를 했었고, 그다음에 프로그램을 대대적으로 수정을 하게 됩니다.

트위터 챗봇 Tay

오른쪽 사진을 보시면 이거는 마이크로소프트에서 만든 Tay라는 트위터 챗봇입니다. 자기가 스스로 생각해서 답변을 할 수 있는 그런 기능을 가지고 있는 트위터 챗봇이었는데요. 실제로 많은 악의적인 장난을 치려는 사람들이 몰려가서 나쁜 말을 가르치기 시작합니다. 나쁜 말을 가르치고, 인종 차별적인 말을 가르치고, 예를 들어서 '유대인들은 다 죽어야 돼. ' 이런 식의 폭력적인 말을 가르치다 보니까 이 Tay가 스스로 얘기하는 멘트, 말 자체가 굉장히 인종차별적이고 폭력적인 그런 성향을 보이게 됐습니다. 결국 서비스 오픈한 지 16시간 만에 중단하게 되었던 마이크로소프트의 흑역사라고 할 수 있죠. 그것뿐만이 아닙니다. 우리가 지금 자율주행 자동차를 이야기하고 있잖아요. 자율주행 자동차를 하려면 많은 표지판들을 보고 인식을 해야 됩니다. 그런데 이 표지판이 사소한 장난을 쳐 보면, 이 표지판을 완전히 엉뚱하게 인식하는 것을 볼 수 있습니다. 예를 들어 볼게요. 그림에서 보듯이 STOP 사인이 나오면 자동차가 서야 됩니다. 내가 손을 대지 않아도 기계가 스스로 판단해서 서야 되는 거죠. 그런데 저 STOP 사인에 스티커를 붙였습니다. 장난을 누가 친 거죠. 위에는 LOVE라는 스티커를 붙였고요. 밑에는 HATE라는 스티커를 붙였습니다. 그랬더니 기계가 인식을 '제한속도 50으로 달려라'라고 인식하고 서지 않고 그냥 지나가버리는 것을 알 수 있습니다. 또 하단에 보면 판다가 보이시죠? 이 판다도 노이즈를 가미했더니 판다와는 완전 다른 종인 원숭이로 인식하는 그런 것을 알 수 있습니다. 왜 이런 일이 벌어지느냐? 다 인공지능이라고 하는 것이 수학적인 확률로 가장 가까운 것을 선택하는 것이기 때문에 그렇습니다. 이것뿐만이 아닙니다. 하지도 않은 말이 화면에 나온다. 굉장히 황당하겠죠. 이게 실제로 있었습니다. 미국의 오바마 대통령이 본인의 정책 하고는 완전히 다른 말을 하는 거죠. 다른 말을 하는 영상을 만들어서 딥 페이크, 영상을 조작하는 인공지능을 만들어서 선보인 바가 있습니다. 물론 이런 것까지 가능하기 때문에 주의해야 된다는 정도로 홍보하는 그런 영상이었긴 했는데, 하지만 이게 실제 상용화되고 있습니다. 대표적인 게 요즘에 굉장히 유행하는 게 K-pop이잖아요. K-pop에 나오는 여 가수들이 딥 페이크로 해서 포르노에 등장하기도 했습니다. 그래서 최근에는 이게 딥 페이크로 만든 가짜 영상인지 아닌지 판단하는 인공지능이 나오기도 했죠. 이거는 만든 사람의 철학적, 윤리적 판단이 결여되어 있기 때문에 나오는 일이라고 할 수 있습니다. 현실 문제로 다가온 인공지능에 대해서 알아보도록 하겠습니다.

+ Recent posts