본문 바로가기
대학원 이야기

인공지능 책 추천 : <AI는 양심이 없다> 독후감 📚

by misconstructed 2022. 7. 30.
728x90

<AI는 양심이 없다> 책 표지

출판한 지 3개월째를 맞이한 책 <AI는 양심이 없다>(김명주 지음, 헤이북스 출판)는 최근 1쇄가 완판되고 2쇄로 연이어 나왔다. 이 책이 <인공지능 윤리>에 대한 사회과학 분야 서적이라는 점을 감안할 때, 이러한 판매실적은 예상 밖의 선전으로 보인다. 인공지능이라는 최신 첨단기술이 주는 ‘난해함’은 물론, 윤리라는 단어가 주는 ‘재미없음’이 겹친 주제가 바로 ‘인공지능 윤리’임을 생각해보면 그렇다. 

요즈음 잘 팔리는 IT 분야의 베스트 셀러들은 하나같이 새로운 기회와 엄청난 부를 단번에 가져다줄 것 같은 책들이다. 예를 들면, NFT, 메타버스, 증강현실, 암호화폐, 딥러닝을 꼽을 수 있다. 그런 면에서 인공지능 ‘기술’ 자체도 아닌 ‘인공지능 윤리’를 다루는 책이 IT 전문가들의 관심을 끌기란 쉽지 않다. 그리고 일반인이 바라볼 때도 인공지능 윤리는 자신과 직접적 관련이 없는 미래의 주제이며 소화하기 어려운 주제임에 분명하다. 그래서 이 책을 그 누군가 매장에서 우연히 발견한다고 해도 몇 번 만지작거릴지언정 정작 구매하기란 쉽지 않아 보인다. 

그럼에도 불구하고 신간 출간 3개월도 안 되어 2쇄를 배포했다는 점은, 다른 인공지능 윤리 서적과 달리 <AI는 양심이 없다>에게는 뭔가 끌리는 메시지 혹은 설명하기 힘든 매력이 분명하게 숨겨져 있음을 암시한다. 이런 면에서 2쇄를 읽을 계기는 충분했다.


일반적으로 인공지능은 아직은 태동기술이라서 개발자만 윤리적으로 정신 차리면 특별한 문제가 없을 것으로 간주되어 왔다. 그래서 인공지능 윤리 역시 지금까지 “개발자를 위한 윤리”가 핵심이자 전부이었다고 해도 과언이 아니다. 

인공지능 특히 머신러닝의 경우, 방대한 데이터셋을 학습하여 동작한다는 특성을 고려해보자. 이 학습 과정에서 학습 데이터셋과 기계학습 알고리즘 안에 차별과 편견이 존재하지 않고 공정한 인공지능이 되도록 개발자는 신경을 써야 한다. 이것이 ‘공정성’의 개발자 윤리이다. 

그리고 이러한 학습 데이터셋 안에 개인의 프라이버시 정보가 들어 있다면, 당사자에게 미리 허락을 받아 사용하거나 이를 가명 또는 익명으로 변경 처리함으로 개인정보가 유출되지 않도록 해야 한다. 지난 2021년 초 <이루다 사건>에서는 이것을 지키지 못하여 결국 폐쇄되었다. 이것 역시 개발자가 학습 데이터셋을 수집하고 가공할 때 신경 써야 할 ‘개인정보 보호’의 개발자 윤리이다. 

머신러닝 기반의 인공지능은 대부분 오픈소스를 사용하여 개발된다. 따라서 오픈소스 안에 개발자도 모르는 악성코드가 숨겨져 있거나, 오픈소스 자체에 버그가 존재하여 외부 공격에 취약하다면, 이를 기반으로 개발되는 인공지능 역시 안전하지 못하며 신뢰할 수 없게 된다. 이러한 ‘안전성’과 ‘신뢰성’의 윤리 이슈 역시 개발자가 신경을 써야 한다. 

지금까지 나열한 개발자를 위한 인공지능 윤리 이슈들을 이 책에서도 사례와 원칙을 중심으로 자세히 소개하고 있다. 그런데 이것은 책의 중반부 이후인 3장과 4장에서나 등장한다. 저자는 이보다 앞선 책의 1장과 2장에서 정말 더 강조하고 싶은 내용을 넣었다. 이점이 다른 인공지능 윤리 책과의 가장 큰 차이점으로 보인다. 1장과 2장은 바로 “인공지능 이용자를 위한 윤리”, 즉 “일반인을 위한 인공지능 윤리”을 다룬다. 이 책이 IT 기술 분야 전문 서적이 아니라 일반인을 대상으로 한 사회과학서로 분류된 이유이기도 하다. 


이 책은 1장과 2장에서 장차 인공지능이 우리 사회에서 불러일으킬 엄청난 변화에 주목한다. 인공지능을 미래 기술이라고 착각하면서 모두가 등한시했었던 대목이기도 하다. 그래서 1장과 2장은 지금까지 아무도 논의하지 않았던 신선하고 충격적인 주제, 그러면서도 이미 우리 현실 속에 파고들어 온 이슈들로 가득 차 있다. 이 점이 이 책의 끌리는 메시지, 설명하기 힘든 매력으로 보인다.

이 책은 거의 예언서처럼 보인다. 그런데 이러한 예언의 내용이 하나둘 출간 직후부터 다 맞아떨어지며 나타나고 있는데 이는 결코 우연이 아니다. 그만큼 면밀하게 다방면으로 관찰하고 객관적으로 이슈들을 정리한 결과라고 할 수 있다. 

예를 들어, 2022년 6월 싸이월드는 ‘디지털 상속권 보호 서비스’를 전격 실시하겠다고 해서 세간의 논란 대상이 되었다. 이 책에서는 이미 죽은 자의 디지털 부활 문제를 통해서 디지털 유산 문제에 대한 사회적, 법적 대응을 빨리 준비해야 한다고 지적했다. 같은 시기 구글의 초대형 인공지능 챗봇 <람다 2>에게 8살 아이의 인격이 내재되어 있다는 구글 엔지니어의 주장이 제기되었다. 이에 대한 구글 측과의 논쟁은 이미 일라이자 효과를 통해서 이 책에서 충분히 예고된 ‘의인화’로 인한 갈등 사례이다. 가상 인플루언서, 가상가수, 가상연예인, 가상후보 등 다양한 가상인간의 등장으로 우리 사회는 갈수록 큰 갈등을 겪게 될 것이다. 단순한 직업 대체 문제에서 벗어나 적지 않은 윤리적 이슈가 해결해야 함을 지적한다. 

양심 없는 인공지능이 인간을 대신하여 중요한 결정을 대신하는 상황이 갈수록 더 늘어날 것이다. 그렇기에 양심을 가진 인간이라도 윤리의식을 가지고 선제적으로 인공지능을 바르게 대하는 길만이 나중에 인공지능에게 인간이 배신당하지 않은 길이라고 저자는 주장한다. 인공지능 개발자 못지않게 이용자와 일반시민의 동참이 이미 필요한 시기라는 주장도 강하다.


이처럼 인공지능 개발자보다는 이용자와 일반인을 향한 저자의 메시지를 강조하다 보니 초판에서 제외한 어려운 내용의 원고가 있었다고 한다. 그중 하나가 인공지능 개발자가 실무 현장에서 윤리를 준수하기 위하여 따를 세부 지침이다. 그래서 2쇄에서는 이를 그냥 둘 수 없어서 <별책>에 일부러 담았다고 한다. 한편으로 보면, <별책>은 저자의 전공이 윤리학이 아니라 컴퓨터공학이었기에 집필이 가능했던 내용이기도 하다.

별책에 제시된 “인공지능 개발자를 위한 윤리지침”을 세어보니 38개나 되었다. 나도 현재 인공지능 대학원에서 자연언어처리를 연구하고 있는데, 생각보다 많은 윤리지침에 당황했다. 하지만 인공지능 개발 주기를 따라 순서대로 윤리지침들을 제시하고 있어서 하나씩 차근차근 점검하다 보면 상당 부분은 만족할 수 있을 것 같았다. 물론 생각보다 어려운 개념이나  추가로 완수해야 할 과정도 등장한다. 만일 윤리적으로 인공지능을 개발하려고 결심했다면, 이 정도의 공부와 작업이 추가되는 것은 오히려 바람직할 것도 같다.

 별책에는 인공지능 공급자를 위한 인공지능 윤리지침도 16개가 제시되고 있다. 그리고 유럽연합 집행위원회가 2021년 4월에 발표한 인공지능 법에 대한 제안서도 요약하여 제시된다. 인공지능 법으로서는 세계 최초이므로 이는 참조할만하다. 어떤 서비스를 인공지능으로 만들면 절대로 안되는지, 그리고 어떤 서비스를 인공지능으로 구현할 때 위험성이 커서 조심해야 하는지도 배울 수 있다. 윤리가 법보다 큰 개념이므로 인공지능 법에 대한 학습도 필요해 보인다.


인공지능 윤리는 이제 개발자뿐만 아니라 모든 국민이 관심을 가지고 알아야 할 시간이 되었다. 인공지능 개발자인 나도 이 책 <AI는 양심이 없다>을 읽기 전까지는 ‘인공지능의 윤리적 개발’을 미래의 일, 남의 일처럼 막연하게 바라보았다. 그러나 지금은 그 필요성과 대안적 윤리지침에 다소 감각이 생겼다. 이 책을 앞서 읽으신 이노베이션 아카데미 이민석 학장님께서 “이 책은 대입 논술시험에 나올만한 주제로 가득하다”고 평가하신 글을 본 적이 있는데, 이제는 나도 공감하게 되었다. 그런 면에서 고등학생 그리고 선생님들도 꼭 보았으면 한다. <AI는 양심이 없다>는 이미 다가온 인공지능 시대, 우리가 얼마나 시대적 상상력과 구체적 준비가 여전히 부족한지를 깨닫게 해준 신선한 책이다.

728x90

'대학원 이야기' 카테고리의 다른 글

아부다비 여행 3일차 [2022.12.8]  (1) 2022.12.09
아부다비 여행 1,2일차 [2022.12.6 ~ 7]  (1) 2022.12.08
첫 논문 작성 후기🥲  (1) 2022.06.15

댓글