2017 2018 2019 년 ETRI 강의 때 조금씩 AI 커리큘럼을 넣었다. 첫 해는 OpenCV와 Google API를 이용한 Object Detection, 둘째 해에는 KSB라는 ETRI의 AI 대회에 포기하려는 학생들을 독려하고 3D를 제안하고 프로그래밍을 도와주어 대회에서 수상하게 도왔다. 마지막 해에는 이런 경력이 도움이 되었는지 다른 곳에 강의도 나갈 수 있었고, 기업에서 AI 프로젝트 몇 개를 수행할 수 있었다. 내가 생각하는 가장 큰 수확은 3090 그래픽 카드가 나오자마자 받은 것인데 사실 기업에서도 비밀로 해 달라고 해서 개인 구입으로 이야기를 하고 있다. 물론, 내 돈으로 사도 되겠지만 이것저것 따져보고 사는 것보다 기업에서 시원하게 나오자마자 사 주는 것은 느낌이 많이 다르다. 아이폰 6 때에도 그랬었는데 회사에서 미국에서 대기줄을 세우고 직접 구매한 아이폰을 바로 배송해 주는 방식으로 250만 원 들여서 한국에 나오지도 않은 아이폰을 받을 수 있었다.

 

 믓튼, 잘은 모르지만 어렴풋이 AI를 알게 된 사람은 맞는 것 같다. 그래서 확실히 말할 수 있는 것은 사람의 세계에서도 완벽히 정의되지 않은 풀이 혹은 프로세스를 가지고 AI로 문제가 풀린다는 것은 상상할 수 없다는 것이다. 알파고나 왓슨, 알파폴드가 도전하는 분야는 뭔가가 명확히 정해진 분야였다. 사람이 문제를 풀어가는 명확한 방법을 정할 수 있는 분야다. 그러나 그렇게 하기 힘든 분야가 있다. 가령 심리학 같은 분야를 말한다. 

열길 물속은 알아도 한 길 사람 속은 모른다.

그리고 때로는 자기 자신의 마음도 사실 잘 모른다. 우울증을 약물로 치료하는 것과는 다르다. 우울증 약물은 AI로 만들 수 있다. 사실 모든 약은 AI로 만들 수 있다.

 

최종 책임을 AI로 만드는 것이 사실 모든 기업이 꿈꾸는 AI의 미래다. 사람이 죽거나 다치거나 경제적으로 손해를 보거나 최종 책임을 사람이 아닌 AI로 두는 것이다. 사실, AI가 아니라도 이미 그렇게 하고 있기 때문에 더 쉽게 예측할 수 있다. 이 전 글에서 구글은 커뮤니티에 탓을 돌릴 테고 커뮤니티는 회원에게 탓을 돌릴 것이라고 한 것과 같다. 가령 쿠팡에 환경 호르몬이 나오는 물건을 주문하고 모르고 썼다. 그러나 밝혀지면 쿠팡에서는 해당 업체에 연락해서 반품하라고 할 것이다.(카드 게임, 제빙기 등으로 사실 직접 겪은 일이다.) 그 업체는 연락을 받지 않거나 또 다른 이유를 댄다. 결국 잘못한 사람이 없도록 만드는 것. 즉, 책임 회피가 우리네 세상에서 AI 이전에 이미 이루어지고 있는 행태다.

 그런데 이름이 인공지능이란 것이 나왔다. 얼마나 인공지능으로 책임을 이으려고 하겠는가? 게다가 AI를 이끄는 사람들은 대부분 박사고 그것을 만드는 사람들은 박사가 아니다. 더 손쉬운 구조가 나온다. 그래서 2억 이상을 줘도 아깝지 않은 것은 데이터 사이언티스트의 역량으로 데이터 분석도 자동화할 프로그램도 직접 짜고, 해당 모델을 돌릴 수 있는 설루션까지 만들 수 있는 Software 1.0 + 2.0 기술을 다 함께 가진 사람이다. 고급 인력이 하는 최고 3명분의 일을 하니 연봉은 당연히 2억부터 시작되어야 한다. 물론, 책임도 본인이 지는 것이다.

 모든 분야에서 가장 어려운 것은 사실 '평가'이다. 그러나 올림픽 각 경기에서 평가가 엇갈리는 경우는 거의  없다. 있다고 해도 논란은 끝이 없다. 사실 올림픽 판정 논란으로 구글링 하면 김연아 밖에 나오지 않는다. 그러나 그 종목이  100m 달리기라면? 그 종목이 스켈레톤이라면? 이 뿐 아니라 복싱도 편파 판정이 참 어렵다. 누가 봐도 줘 터진 쪽이 확실한데 그쪽 손을 들어준다면 끝까지 우길 수도 있겠으나, 논란은 끊이질 않을 것이다. AI 가 잘 만들어졌는지 아닌지 평가도 사실 간단하다. AI를 쓰는 이유는 우리 세계의 문제를 빠르고 정확하게 풀려는 것에 있다. 그래서 문제에 대한 결과를 보면 되는 것이다. 그래서 평가 지표가 명확하고 그 평가 지표는 AI 담당자들이 정하고 제시하고 선택은 경영진에서 한다. 그리고 최종 판단은 시장에서 최종 소비자들이 내린다. 이런 구조가 아닌 이상 AI는 믿을 것이 못 된다는 것이다.

http://www.aitimes.kr/news/articleView.html?idxno=14859

설명 가능한 인공지능(XAI)... 왜 주목하나? - 인공지능신문

컴퓨팅 성능 향샹과 잇달은 고성능 AI 칩셋 출시로 엣지에서 수많은 데이터가 생성되면서 인공지능(AI) 모델이 더 정교해지고 뚜렷한 성과도 나오고 있다.기업들은 AI를 새로운 기회로 활용하는

www.aitimes.kr

 

 그래서 XAI가 나왔다.

 

가장 깔끔한 AI는 AI(software 2.0)이 결합된 기존 소프트웨어(software 1.0)이다. 최근 포토샵이라는 그래픽 편집 툴에 AI 필터가 들어가고 있다. AI가 뭔지 몰라도 해당 필터를 썼을 때 내가 원하는 필터인지는 눈으로 바로 확인이 가능하다. 이것이 바로 설명 가능한 AI, 즉, XAI다. 이 말은 AI의 평가자는 결국 사람이라는 것이다. AI를 시작할 때 그 끝은 정해두어야 하는데 딱 이 하나의 룰이면 충분한 것 같다. 4년 공부하면서 깨달은 것은 딱 이 한 줄이다.

AI의 마지막은 결국, 사람이 되어야 한다. 

+ Recent posts