열린 인공지능과 또다른 윤리적 고민
자체무오류를 전제하는 인공지능 논리를수정할 의 득과 실
인공지능 더 안심하고 믿을 수 있게 될 때 폐해 또한 커질 수도
이승훈
승인
2024.02.08 21:41
의견
0
"그것은 어느 컴퓨터도 둔 적이 없는 수였다. 인간이 고려할 법한 수도 아니었다. 새로웠고, 수천 년간 축적된 지혜와의 급진적 결별이자 전통과의 완벽한 단절이었다."
최근 화제가 되고 있는 벤자민 라바툿의 소설 <매니악(미치광이)>에 나오는 한 대목이다. 알파고와 이세돌 기사의 대국을 묘사하고 있다.
이세돌 기사가 앞파고에 한 번 이긴 것은 알파고 인공지능에 존재했던 일종의 버그덕분이었다고 알려졌다. 알파고 이후 한 층 더 학습을 강화한 세계 최고 수준의 오픈소스 바둑 프로그램인 카타고가 나왔다.
카타고에서는 바둑 고수들이 이기는 것이 불가한 것으로 알려졌지만 최근에 헛점이 발견됐다. 지난 해 미국 캘리포니아의 AI연구소인 FAR AI의 인턴 연구원이자 미국 바둑협회 아마추어 6단인 켈린 펠린이 정석대로 두지 않고 꼼수로 두는 전략을 써서 카파고와의 15차례 대결에서 14승 1패라는 놀라운 성적을 거뒀다. 불의의 꼼수를 일일이 학습시키지 못해서 이러한 결과가 나타난 것이 아닐까 추측해볼 수 있다.
켈린 펠린의 꼼수 전략의 성공은 인공지능 산업계에 큰 고민거리를 만들어냈다. 완전 자율주행자동차나 완전자동 주식매매는 불가능한 것은 아닌가? 라는...
그러나 필자는 인공지능의 활용에 인간의 개입과 통제가 들어가는 것이 바람직하다고 보기 때문에 이렇게 꼼수에 약한 인공지능에 대해 별다른 문제의식을 가지지 않는다. 물론 인공지능의 수준 향상은 필요할 것이다.
꼼수와 예외의 돌발상황에 약한 인공지능은 인공지능의 프로그래밍이 자체무오류를 전제로 논리적으로 설계되었기 때문이다. 자신이 틀릴 수 없다. 틀리지 않는다는 전제로 예외나 꼼수를 대하니 전제와 맥락이 달라진 상황에 제대로 대응하지 못한다.
최근에는 인공지능이 자체무오류를 수정해서 자신의 논리, 특히 전제와 배경지식에서 오류가 있을 수 있다는 것을 프로그래밍하려는 시도가 나타나고 있다.
지난 1일 ‘AI SEOUL 2024’ 콘퍼런스에서 UC버클리 스튜어트 러셀 교수는 "인간이 인공지능에게 목표를 직접 설정해주는 방식’으로 인공지능을 개발하면, 인공지능을 통제할 수 없는 위험성이 생길 수 있다"면서 인간이 선호하는 목표를 AI ‘스스로’ 학습하면 인간을 도울 수 있는 인공지능이 만들어진다"고 주장했다.
인공지능도 사람처럼, 각 단계의 추론을 ‘스스로’ 의심해보고 그 종합이 궁극적 목적에 부합하는지 ‘스스로’ 따져보도록 인공지능을 개발해야 한다는 것이다. -나는 이를 '열린 인공지능'이라고 부르고 있다.-
그렇게 인공지능이 자신을 되돌아보고 오류가능을 인정하고 열린 논리를 학습한다면 그 인공지능은 어떤 모습으로 나타날까? 인공지능을 더 안심하고 믿을 수 있게 되지만 인공지능을 사람이 통제해야 한다는 윤리적 지침의 크리티컬함은 무뎌지면서 새로운 위험을 잉태하지 않을까?
인공지능을 더 안심하고 믿을 수 있게 될 때 인공지능의 폐해 또한 커질 수있다는 일견 모순된 상황이 있을 수 있다. 일단 가봐야 아는 일이다. 인공지능 윤리의 또 다른 고민거리다.
평판경제신문 발행인 겸 기자. 레마코리아 대표이사. 문화정책학·과학기술정책학 박사 과정 재학 중, 김대중 전 대통령의 정치경제사상을 연구하면서 정치적 자유주의와 경제적 자유주의를 통합하는 포스트자유주의 이론 체계를 구축하고 있다.
평판경제신문
이승훈
jake.seunghoon@gmail.com
이승훈의 기사 더보기
저작권자 ⓒ 평판경제신문, 무단 전재 및 재배포 금지