[전문] 2024 사람과디지털포럼 연사 토론
인공지능 관련 첨예한 이슈 놓고 4인 4색 토론
‘AI가 자신의 일을 대처할까’ 질문에
4인 모두 “내 일은 절대 불가능” 응답
AI는 인간의 일을 효율적으로 돕는 도구에 불과
가짜 질문 거르고, 좋은 질문 하는 능력은 인간뿐
인공지능(AI) 기술의 본질은 무엇일까? 인공지능이 인간의 직업을 대체할까? 인공지능의 품질은 어떤 기준으로 평가해야 할까? 지난 12일 ‘사람 넘보는 AI, 인간가치도 담아낼 수 있을까?’를 주제로 열린 ‘제3회 사람과 디지털 포럼’의 원탁토론에서 나온 질문들이다.
전치형 카이스트 교수가 이끈 토론에서 기조연사로 참여한 테드 창 작가, 최예진 미 워싱턴대 교수, 아베바 비르하네 아일랜드 트리니티칼리지 교수, 게리 마커스 미 뉴욕대 교수 등 세계적 석학 4명은 인공지능에 대한 핵심 이슈들을 놓고 90분 동안 열띤 토론을 벌였다. 컴퓨터 공학자, 인지과학자, 과학소설 작가 등 각자의 위치에 따라 미묘한 시각차도 드러났지만, 인공지능에 대한 혼돈과 불안을 해소하는 데 도움될 통찰도 나왔다. 인공지능 관련 첨예한 이슈가 망라된 토론의 전문을 정리해 싣는다.
인공지능 도구는 다른 기술과 어떻게 다를까?
전치형 인공지능은 도구입니다. 그런데 인공지능을 단순히 도구라고 규정하기 어려워지고 있습니다. 인공지능은 하나의 도구에 불과할까요? 만약에 도구라면 어떤 도구일까요? 도구가 아닌 다른 무언가일까요?
마커스 저는 인공지능이 도구라고 생각합니다. 하지만 정부와 일반대중은 인공지능을 마술이라고 잘못 이해하는 것 같아요. 인공지능은 수많은 데이터세트와 알고리즘이 모여 있는 소프트웨어에 불과합니다. 대부분의 인공지능 도구는 데이터를 통해서 학습하고 그것을 토대로 작동합니다. 통계와 확률적인 패턴에 기반을 둔 도구이기에 제대로 학습된 곳에서만 작동할 수 있고, 새로운 환경에서는 잘 작동하지 않습니다.
비르하네 인공지능은 그 어떤 도구보다 영향력이 큰 중요한 도구입니다. 그래서 잘 만들어져야 하고 책임성을 위한 메커니즘이 수립되어야 합니다. 기술이 개발·도입되고 나서 오류나 실패가 발견되었을 때 책임을 물을 수 있어야 하기 때문입니다.
최예진 워싱턴대 교수 “AI는 특별하며 대단한 도구…‘창의적 답변’ 생성과정 과학자들도 몰라 AI 결과물, 인간이 제어불가능…출시전 모델 사전검증 절실”
테드 창 SF 작가 “AI 기술 결정권은 빅테크에…인간은 주어진 것을 사용할 뿐 신기술 도입시 도덕적 책임 회피목적 아닌지 자문해야”
최예진 인공지능은 생각보다 대단한 도구입니다. 하지만 과학자들은 이 도구를 어떻게 통제할 수 있을지 잘 모릅니다. 안전성에 허점이 있기 때문에 악용될 소지가 있습니다. 우리는 인공지능이라는 막강한 도구를 제대로 활용할 수 있는 방법을 아직 모릅니다. 지금 인공지능에 대해 과도한 기대도 있고, 과대광고도 있습니다. 하지만 이에 대한 이해가 아직 충분하지 않다고 생각합니다. 저는 인공지능이 특별한 도구이며, 이 도구를 진지하게 받아들여야 한다고 생각합니다.
테드 창 저는 이 질문이 ‘인공지능은 도덕적으로 중립적인가’라는 질문과 유사하다고 생각합니다. 많은 이들은 기술은 하나의 도구로서 중립적이기 때문에 인간의 의도와 활용에 따라 긍정적일 수도, 부정적일 수도 있다고 이야기합니다. 하지만 수류탄이나 지뢰를 도덕적으로 중립적이라고 말할 수 있을까요? 또 지뢰 제거 회사에서 일하는 경우와 같이 특정 입장에 있을 경우, 중립적일 수 있을까요? 중요한 것은 인공지능은 무중력 상태에서 작동하는 게 아니라 특정한 맥락·의도 속에서 작동한다는 것이고 그래서 개발자들은 자신들이 하는 일에 대한 책임을 염두에 두어야 한다고 생각합니다.
인공지능은 어떻게 ‘창의적’ 답변을 할까?
전치형 두 번째 질문은 ‘인공지능은 무엇인가’에 대한 질문입니다. 대규모 언어모델을 기반으로 하는 챗봇은 질문을 이해하고 답변한 것이 아니라 통계적으로 가장 가능성이 큰 답을 제시한다는 점에서 ‘확률적 앵무새’로 봐야 한다는 주장도 있습니다. 이 비유에 대해 어떻게 생각하시나요?
비르하네 ‘확률적 앵무새’는 거대 언어모델에 기반을 둔 생성형 인공지능의 특징을 정확히 포착한 비유라고 생각합니다. 이 시스템의 핵심은 학습된 데이터를 바탕으로 데이터를 재생산하는 것이기 때문입니다.
마커스 비르하네 교수님 의견에 동의하지만 몇 가지 빠진 부분을 말씀드리겠습니다. 챗봇의 경우엔 ‘확률적 앵무새’ 비유가 잘 들어맞습니다. 특정 단어나 문장의 다음 단계에 어떤 것이 와야 할지 예측하는 자동 완성 기능은, 이 비유가 정확히 포착하고 있습니다. 하지만 자율주행자동차가 도시에서 어떻게 운전을 할지, 어느 방향으로 가야 할지를 결정하는 것은 ‘확률적인 앵무새’가 아니라 잘 만들어진 알고리즘 덕분입니다.
테드 창 지난해 제가 ‘챗지피티(GPT)는 웹의 흐릿한 복제본이다’라는 칼럼을 쓴 적이 있어요. 챗지피티는 기본적으로 정보를 축약하고 압축한 버전이라는 것입니다. 인터넷은 실제 세상과 달리, 웹페이지가 가득 모여 있는 곳에 불과합니다. 챗지피티는 웹에서 수많은 정보를 가지고 와서 압축해 표출합니다. 개인용 컴퓨터 서버 용량의 한계로 모든 정보를 손실없이 저장하는 게 불가능하기 때문에, 손실 압축 알고리즘을 사용합니다. 그래서 웹에 있는 정보를 흐릿하게 다시 보여주는 이미지에 불과하다고 말하는 것입니다. 문제는 이 과정에서 환각·오해·잘못된 거짓 정보의 표출 등 오류가 발생할 수 있습니다.
얼핏 보면 챗지피티가 굉장히 예리한 정보를 제공하는 것 같습니다. 문법적으로 정확한 문장을 구사하니까요. 하지만 다른 차원에서 보면 희미한 정보입니다. 부정확하며 여러분을 속일 수 있습니다. 비유하자면, 챗지피티는 ‘스테로이드를 복용하는 자동완성 기능’에 가깝습니다. 어떤 경우에는 자동완성 기능으로 좋은 제안을 보여줄 수 있지만 어떤 경우에는 엉터리 결과물을 내기 때문입니다. 챗지피티는 겉으로 보이는 것과 달리 절대로 신뢰할 수는 없습니다.
|