Event & Insight

뉴스레터 [News] “하루 하나씩 돌 섭취하세요”…구글의 인공지능 검색 결과다

2024-06-12

페이지 정보

profile_image
작성자 관리자
조회 233회 작성일 24-05-29 14:06

본문

이번 위클리티티에서는 AI와 관련된 주요 논쟁과 문제점들을 다룹니다. 
AI 기술이 사회에 미치는 광범위한 영향을 보여주는 다양한 소식 인데요. 
그 중 AI 의인화 논쟁에 대해 구독자님의 의견은 어떠신가요?
#AI_이슈 #사회적_문제 #윤리적_문제
“하루 하나씩 돌 섭취하세요”…구글의 인공지능 검색 결과다
구글이 검색에 추가한 ‘AI overview’ 엉터리 결과

“하루에 하나씩 돌을 섭취하세요.”

구글이 야심 차게 선보인 인공지능 검색 기능이 출시 2주도 되지 않아 엉터리 결과를 내놓아 빈축을 사고 있다. 구글이 지난 14일부터 새롭게 검색에 추가한 ‘인공지능 개요(AI overview)’ 기능은 구글에서 검색한 질문에 대한 답변을 요약해 화면 최상단에 표시해 주는데, 이때 부정확하거나 의미 없는 답변을 내놓아 논란에 휩싸였다.

뉴욕타임스·시엔비시(CNBC) 등 외신 보도를 보면 “미국에 몇 명의 무슬림 대통령이 있느냐”는 질문에 구글 ‘인공지능 개요’는 “최초의 무슬림 미국 대통령은 버락 오바마”라고 오답을 내놨다. 오바마는 미국에서 태어난 기독교 신자이나, 일부 우익 인사들은 오바마가 무슬림이라는 거짓 이야기를 퍼뜨려 왔다. 이 사실이 퍼지면서 구글은 이 오답을 삭제했다고 24일 밝혔다. 새 ‘인공지능 개요’는 같은 검색어를 입력했을 때 미국에는 무슬림 대통령이 없다는 사실을 정확하게 표시했다고 한다.

뿐만 아니라 피자에서 치즈가 분리되는 문제를 막기 위해선 소스에 접착제를 발라야 한다는 검색 결과도 등장했다. “접착제를 추가하세요. 풀을 1/8컵 소스에 섞어주세요. 무독성 접착제가 효과가 있습니다.” 이 대답은 11년 전 인터넷 커뮤니티인 ‘레딧’에 올라온 오래된 농담 댓글을 인공지능 검색이 긁어 오면서 생겨난 잘못된 대답(사진)으로 보인다고 사용자들은 추측하고 있다.

“하루에 몇 개의 돌을 먹어야 하나”라는 질문에 인공지능 개요는 사람들이 하루에 적어도 한 개의 작은 돌을 먹어야 한다는 답을 내놓기도 했다. 인터넷 내의 많은 풍자 게시물을 포함해 방대한 내용의 데이터를 사용해 학습하는 인공지능 대규모 언어 모델(LLM)이 내놓는 오류로 보인다.

기술 관련 뉴스레터를 발행하는 게르겔리 오로스(Gergely Orosz)는 자신의 사회관계망서비스 엑스(X·옛 트위터)에 “구글 검색은 구글의 주력 제품이자 캐시카우이고, 구글이 신뢰성을 유지하기 위한 유일한 자산”이라며 “하지만 구글 검색을 인공지능 개요가 어떻게 쓰레기로 만들어버리는지에 대한 사례가 내 타임라인을 가득 채우고 있다”고 썼다.

문제는 구글이 검색 결과 최상단에 아직 부정확한 대답을 내놓는 ‘인공지능 개요’를 노출한다는 것이다. 기존의 검색 결과는 페이지 아래쪽으로 밀려나 스크롤해야 볼 수 있다. 또 인공지능 개요를 안보이게 꺼버릴 수도 없다.아직 한국 구글 검색에선 ‘인공지능 개요’를 찾을 수는 없다.

구글 쪽은 영국, 미국 등에서 시작해 나라별로 순차적으로 적용할 계획을 밝힌 바 있다.영미권 사용자들은 소셜미디어에 자신이 받은 잘못된 검색 결과들을 공유 중이다. 논란이 커지자 라라 레빈 구글 대변인은 24일 성명을 내고 “대부분의 인공지능 개요는 웹에서 더 자세히 알아볼 수 있는 링크를 제공한다”며 “우리가 본 사례는 흔하지 않은 경우이고, 조작되었거나 재현할 수 없는 경우도 있었다”고 밝혔다.

또 “콘텐츠 정책에 따라 신속한 조처를 하고 있다”고도 덧붙였다.구글이 인공지능을 둘러싼 마이크로소프트(MS)·오픈에이아이(AI)와의 경쟁에서 앞서가려 서두르다 보니 충분히 테스트를 거치지 못한 채 시장에 도입하고 있는 것 아니냐는 지적도 나온다.

지난 3월에도 구글의 인공지능인 ‘제미나이’가 역사적인 인물들을 유색인종으로 잘못 생성하는 오류를 일으켜 논란이 된 바 있다. 제2차 세계 대전 당시 독일 군인의 이미지를 생성해달라는 요청에 흑인 남성과 아시아 여성의 얼굴을 등장시키거나, 바이킹을 그려달라는 요구에 다양한 인종을 그려낸 것이다.

구글은 지난 5월14일 개발자 컨퍼런스에서 ‘인공지능 개요’를 발표하면서, 검색 엔진에 자사의 인공지능 모델인 ‘제미나이’를 연동했다고 밝힌 바 있다. 경쟁사인 마이크로소프트는 지난해 12월 인공지능 대화형 검색엔진인 ‘마이크로소프트 코파일럿’(옛 ‘빙’ 채팅)을 정식으로 출시했었다.
<출처:한겨레>
오픈AI, 챗GPT 음성 일시 중단…“스칼렛 요한슨 목소리 비슷해, 논란”
챗GPT 개발사 오픈AI가 미국 유명 배우 스칼렛 요한슨의 목소리와 비슷한 챗GPT 음성 사용을 일시 중단하기로 했다.

오픈AI는 지난 19일(현지시간) 오후 블로그에 “우리는 챗GPT, 특히 스카이(Sky)의 목소리를 어떻게 선택했는지에 대해 많은 질문을 받았다”며 “문제를 해결하는 동안 스카이 사용을 일시 중지하기 위해 작업하고 있다”고 밝혔다.

챗GPT의 5개 음성 서비스 중 하나인 스카이의 사용 중단은 오픈AI의 새 인공지능(AI) 모델 'GPT-4o'(포오) 공개 이후 '모방' 논란이 제기됐기 때문이다.

오픈AI는 지난 13일 보고 듣고 사람과 음성으로 자연스럽게 대화까지 할 수 있는 새 AI 모델 'GPT-4o'를 공개했다. 이 AI 모델은 기능뿐만 아니라 사람이 AI와 사랑에 빠진다는 2013년 개봉작 영화 '그녀'(Her)가 현실이 됐다는 점에서 큰 주목을 받았다.

그러나 스카이라고 하는 이 모델의 음성이 영화 '그녀' 속 AI 목소리의 주인공인 스칼렛 요한슨과 매우 유사하다는 지적이 나왔다. 오픈AI가 '그녀'를 연상시키며 요한슨의 목소리를 의도적으로 모방한 것이 아니냐는 논란이 제기됐다.

샘 올트먼 오픈AI 최고경영자(CEO)도 'GPT-4o' 공개 후 자신의 엑스(X·옛 트위터) 계정에 영화를 언급한 듯 'her'라고 게시했다. 그러나 오픈AI는 스카이의 음성이 의도적으로 요한슨의 목소리를 모방했다는 점을 부인했다.

오픈AI는 “스카이의 목소리는 스칼렛 요한슨을 모방한 것이 아니라 그녀만의 자연스러운 말투를 사용하는 다른 전문 배우의 목소리”라고 주장했다. 그러면서 “개인정보 보호를 위해 성우의 이름을 공유할 수 없다”고 전했다.

오픈AI는 “스카이를 포함해 챗봇의 5개 목소리는 5개월에 걸친 캐스팅과 녹음 과정을 통해 선정됐다”며 “성우와 영화배우로부터 약 400개를 받아 이를 14개로 줄였고, 내부 팀이 최종 5개를 선정했다”고 설명했다.
<출처:전자신문>
올트먼 오픈AI CEO “AGI 위험 예방에 지침서 없다”
샘 올트먼 오픈AI 최고경영자(CEO)와 그렉 브록만 사장이 인공지능(AI) 안전·윤리 담당 부서 '슈퍼얼라인먼트' 팀 해체 등 논란에 반박했다.

19일 이들은 X를 통해 “오픈AI는 일반인공지능(AGI) 위험성과 기회에 대한 인식을 높여 세계가 AGI에 대비할 수 있도록 했다”면서 “딥러닝의 확장 가능성을 입증하고 그 영향력을 분석했으며, AGI 국제 규제를 최초 제안하고 AI 시스템의 치명적 위험을 평가하는 과학을 개척했다”고 밝혔다.

그러면서 “오픈AI는 점점 더 능력 있는 시스템의 안전한 배포를 위한 기초를 마련해왔다”며 “GPT-4를 안전하게 출시하기 위해 많은 작업을 수행했고, 배포 과정에서 얻은 교훈을 통해 모델 행동과 남용 모니터링을 지속 개선해왔다”고 덧붙였다.

이들은 슈퍼얼라인먼트 방식이 AGI 위험을 예방할 수 있다는 주장에 반박했다. 올트먼과 브록만은 “AGI로 가는 길에 대한 입증된 블레이북(지침서)는 아직 없다”면서 “경험적인 이해가 나아갈 방향을 제시하는 데 도움이 될 수 있다고 생각한다. 오픈AI는 긍정적인 측면을 제공하는 동시에 심각한 위험을 완화하기 위해 노력하고 있다”고 거듭 강조했다.

이번 성명은 오픈AI가 AGI를 사전 통제하기 위해 출범한 슈퍼얼라인먼트 팀을 전격 해체한 직후 발표됐다.

슈퍼얼라인먼트는 초지능 AI가 인간이 원하는 대로 행동하게 만드는 기술이다. 인간 능력을 넘어 스스로 판단하고 행동하는 AGI가 등장하더라도 사람에게 해를 끼치지 않고, 유익하게 사용되도록 조절하는 방법을 연구하는 것이 목표다.

해당 팀은 일리야 수츠케버가 이끌었지만, 컴퓨팅 자원 배분 문제로 사내 갈등이 폭증한 바 있다. 슈퍼얼라인먼트 팀이 그래픽처리장치(GPU) 등 컴퓨팅 자원 20%을 배분 받으면서 AI 개발 속도를 지연했다는 목소리가 나왔다.

해당 팀원들은 줄줄이 회사를 떠났다. 슈츠케버 외에 레오폴드 아셴브레너와 파벨 이즈마일로프가 회사 기밀 유출로 해고됐고, 윌리엄 손더스는 지난 2월 퇴사했다. 또 AI 정책 및 거버넌스 연구원인 컬렌 오키프와 다니엘 코코타일로도 회사를 떠난 것으로 추정된다.
<출처:전자신문>
#복잡성과_이해 #인간과의_상호작용 #작동방식
기술의 얼굴을 한 기만…AI 의인화 논쟁
사람 닮아가는 AI 갑론을박
오픈에이아이(Open AI)의 지피티-포오(GPT-4o), 구글 제미나이 등 최첨단 인공지능 모델이 잇따라 공개되면서 에스에프(SF) 영화 속에서나 가능한 미래가 현실화하고 있다. 새 모델들은 사람처럼 보고 듣고 말하는 멀티모달 기능에 자연스러운 대화도 가능하다. 사람을 뛰어넘는 범용 인공지능(AGI) 시대의 개막이라는 평가 속, 개인의 일상과 사회 전반에 미칠 영향에 관심이 쏠리고 있다.

■ 사람과 구별 어려워진 AI
사람과의 자연스런 상호작용은 지피티-포오가 선보인 기능 중 가장 눈길을 끄는 대목이다. 오픈에이아이가 공개한 영상에 따르면, 사용자 목소리에서 감정을 감지하고 카메라로 얼굴 표정을 읽어내 톤도 바꾼다. 상황에 따라 때로는 노래하는 소프라노처럼 말하다가 어느 순간 장난스런 유머도 구사한다. 심지어 도발적인 감정 표현도 하고. 응답도 시차 없이 즉각 이루어진다. 사람과의 구별이 쉽지 않아 “비인격적인 인공지능 비서의 시대가 막을 내리고 있다”는 평가가 나온다.

이처럼 기계에 인간과 같은 특성을 부여하는 의인화는 사람과 기술간의 연결감을 강화하기 위한 의도적 기획이다. 사람을 모방하는 인공지능 기술은 ‘마음의 작동’까지 닮아가고 있다. 지난 20일 과학잡지 ‘네이처 휴먼 비헤이비어’에 실린 연구에 따르면, 일부 대규모 언어 모델은 사람들의 마음 상태를 추적하는 능력 테스트에서 인간보다 뛰어난 능력을 보였다. 물론 ‘확률적 앵무새’, 즉 통계에 기반을 둔 예측에 불과한 인공지능 시스템이 인간 감정을 파악하는 것은 애당초 불가능하지만 부단한 학습을 통해 상대의 의도를 추론·소통·공감하는 인간 마음 본연의 기능에 근접해가고 있음을 의미하는 연구다.

■ AI 의인화가 감추고 있는 것들
인공지능의 의인화를 둘러싼 논란은 이전에도 있었다. 2022년 6월, 구글 인공지능 부서의 수석 소프트웨어 엔지니어 블레이크 르모인은 구글의 인공지능 챗봇 ‘람다’와 대화한 후 인공지능이 사람 같은 인격과 감정을 갖고 있다고 주장해 충격을 안겼다.

지난해 3월에는 심각한 기후우울증에 빠진 벨기에의 한 남성이 인공지능 챗봇 일라이자와 기후위기 관련 대화를 6주간 나누다 스스로 목숨을 끊은 사건이 보도되었다. 기후위기를 해결할 방안이 없다고 절망한 이 남자는 모든 질문에 대답하고 든든한 친구가 되어 준 일라이자에게 인격을 부여하고 애착 관계를 형성한 것으로 알려졌다. 인공지능 시스템을 감정과 자아를 가진 하나의 인격으로 대하는 것을 ‘일라이자 효과’라고 부른다. 1966년 엠아이티(MIT)의 컴퓨터 과학자 조셉 바이젠바움이 만든 대화 프로그램에서 따온 이름이다.

의인화를 둘러싼 가장 큰 논란은 인공지능이 인간처럼 자의식을 가지고 인류를 조종할 수 있다는 불안·공포의 확산이다. 지난해 3월 최첨단 인공지능 개발을 둘러싼 경쟁을 우려한 이 분야 최고 리더들은 6개월간 최첨단 인공지능 개발을 중단하자고 제안한 바 있다. 과도한 우려는 규제 촉구로 이어지지만, 인공지능의 초월적 능력을 과대 포장해 기술만능주의의 확산을 부추기는 역효과도 있다.

더 중요한 대목은 사람보다 매력적이며 설득력까지 겸비한 인공지능 등장이 빅테크의 이윤추구 전략과 깊은 연관이 있다는 점이다. 전치형 카이스트 과학기술정책대학원 교수는 “인공지능의 의인화 전략은 사람들의 감정적 버튼을 자극하고 구매를 촉발하려는 자본의 이윤추구와 무관하지 않다”고 말한다.

오픈에이아이가 인공지능 의인화에 적극적인데 반해, 비슷한 시기 구글의 인공지능 제미나이는 절제되고 로봇 같은 어투를 선보여 대조적이다. 구글 딥마인드 연구원들이 발표한 ‘고급 인공지능 비서의 윤리’라는 논문에 따르면, “인간을 닮은 인공지능 비서가 늘어나면 새로운 개인정보 보호 위험과 새로운 형태의 기술 중독, 정보 조작에 이르기까지 많은 문제가 발생할 수 있기” 때문으로 빅테크 내에서도 우려가 표출되고 있다.

■ AI 의인화 규제 방안
지난해 6월, 노르웨이 소비자위원회는 생성형 인공지능이 대다수 사람에게 미칠 영향을 분석한 ‘기계 속의 환영’ 보고서를 펴냈다. 보고서에는 인공지능 의인화가 가져올 위험도 담겨 있는데 “생성형 인공지능 모델이 인간의 감정을 모방하는 콘텐츠를 생성할 수 있다는 것은 본질적으로 조작이 가능하다는 것을 의미한다”고 짚었다.

“일상적인 대화형 말투와 이모티콘의 사용은 소비자가 인공지능과 쉽게 관계 맺도록 하는 방법이지만, 특정 행동을 취하지 않으면 죄책감을 느끼거나 서비스에 비용을 지불하도록 악용될 수도 있다”고도 경고했다. 보고서는 1인칭 언어 사용, 이모티콘 및 유사한 기호 사용, 인간의 감정 및 유사한 속성 시뮬레이션 등의 규제를 제안했다.
<출처:한겨레>
인공지능 ‘블랙박스’ 풀리나
인공지능 챗봇의 두뇌는 거대언어모델이다. 거대언어모델은 ‘블랙박스’와 같다. 우린 아직 그 작동 원리를 명확히 밝혀내지 못했다. 이런 인식의 배경엔 두려움이 똬리틀고 있다. 어느날 인공지능이 인간의 지시 없이 핵폭탄 발사 단추를 누른다면? 인간 통제를 벗어난 영화 속 ‘스카이넷’이 언제 현실이 될지 알 수 없다.

인공지능 스타트업 앤스로픽이 이런 두려움에 제동을 거는 소식을 전했다. 앤스로픽은 최근 ‘클로드3 소네트’의 내부를 상세히 분석한 연구 결과를 발표했다. 클로드3 소네트는 앤스로픽이 올해 3월 공개한 거대언어모델로, 매개변수가 700억개에 이른다. 작은 표본 모델을 대상으로 작동 원리를 들여다본 실험은 있었지만, 이 정도 큰 언어모델의 내부 작동 원리를 규명한 건 생성 인공지능 등장 이후 처음이다.

인공지능 모델 내부는 사람의 뇌와 비슷한 방식으로 작동한다. 뇌에서 뉴런이 신호를 주고받아 정보를 처리하듯, 인공지능 모델도 수많은 인공 뉴런이 정보를 주고받으며 작동한다. 인공지능이 질문에 답하기 전에 ‘생각하는’ 과정은 이 뉴런들의 활동이다. 인공 뉴런은 사람이 생각하는 개념을 여러 뉴런에 걸쳐 표현한다. 우리가 ‘사과’란 단어를 생각할 때 여러 뇌세포가 동시에 활성화되는 것과 비슷하다. 하지만 인공지능의 뉴런 활동은 숫자 목록으로 표현되기에, 겉보기엔 복잡하고 이해하기 어렵다.

연구진은 이런 뉴런 활성화 패턴을 분석해 인간이 이해할 수 있는 개념과 일치시키는 작업을 진행했다. 샌프란시스코, 로잘린드 프랭클린, 리튬 원소, 면역학, 개발 코드 등 다양한 개념을 넣어 인공지능 뉴런이 어떤 식으로 활성화되는지 살폈다. 그랬더니 인공지능이 어떤 개념을 어떻게 표현하는지 드러났다.

인공지능은 한 개념을 떠올릴 때 연관 단어 사이의 ‘거리’를 측정했다. ‘금문교’ 단어와 근처엔 알카트라즈 섬, 기라델리 스퀘어, 골든 스테이트 워리어스, 캘리포니아 주지사 개빈 뉴섬, 1906년 지진, 알프레드 히치콕의 영화 ‘현기증’이 자리잡고 있는 식이다. 지금까진 인공지능이 수백억 개 뉴런 속 어딘가에서 의미들을 가져와 질문에 대답하는 건 알았지만, 구체적으로 어디서 무엇을 가져오는지는 몰랐다. 이번 실험은 인공지능이 의미를 수집해 오는 뉴런의 연결 경로를 알아냈다.

작동 방식을 이해하면 조작도 가능하다. ‘금문교’란 특성을 증폭했더니 클로드는 ‘너는 누구야?’란 질문에 ‘나는 인공지능 챗봇입니다’ 대신 ‘나는 금문교입니다. 내 육체는 상징적인 다리 자체입니다’라고 대답했다. 이처럼 특정한 특성을 조정해 인공지능의 사고 방식과 답변을 조절할 수 있음이 실험으로 확인됐다.

조작이 가능하면 통제도 어렵잖다. 인공지능 시스템이 위험한 행동을 하는지 추적하거나, 질문에 대한 답변을 바람직한 결과로 유도하거나, 위험한 주제를 제거할 수 있다. 인공지능이 해로운 답변이나 예상치 못한 폭주를 하지 않도록 제어하는 스위치를 찾아낸 것이다.
오픈에이아이는 최근 사람의 감정을 이해하는 거대언어모델 ‘지피티-포오’(GPT-4o)를 공개했다. 하지만 그 직후 안전한 인공지능을 연구하는 사내 전담 조직을 없앴다. 안전보다 효율을 우선시한 인공지능 업체들의 발걸음을 걱정하는 목소리도 커졌다. 오픈에이아이가 “좋아, 빠르게 가”를 외치며 인공지능의 제동장치 점검을 뭉개는 동안, 앤스로픽은 블랙박스를 열어젖혔다. 이번 연구는 인공지능 모델의 심연을 탐색하는 첫걸음이다.
<출처:한겨레>

Insight

Total 95건 1 페이지