이번 위클리티티는 인공지능 분야의 선두 기업인 오픈 AI와 관련된 소식이 많습니다.
인공지능을 떠올릴 때 함께 대두되는 안전성과 관련된 이슈인데요.
관련하여 인공지능 연구 기업이 안정성보다 반짝이는 제품을 택하게 된다면, 어떤 연구를 하고 어떤 결과물을 내놓게 될 지 함께 상상해보는 건 어떠실까요?
|
#AI_안전과_이익 #AI_기술과_영향 #사회적_관심
|
"AI 안전보다 이익이 우선?"…샘 알트먼이 장악한 오픈AI 행보에 '우려' ↑
|
|
'AI 안전팀' 전격 해체, 안전 우려한 反 알트먼 세력 전멸…퇴사 시 불합리한 계약도 논란
챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 점차 'AI 안전'을 등한시하고 수익에 치중하는 듯한 모습을 보이는 분위기다. 사내 'AI 안전팀'을 전격 해체하는 한편, AI 안전성을 강조하는 반(反) 알트먼 세력들도 회사를 떠나면서 오픈AI 움직임에 대한 우려의 목소리도 높아지고 있다.
20일 IT 전문 매체 와이어드 등 외신에 따르면 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치하기 시작했다.
작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다.
수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다.
그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다.
업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 CEO의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다.
실제 오픈AI는 '인류에게 해롭지 않은 AI를 만들겠다'며 지난 2015년 비영리법인으로 출범했으나, 점차 AI 안전성과 개발 속도에서 내부적으로 의견이 갈렸다. 특히 지난해 11월 수츠케버 등이 앞장 서 '회사가 설립 초기 철학과 다르게 상업적으로 변했다'는 이유로 샘 알트먼 CEO를 축출했으나, 알트먼은 대주주인 마이크로소프트(MS)의 지원을 받아 닷새 만에 경영에 복귀했다.
이후 알트먼에 반대했던 이들이 회사를 떠나면서 반대파들은 사실상 오픈AI에서 전멸했다. 이들은 회사를 떠날 때도 다소 불합리한 계약을 한 것으로 알려졌다.
미국 온라인 매체 복스는 "해당 계약에는 회사를 떠난 사람들이 남은 생애 동안 이전 고용주를 비판하는 것을 금지하는 내용이 포함돼 있다"며 "심지어는 비밀유지계약(NDA)가 있다는 것을 언급하는 것 조차 계약 위반"이라고 보도했다.
특히 퇴사하는 직원이 문서 서명을 거부하거나 사후 이를 위반할 경우 오픈AI에서 근무하는 동안 받았던 지분 등 이익을 잃게되는 것으로 알려졌다. 이는 최대 수 백만 달러 가치에 달하는 주식을 포기해야하는 경우도 포함된다.
|
AI로 포르노 영상까지?…오픈AI, '콘텐츠 제작 허용' 입장 번복한 이유
|
|
NSFW 콘텐츠 생성 방안 검토 소식 후 비판 이어져…오픈AI "포르노 만들 의도 없어"
챗GPT 개발사인 오픈AI가 최근 포르노나 유혈 표현, 비방 등을 포함한 콘텐츠를 생성할 수 있도록 하는 방안을 검토했다가 반대에 부딪히자 입장을 번복하며 진땀을 뺐다.
11일 IT 매체 기즈모도 등 외신에 따르면 오픈AI는 지난 9일 "인공지능(AI)으로 포르노 등을 만들 의도가 없다"며 "용납할 수 없는 딥페이크를 방지하기 위해 강력한 안전 장치를 갖추고 있다"고 입장을 밝혔다.
이어 "어린이 보호를 최우선으로 생각한다"며 "연령에 적합한 맥락에서 성에 관한 대화를 신중하게 탐색하는 것이 중요하다고 믿는다"고 덧붙였다.
오픈AI가 이처럼 해명에 나선 것은 자사 제품을 통해 개발자와 사용자가 책임감 있게 NSFW(욕설, 포르노, 누드, 고어 등 위험한 게시물) 콘텐츠를 생성할 수 있도록 하는 방안을 검토하고 있다는 소식이 전해지면서 비판이 이어졌기 때문이다. 오픈AI는 채팅 AI인 '챗GPT'와 이미지 생성 AI '달리', AI 동영상 생성 서비스 '소라'를 개발한 기업으로, 샘 알트먼 최고경영자(CEO)가 이끌고 있다.
앞서 가디언, 기가진 등 일부 외신들은 오픈AI가 사용자들이 포르노나 유혈 표현, 비방 등을 포함한 콘텐츠를 생성할 수 있도록 하는 방안을 검토 중이라고 보도했다. 또 선정적인 텍스트와 누드 이미지 생성을 앞으로도 금지해야 하는지에 대한 논의도 시작할 것이라고 분위기를 전했다. 다만 딥페이크 생성이 허용돼서는 안 된다는 입장을 갖고 있는 것으로 알려졌다. 이 제안은 AI 도구 개발 방법을 논의하는 오픈AI 문서의 일부로 공개됐다.
미라 무라티 오픈AI 최고기술책임자(CTO)는 "아티스트들이 AI를 통해 표현하는 것에 더 창의적인 환경을 원하고 있다"며 "다양한 분야의 아티스트 및 크리에이터들과 협력하여 무엇이 유용하고 어느 정도의 유연성을 제공해야 하는지 파악하는 중"이라고 밝혔다.
이 같은 소식이 알려지자 업계에선 비판을 쏟아냈다. '안전하고 유익한 AI를 생산한다'는 회사의 목표를 훼손한다는 이유에서다. 올해 노골적으로 제작된 미국 가수 테일러 스위프트의 딥페이크 이미지가 X(옛 트위터)에서 무차별 확산되며 논란이 있었다는 점에서도 우려하는 목소리가 나왔다. X는 테일러 스위프트에 관한 콘텐츠 검색을 일시적으로 금지하며 대응했으나, 이 일로 AI가 생성한 포르노 확산의 위험성이 강조된 바 있다.
|
中 알리바바 "초거대 AI 지식 문답 GPT-4 넘었다"
|
|
쳰이퉁원 2.5 발표..."여러 기능 GPT-4 보다 앞서"
중국 알리바바가 초거대 인공지능(AI) 모델 성능이 미국 오픈AI의 GPT-4를 넘어선다고 자신했다.
9일 중국 언론 디이차이징에 따르면 알리바바클라우드가 초거대 모델 '쳰이퉁원 2.5'를 발표하고 여러 항목의 성능이 GPT-4를 넘어섰다고 밝혔다.
알리바바클라우드에 따르면 퉁이쳰원 2.1 버전과 비교했을 때, 2.5 버전은 이해 성능, 논리적 추론, 지시 이행 및 코딩 성능이 각각 9%, 16%, 19%, 10% 증가했다. GPT-4와 비교했을 때, 중국어 환경에서 퉁이쳰원 2.5 버전의 텍스트 이해, 텍스트 생성, 지식 문답 및 생활 제안, 채팅과 대화, 보안 리스크 등 기능은 GPT-4를 넘어섰다고 설명했다.
|
인공지능이 핵무기 발사한다면?…미리 보는 ‘AI 서울 정상회의’
|
|
21~22일 각국 장관·빅테크 CEO 참석
기술 발전 속도 빠른 AI
위험 통제 ‘안전성’ 화두
인공지능을 갖춘 군사 관제센터는 인간의 명령 없이도 스스로 핵무기를 발사할 수 있을까? 신약 개발에 쓰일 수 있다던 인공지능이 수백만의 생명을 위협하는 생물학 무기를 만들어낸다면 어떨까? 회사 면접에서 나를 떨어뜨린 인공지능에게 손해배상을 청구할 수 있을까? 디지털 교과서가 학생들의 시선을 체크해 “수업에 집중하지 않고 있습니다”라고 점수를 낮게 준다면 어떻게 될까?
생성형 인공지능(AI)이 무서운 속도로 발전하고 있다. 스스로 생각하고 학습해 통제가 불가능한 ‘프런티어 에이아이’의 출현도 머지 않았다는 우려 속에, 여러 나라에선 공통의 인공지능 규범을 만들어 관리해야 한다는 목소리가 높아지고 있다. 산업 발전과 국가 안보를 이유로 에이아이 개발에 박차를 가해 온 나라들은 규제에서도 주도권을 쥐려 맞선다. 5월 21~22일 한국에서 열리는 ‘인공지능 서울 정상회의’ 개막을 앞두고 긴장감이 감도는 이유다.
■ 세계는 ‘인공지능 규범’ 주도권 경쟁 중
‘인공지능 서울 정상회의’는 지난해 영국에서 개최된 ‘인공지능 안전성 정상회의’의 후속 회의다. 첫날 정상회의는 온라인으로 진행된다. 22일엔 성북구 한국과학기술연구원(KIST)에서 대면 회의인 장관 세션이 열리고, ‘인공지능글로벌포럼’도 함께 개최해 인공지능 안전성에 대한 논의를 이어간다. 독일, 프랑스, 스페인, 싱가포르 등 장관급 참석이 예정돼 있고, 오픈에이아이와 구글, 마이크로소프트, 앤트로픽 등 빅테크 기업도 한국을 찾는다.
영국에서 열린 첫 회의는 미국, 중국, 유럽연합을 포함한 무려 28개 정부가 인공지능이 불러올 위험에 대비해 세계적으로 협력하자는 ‘블레츨리 선언’에 서명해 눈길을 끌었다. 나라마다 규제 범위와 강도를 놓고 의견이 다른 탓에, 1차 땐 위험성에 대한 인식을 공유하고 안전성 인증 규범을 만들자는 원론적 논의에 그쳤다. 이번 정상회의에선 구체적으로 무엇을 위험하다고 봐야 할 것인가, 또 어떻게 통제할 것인지에 대한 의견을 모아야 한다.
전창배 국제인공지능·윤리협회(IAAE) 이사장은 “기존엔 인공지능의 신뢰성이 문제였다면, 지난해 말부터 안전성 문제가 구체화하기 시작했다”며 “인공지능 윤리와 법제화 주도권을 가져가려는 각국의 경쟁이 치열하다”고 말했다. 유럽연합(EU)은 지난 3월 강력한 처벌 규정을 담은 인공지능법을 세계 최초로 통과시켰다. 미국은 지난해 11월 이후 잇따른 인공지능 관련 ‘행정 명령’을 내리고 있다. 중국은 지난해 일대일로 국가들을 중심으로 기술 오용을 막기 위한 ‘글로벌 인공지능 거버넌스 이니셔티브’를 제안했다. 유엔에서는 3월 인공지능의 안전한 사용에 관한 국제적인 합의를 시급히 마련해야 한다는 내용의 결의안을 냈다.
|
말 많던 'AI 기본법' 결국 무산...22대 국회로 공 넘겨
|
|
21대 국회 과학기술정보방송통신위원회(위원장 장제원)에 계류된 '인공지능(AI) 기본법'이 결국 폐기된다. 21대 국회 임기 종료가 임박했음에도 여야가 끝까지 합의에 적극 나서지 않아 방치됐던 탓이다.
21일 정치권에 따르면 과방위 여야는 이날 열릴 예정이던 전체회의를 개최하지 않기로 했다. 막판 회의 운영과 안건 협의에서 이견을 보인 탓이다.
앞서 '일본 라인야후 사태' 등이 불거지면서 여야는 당초 과방위 전체회의 개회 필요성에 공감하는 듯 했다. 그러나 라인과 관련된 현안 질의에만 집중하자는 여당과 방심위의 징계 남발·예산 낭비 문제도 함께 다루자는 야당이 서로 입장 차를 좁히지 못해 결국 회의는 최종 무산됐다. 과방위는 올 1월 전체회의 이후 감감무소식이었다.
이 탓에 'AI 기본법'은 희생양이 됐다. 이번 과방위의 전체회의 미개최로 일정상 오는 29일까지 국회 본회의를 통과시키기 어렵게 됐기 때문이다.
앞서 과학기술정보통신부는 지난 3년 간 여야 의원들이 개별 발의했던 7개의 AI 관련 법안을 가장 최근 발의된 윤두현 국민의힘 의원안인 '인공지능산업 육성 및 신뢰 확보에 관한 법률'을 기반으로 통합시켜 입법을 추진해왔다.
법안 주요 내용으로는 ▲AI 기술도입과 활용 지원 ▲AI 기술 개발과 창업지원 등 산업 육성 ▲AI 윤리원칙에 따른 정책 수립 ▲AI 신뢰성 확보를 위한 근거 마련 ▲고위험영역 AI 고지의무 부과 등 산업 진흥과 안전한 AI 사용을 위한 내용이 포함됐다.
과방위 소속 의원 한 보좌관은 "공 들여 쌓은 'AI 기본법'이 21대 국회에서 무산됐다"며 "(과방위) 전체회의는 양당 합의가 되지 않아 미개최하기로 했고, 일정을 다시 만든다고 해도 (AI 기본법을) 본회의에 올리기에는 물리적으로 어렵다"고 말했다.
이에 따라 21대 국회가 끝나면 AI 기본법은 폐기된다. 기업연구소법, 망무임승차방지법, 디지털포용법, 디지털안전서비스법 등 AI 기본법과 함께 논의되고 있던 다른 법안들도 사라지게 됐다. 21대 국회 과방위에서 계류 중이던 법안들은 임기 종료일인 이달 29일까지 국회 본회의를 통과하지 않으면 자동 폐기된다.
|
|