Event & Insight

뉴스레터 [위클리티티] “피싱 메일 문서 클릭하다 악성코드 실행될 수도”

2024-07-03

페이지 정보

profile_image
작성자 관리자
조회 172회 작성일 24-07-03 13:20

본문

이번 위클리티티에서는 피싱 메일을 통한 악성코드 위험부터 AI 관련한 기업들의 이슈, AI가 대체할 수 없는 인간의 역할에 이르기까지 다양한 주제를 다뤘습니다. 기사를 통해 AI가 가져올 미래와 그에 따른 도전 과제들을 살펴보는건 어떠실까요?
#피싱메일 #악성코드 #바이러스 #경보
“피싱 메일 문서 클릭하다 악성코드 실행될 수도”
안랩 “예방 위해 백신·운영체제 최신 버전 유지
피싱 사이트 차단 기능 활성화 등도 준수 당부”

최근 사용자를 속여 직접 악성코드를 실행하도록 유도하는 피싱 메일이 발견돼 있어 주의가 요구된다.

정보보안 기업 안랩은 2일 “최근 발견한 사례에서 공격자가 비용처리나 운영 지침 검토 등의 내용으로 위장한 피싱 메일과 함께 첨부 파일(.html)을 유포했다”며 “사용자가 내용 확인을 위해 첨부 파일을 열면 엠에스(MS) 워드(Word) 문서로 정교하게 위장한 가짜 페이지와 안내 메시지가 나타난다”고 설명했다.

안랩의 설명을 들어보면, 해당 안내 메시지에는 ‘문서 프로그램의 온라인 버전이 설치되지 않았다’, ‘문서를 보기 위해서는 ‘How to Fix’ 버튼을 클릭하라’는 내용으로 사용자의 클릭을 유도했다. 사용자가 버튼을 클릭하면 문서 프로그램 설치 안내로 위장한 메시지가 나타나며, 동시에 사용자 피시(PC)의 클립보드에는 악성코드가 몰래 저장된다. 메시지의 안내문은 실제로는 사용자가 ‘명령어 실행창’ 혹은 윈도우 파워쉘 프로그램(Windows PowerShell·마이크로소프트가 개발한 명령어 인터프리터)을 실행하도록 유도한다.

안랩은 “사용자가 문서를 보기 위해 무심코 안내에 따르면 붙여넣기 기능(명령어 실행창에서는 ‘CTRL+V’, 윈도우 파워셸 프로그램에서는 마우스 우클릭)으로 직접 악성코드를 실행하게 된다”며 “악성코드에 감염되면 공격자는 사용자 피시에서 시스템 정보 수집, 브라우저 정보 수집, 키로깅, 원격 명령어 실행 ,암호화폐 채굴 등 다양한 악성행위를 수행할 수 있다”고 했다. 현재 안랩 백신 ‘브이쓰리(V3)’는 해당 악성코드를 진단 및 차단하고 있다.

안랩은 피싱 메일로 인한 피해를 예방하기 위해서는 이메일 발신자 확인, 수상한 메일 내 첨부 파일 및 유아르엘(URL) 실행 금지, 브이쓰리 등 백신 프로그램 최신버전 유지 및 피싱 사이트 차단 기능 활성화 등을 준수해야 한다고 당부했다. 또한 사용 중인 프로그램(운영체제·인터넷 브라우저·오피스 소프트웨어 등)의 최신 버전을 유지하고, 보안 패치를 적용하는 것도 필요하다.

류성현 안랩 시큐리티 인텔리전스 센터 분석팀 연구원은 “공격자는 사용자의 의심을 피해 성공 확률을 높이고자 끊임없이 새로운 방식으로 공격을 시도하고 있다”며 “피해 예방을 위해 출처가 불분명한 메일의 첨부 파일은 열지 않도록 주의해야 한다”고 했다.
<출처:한겨레>
#AI #기업이슈 #AI반도체 #딥페이크
"AI혁신 선보일까" 애플, 자체 멀티모달 AI '4M' 공개
텍스트·이미지·비디오 등 한번에 학습 및 분석 지원

애플이 텍스트, 이미지, 비디오, 오디오 등 다양한 데이터 유형을 인식하고 변환할 수 있는 멀티모달 인공지능(AI)모델을 공개했다.

1일(현지시간) 벤처비트 등 외신에 따르면 애플은 멀티모달 AI '4M'의 공개 데모 버전을 허깅페이스 스페이스 플랫폼을 통해 선보였다.

4M은 대규모 멀티모달 마스크 모델링(Massively Multimodal Masked Modeling)의 약자로 다양한 모달리티의 콘텐츠를 처리하고 생성할 수 있는 AI 모델이다.

애플은 지난해 12월 스위스 연방 공과대학 로잔(EPFL)과 협력해 4M에 대한 개념을 소개하는 논문을 공개한 바 있다. 이후 7개월 만에 실제 AI모델이 오픈소스로 공개한 것이다.

허깅페이스 스페이스 플랫폼에 공개된 데모 버전은 4M에 활용된 멀티모달 마스킹 기법을 소개하기 위해 마련됐다.

멀티모달 마스킹은 여러 유형의 데이터에서 중요한 정보만 추출하기 위해 그 외의 정보를 의도적으로 숨기는 기법이다.

4M 데모버전에서는 이미지를 업로드하면 RPG, 심도, 메타데이터, 캡션 등 모달리티의 특성에 따라 마스킹 된 14종의 데이터를 확인할 수 있다.

개발자는 마스킹된 데이터 중 필요한 내용만 선택해 이미지에서 객체를 지정하거나 음성을 텍스트로 전환하는 등 다양한 멀티모달 AI 작업을 보다 간단하게 수행할 수 있다.
애플에 따르면 4M 정식 버전은 텍스트, 이미지, 비디오, 음성 등 다양한 멀티모달을 인식하기 위해 수십종의 마스킹 도구가 마련돼 있으며 해당 데이터 유형을 동시에 처리할 수 있도록 지원한다.

하나의 모델에서 서로 다른 데이터 소스 간의 관계를 학습할 수 있는 만큼 각 데이터 유형의 정보를 상호 보완해 보다 정확하고 신뢰성 있는 예측을 제공할 수 있는 것이 특징이다.
또한 여러 유형의 데이터를 통합적으로 분석하는 과정에서 새로운 패턴이나 관계를 발견할 기회도 제공할 수 있다.
<출처:zdnet>
‘AI 거품론’ 엔비디아 주가 급락, 400조 허공에…테슬라 따라갈까
지난달 글로벌 시총 1위 이후 주가 급락해
“전기차 성장률 둔화되지만 AI는 막 성장기”
한쪽선 “독점력 약화되면 주가 상승여력↓”

인공지능(AI) 반도체 설계기업 엔비디아가 지난달 18일(현지시각) 전세계 시가총액 1위에 오른 직후부터 주가가 급락세를 보이고 있다. ‘인공지능 거품론’이 등장한 까닭이다. 하지만 수년 전 전기차 열풍을 이끈 테슬라 사례에 견줘 거품론은 과도하다는 분석이 좀더 우세하다.

엔비디아가 글로벌 시총 1위에 오른 건 지난달 18일이다. 그러나 ‘세계 1위’는 단 하루에 그쳤다. 19일부터 주가가 내리기 시작했기 때문이다. 18일 이후 지난 1일까지 주가 하락으로 사라진 시총 규모는 무려 약 2900억달러다. 원화로 환산하면 약 400조원 규모다. 국내 시총 1위인 삼성전자(약 488조원)에 맞먹는 규모다.

일단 월가를 비롯해 국내 증권사들 사이에서는 이런 흐름에 대해 ‘단기적 숨고르기’로 보는 시각이 우세하다. 인공지능 반도체가 ‘글로벌 산업 사이클의 역사적 변동’을 추동하는 매개체이며, 그 중심에 엔비디아가 터 잡고 있다는 확신 때문이다. 전문가들은 수년 전 열풍이 불었던 전기차 혁신과의 비교를 통해 이런 주장의 설명력을 끌어올린다.

최근 공개된 이베스트증권 보고서에 담긴 분석이 그 예다. 이 증권사는 “엔비디아와 테슬라는 산업 사이클 측면에서 매력도 차이가 확연하다”고 말한다. 전기차 산업은 코로나 팬데믹 시기에 성장기에 진입한 뒤 불과 수년 만에 성숙기에 들어서며 성장률 둔화가 불가피해진 상황이 됐다면 인공지능 산업은 이제 막 성장기 국면에 들어섰다는 것이다. 이제 청년기에 접어든 산업의 맹주를 겨냥해 ‘거품’을 우려하는 건 지나치다는 뜻이다.

주가 수준도 고평가 국면으로 보기엔 어렵다는 분석도 있다. 2020~2022년 기간 테슬라의 주가 급등기에 견줘 엔비디아를 포함한 인공지능 관련 빅테크인 엠(M)7(애플·마이크로소프트·아마존 등 7개 빅테크 기업)의 주가수익배율이 현저하게 낮다는 것이다. 엔비디아의 주가수익배율은 현재 33배다. 12개월 뒤 예상 실적에 견준 주가 수준을 보여주는 지표다. 주가 급등기 테슬라의 주가수익배율은 230배에 이르기도 했다. 미 경제매체 블룸버그는 최근 엔비디아는 폭발적인 이익 성장률에도 불구하고 주가수익배율은 주가급등기에 나타난 테슬라의 사례에 견줘 여전히 낮다고 보도한 바 있다.

이런 시각에서 엔비디아의 ‘시총 1위 복귀는 시간문제’라는 주장도 있다. “엔비디아가 결국 글로벌 증시에서 새로운 역사를 쓸 것”(대신증권) “믿고 보는 엔비디아, 모든 길은 엔비디아로 통한다”(미래에셋증권)와 같은 국내 증권사들이 펴낸 보고서 제목에서도 증권가의 낙관적 분위기가 물씬 묻어난다. 키움증권은 엔비디아가 조만간 내놓을 차세대 인공지능칩 ‘블랙웰’에 주목하며 “인공지능 흐름이 학습형에서 추론형으로 넘어가면서 데이터센터용 칩 수요가 다시 한번 커질 전망이다. 내년까지 블랙웰 초과 수요 상태가 지속될 것”이라고 내다봤다. 엔비디아의 데이터센터 부문 매출액(지난 2~4월 230억달러)은 총매출액 대비 87%다.
<출처:한겨레>
“AI 박명수·아이유도 끝?” 유튜브, ‘딥페이크’ 콘텐츠 삭제 요청 받는다
미 대선 앞두고 개인정보 보호규정 업데이트

유튜브가 자신의 얼굴이나 목소리를 모방한 생성형 인공지능 콘텐츠의 삭제를 요청할 수 있는 규정을 추가했다. 개인정보 보호를 위한 조치인데, 오는 미국 대선을 앞두고 유명인의 얼굴을 본따 정치적 지지를 호소하는 ‘딥페이크’(가짜지만 실제와 구분이 어려운 인공지능으로 만든 이미지나 영상) 콘텐츠가 유통되는 것을 막으려는 의도도 엿보인다.

1일(미 현지시각) ‘테크크런치’ 등 외신은 유튜브가 생성형 인공지능으로 만들었거나 합성하여 만든 인물 콘텐츠의 삭제를 요청할 수 있도록 개인정보 보호 규정을 업데이트했다고 보도했다. 단 신고는 생성형 인공지능 콘텐츠에 등장해 피해를 본 당사자가 직접 해야 하며, 미성년자이거나 사망한 인물의 경우엔 대리인이 제출할 수 있다.

개인정보 침해 신고가 접수되면 유튜브가 심사에 나선다. 유튜브는 영상 속 특정 인물이 식별 가능한지, 사람들이 진짜로 착각할 법 한지, 패러디나 풍자 등으로 대중의 이익에 부합한다고 볼 수 있는 내용인지 등을 고려해 삭제 여부를 결정한다. 특히 콘텐츠에 유명인이 등장해 범죄 행위를 저지르거나, 혹은 정치인이나 출마 후보자에 대한 지지를 표시하는 등의 행동을 하는지도 고려 대상이라고 유튜브는 밝혔다.

신고가 들어온 콘텐츠의 경우, 콘텐츠를 올린 계정 주인에게도 알림이 가며 48시간 내에 자진 삭제 등 조치를 취할 수 있다. 올린 사람이 바로 삭제하면 신고는 즉시 종결된다. 영상에서 얼굴을 흐리게 처리하는 식으로 특정 인물을 식별 불가능하게 조치를 취하는 것도 허용된다. 다만, 비공개 전환 처리는 안된다. 쉽게 다시 공개로 돌릴 수 있기 때문이다.
<출처:한겨레>
#AI기술 #인간대체 #불가능 #AI토론
AI가 대체 불가능한 인간의 일
[전문] 2024 사람과디지털포럼 연사 토론
인공지능 관련 첨예한 이슈 놓고 4인 4색 토론
‘AI가 자신의 일을 대처할까’ 질문에
4인 모두 “내 일은 절대 불가능” 응답
AI는 인간의 일을 효율적으로 돕는 도구에 불과
가짜 질문 거르고, 좋은 질문 하는 능력은 인간뿐

인공지능(AI) 기술의 본질은 무엇일까? 인공지능이 인간의 직업을 대체할까? 인공지능의 품질은 어떤 기준으로 평가해야 할까? 지난 12일 ‘사람 넘보는 AI, 인간가치도 담아낼 수 있을까?’를 주제로 열린 ‘제3회 사람과 디지털 포럼’의 원탁토론에서 나온 질문들이다.

전치형 카이스트 교수가 이끈 토론에서 기조연사로 참여한 테드 창 작가, 최예진 미 워싱턴대 교수, 아베바 비르하네 아일랜드 트리니티칼리지 교수, 게리 마커스 미 뉴욕대 교수 등 세계적 석학 4명은 인공지능에 대한 핵심 이슈들을 놓고 90분 동안 열띤 토론을 벌였다. 컴퓨터 공학자, 인지과학자, 과학소설 작가 등 각자의 위치에 따라 미묘한 시각차도 드러났지만, 인공지능에 대한 혼돈과 불안을 해소하는 데 도움될 통찰도 나왔다. 인공지능 관련 첨예한 이슈가 망라된 토론의 전문을 정리해 싣는다.

인공지능 도구는 다른 기술과 어떻게 다를까?

전치형 인공지능은 도구입니다. 그런데 인공지능을 단순히 도구라고 규정하기 어려워지고 있습니다. 인공지능은 하나의 도구에 불과할까요? 만약에 도구라면 어떤 도구일까요? 도구가 아닌 다른 무언가일까요?

마커스 저는 인공지능이 도구라고 생각합니다. 하지만 정부와 일반대중은 인공지능을 마술이라고 잘못 이해하는 것 같아요. 인공지능은 수많은 데이터세트와 알고리즘이 모여 있는 소프트웨어에 불과합니다. 대부분의 인공지능 도구는 데이터를 통해서 학습하고 그것을 토대로 작동합니다. 통계와 확률적인 패턴에 기반을 둔 도구이기에 제대로 학습된 곳에서만 작동할 수 있고, 새로운 환경에서는 잘 작동하지 않습니다.

비르하네 인공지능은 그 어떤 도구보다 영향력이 큰 중요한 도구입니다. 그래서 잘 만들어져야 하고 책임성을 위한 메커니즘이 수립되어야 합니다. 기술이 개발·도입되고 나서 오류나 실패가 발견되었을 때 책임을 물을 수 있어야 하기 때문입니다.

최예진 워싱턴대 교수
“AI는 특별하며 대단한 도구…‘창의적 답변’ 생성과정 과학자들도 몰라
AI 결과물, 인간이 제어불가능…출시전 모델 사전검증 절실”
테드 창 SF 작가
“AI 기술 결정권은 빅테크에…인간은 주어진 것을 사용할 뿐
신기술 도입시 도덕적 책임 회피목적 아닌지 자문해야”

최예진 인공지능은 생각보다 대단한 도구입니다. 하지만 과학자들은 이 도구를 어떻게 통제할 수 있을지 잘 모릅니다. 안전성에 허점이 있기 때문에 악용될 소지가 있습니다. 우리는 인공지능이라는 막강한 도구를 제대로 활용할 수 있는 방법을 아직 모릅니다. 지금 인공지능에 대해 과도한 기대도 있고, 과대광고도 있습니다. 하지만 이에 대한 이해가 아직 충분하지 않다고 생각합니다. 저는 인공지능이 특별한 도구이며, 이 도구를 진지하게 받아들여야 한다고 생각합니다.

테드 창 저는 이 질문이 ‘인공지능은 도덕적으로 중립적인가’라는 질문과 유사하다고 생각합니다. 많은 이들은 기술은 하나의 도구로서 중립적이기 때문에 인간의 의도와 활용에 따라 긍정적일 수도, 부정적일 수도 있다고 이야기합니다. 하지만 수류탄이나 지뢰를 도덕적으로 중립적이라고 말할 수 있을까요? 또 지뢰 제거 회사에서 일하는 경우와 같이 특정 입장에 있을 경우, 중립적일 수 있을까요? 중요한 것은 인공지능은 무중력 상태에서 작동하는 게 아니라 특정한 맥락·의도 속에서 작동한다는 것이고 그래서 개발자들은 자신들이 하는 일에 대한 책임을 염두에 두어야 한다고 생각합니다.

인공지능은 어떻게 ‘창의적’ 답변을 할까?

전치형 두 번째 질문은 ‘인공지능은 무엇인가’에 대한 질문입니다. 대규모 언어모델을 기반으로 하는 챗봇은 질문을 이해하고 답변한 것이 아니라 통계적으로 가장 가능성이 큰 답을 제시한다는 점에서 ‘확률적 앵무새’로 봐야 한다는 주장도 있습니다. 이 비유에 대해 어떻게 생각하시나요?

비르하네 ‘확률적 앵무새’는 거대 언어모델에 기반을 둔 생성형 인공지능의 특징을 정확히 포착한 비유라고 생각합니다. 이 시스템의 핵심은 학습된 데이터를 바탕으로 데이터를 재생산하는 것이기 때문입니다.

마커스 비르하네 교수님 의견에 동의하지만 몇 가지 빠진 부분을 말씀드리겠습니다. 챗봇의 경우엔 ‘확률적 앵무새’ 비유가 잘 들어맞습니다. 특정 단어나 문장의 다음 단계에 어떤 것이 와야 할지 예측하는 자동 완성 기능은, 이 비유가 정확히 포착하고 있습니다. 하지만 자율주행자동차가 도시에서 어떻게 운전을 할지, 어느 방향으로 가야 할지를 결정하는 것은 ‘확률적인 앵무새’가 아니라 잘 만들어진 알고리즘 덕분입니다.

테드 창 지난해 제가 ‘챗지피티(GPT)는 웹의 흐릿한 복제본이다’라는 칼럼을 쓴 적이 있어요. 챗지피티는 기본적으로 정보를 축약하고 압축한 버전이라는 것입니다. 인터넷은 실제 세상과 달리, 웹페이지가 가득 모여 있는 곳에 불과합니다. 챗지피티는 웹에서 수많은 정보를 가지고 와서 압축해 표출합니다. 개인용 컴퓨터 서버 용량의 한계로 모든 정보를 손실없이 저장하는 게 불가능하기 때문에, 손실 압축 알고리즘을 사용합니다. 그래서 웹에 있는 정보를 흐릿하게 다시 보여주는 이미지에 불과하다고 말하는 것입니다. 문제는 이 과정에서 환각·오해·잘못된 거짓 정보의 표출 등 오류가 발생할 수 있습니다.

얼핏 보면 챗지피티가 굉장히 예리한 정보를 제공하는 것 같습니다. 문법적으로 정확한 문장을 구사하니까요. 하지만 다른 차원에서 보면 희미한 정보입니다. 부정확하며 여러분을 속일 수 있습니다. 비유하자면, 챗지피티는 ‘스테로이드를 복용하는 자동완성 기능’에 가깝습니다. 어떤 경우에는 자동완성 기능으로 좋은 제안을 보여줄 수 있지만 어떤 경우에는 엉터리 결과물을 내기 때문입니다. 챗지피티는 겉으로 보이는 것과 달리 절대로 신뢰할 수는 없습니다.
<출처:한겨레>

Insight

Total 95건 1 페이지