30 September 2024
N번방 사건이 터진지 얼마 되지도 않은 것 같은데, 다시 전국을 뒤흔들만한 사건이 발생했습니다. 이번엔 친구나 지인 사진에 음란물을 합성하는 '딥페이크' 범죄가 발생한 것입니다. 피해는 갈수록 눈덩이처럼 불어나고 있는데요. 이는 누구나 쉽게 불법 합성물을 만들고 퍼트릴 수 있기 때문입니다. 사진 한 장만 있으면 알아서 불법 합성물을 만들어주고 비공개 사진까지 해킹해 주는 텔레그램 봇들이 수천 개, 사용자는 수십만 이상에 달합니다.
간단한 봇을 활용한 비공개 소셜미디어 계정 해킹
이런 봇들 중에는 소셜 미디어를 해킹해 주는 봇도 있는데요. 사진도용을 막기 위해 SNS를 비공개로 바꾸면 해킹으로 뚫어 해당 SNS 채널에 있는 사진을 크롤링, 딥페이크 음란물을 합성하는 용도로 사용하는거죠. 딱히 제약이 있는 것도 아닙니다. 아무나, 누구나 들어갈 수 있습니다. 비공개 계정으로 돌리건, 하이라이트를 내리건 보관함 자체를 해킹해버리는데 답이 없습니다.
사실 이런 문제는 올해 초부터 문제가 되기 시작했습니다. 등장 당시에는 조롱의 대상이었던 이 신기술이 급격하게 발전, 이제는 진짜와 가짜를 구분할 수 없을 정도로 강력해졌습니다. 보안업체 iProov CTO 도미닉 포레스트는 "보안 전문가로서 수십 년 동안 가짜와 진짜를 구분하는 일을 해왔고, 그 일에 상당히 자신이 있었는데 (딥 페이크 기술 때문에) 2020년경 부터는 구분이 어렵다고 느꼈다"고 말했습니다.
생성형 AI로 인해 획기적으로 낮아진 합성 난이도
생성형 AI 기술이 발전하면서 딥페이크에 접할 수 있는 창구가 늘어나고 딥페이크를 사용한 합성 난이도가 상당히 낮아졌다는 것 역시 문제입니다. 아니 이것이 핵심입니다. 생성형 AI 사용의 기술적, 가격적 진입장벽이 차차 내려갔습니다. 2010년대만 하더라도 AI와 딥페이크를 다룬다는 건 전문가의 영역이었고 작업의 난이도도 매우 높은데다, 강력한 컴퓨터가 필요하고 성능도 애매했습니다. 하지만 지금은 아닙니다. 간단한 앱을 무료로 다운로드 하거나 수십 달러 정도의 돈만 내면, 심지어 요즘은 전문화된 봇까지 등장하여 양질의 딥페이크 콘텐츠를 누구나 만들 수 있게 된 것입니다. 지금 가장 큰 문제가 되는 것은 얼굴 교체입니다.
Face Swapping이라고도 불리는데요. 이런 얼굴 교체 전문 도구가 올 초부터 다크웹에서 급증, 수백에서 수천개까지 나돌기 시작했습니다. 다크웹이 아니더라도 마찬가지입니다. 정상적인 경로를 통해서도 얼굴 교체 기능이 있는 앱들은 얼마든지 찾을 수 있습니다. 지금 시점에서 이 기술은 딱히 신기하지도, 특별한 기술이 필요하지도 않습니다. 포토샵 등을 통해 음란물을 한땀 한땀 위조하는 시대는 더 이상 지났다는 겁니다. 이제 실제 사람의 모습과 행동이 담긴 3분짜리 영상과, 그 사람이 실제로 말한 문장 100개만 있으면 딥페이크로 어떤 내용이든지 가짜 영상을 만들 수 있습니다. 가짜 영상은 실제와 구분이 불가능할 정도로 정밀합니다.
그러나 구독자 수가 119만에 달하는 유튜버 '뻑가'는 이번 텔레그램 딥페이크 사태에 대해 "호들갑을 떤다", "(사건을 공론화하는) 사람들 보면 이런 (음란물) 정보에 밀접하게 반응하고 참여하고 있다고 보면 된다"고 비난했습니다.
또 문제를 제기한 박지현 전 더불어민주당 비상대책위원장에 대해서는 "또 신나게 나와서 22만명 이렇게 선동하고 있다. 아주 눈에 불을 켜고 남혐(남성혐오)하려고 한다. 무슨 국가 재난이냐, 미쳐가지고"라고 맹비난했습니다.
이 유튜버는 텔레그램 음란물 봇 채널 참여자 22만명에 대해 "저게 전 세계 사람들 다 모여 있는 단체방이다. 수치적으로 한국인의 텔레그램 이용자 수는 전 세계에서 0.33%다. 22만명의 0.33%는 726명 밖에 안된다"라는 논리를 폈습니다. 이준석 개혁신당 대표 역시 이 수치를 근거로 똑같은 주장을 폈습니다. 별 일 아니라는거죠.
딥페이크, 음란물 제작을 넘어 개인정보 유출의 문제
하지만 이번 사태의 본질은 타인의 사진을 이용해 음란물을 제작하고 공유하는 범죄 행위 그 이상이라고 봐야 합니다. 이 사건의 본질은 다양한 해킹 기법과 AI가 결합하여 좀 더 파괴적인 결과물을 낳은 개인 대상 APT 공격이라 보는 것이 맞습니다. 정부는 텔레그램 해킹 주의보를 발령하고 2차 인증을 설정하라고 했지만, SNS 해킹 봇과 결합해서 이미 감당할 수 없을 만큼 규모가 커졌다는 것을 생각해보면 문제는 이후 더욱 커질 가능성이 큽니다. 실제 2018년 당시 인스타그램 커뮤니티 내에서 해킹 관련 소식이 급증한 적이 있었는데요. 일부 계정을 복구했더니 러시아발 공격 흔적이 나오기도 했습니다.
인스타그램은 당시 대변인을 통해 "계정에서 해킹이 발생한 걸 인지하면 인스타그램에서는 해당 계정에 대한 접근을 차단하고, 계정 원래 주인이 계정 복구 절차를 밟도록 안내를 해줍니다. 여기에는 비밀번호 리셋 등이 포함됩니다."라고 말했지만, 크롤링은 초 단위로 진행되는지라 해킹이 한번 발생한 후에는 어떤 방법으로든 감당할 수 없게 됩니다. 심지어 한 사용자는 이중인증 옵션을 사용하고 있었는데도 해킹을 당했다고 주장하기도 했습니다. 창과 방패의 싸움에서 더 이상 방패가 제 기능을 못하게 된 것입니다.
전문가들은 당시 이 공격 목적에 대해 "많은 인스타그램 계정을 스팸 봇 등으로 활용하기 위해서일 것"이라고 분석했지만, 지금 상황은 조금 더 나쁘게 돌아가고 있습니다. 청주 한 중학교 재학 중인 B양은 "지난 20일 자고 일어났더니 새벽에 경기도 용인에서 인스타그램 계정 로그인이 된 기록이 남아있었다"면서 "SNS 사진을 해킹을 한 뒤 딥페이크로 재생산해 텔레그램 방에 판다는 소문을 들어 너무 불안하다"고 말하기도 했습니다.
굳이 해킹을 하지 않아도 됩니다. 글래사그램을 위시한 소위 '인스타-스파이'라는 프로그램들이 유통되고 있기 때문입니다. 이 앱은 복잡한 해킹 없이 인스타그램의 취약점을 이용해 다른 사람의 스토리를 몰래 확인하고, 크롤링 할 수 있게 해 줍니다. 이 과정에서 완벽한 익명성이 보장되기 때문에 더욱 문제가 됩니다. 이 앱은 안드로이드 및 iOS 기기에서 작동하는데요. 비공개 계정이라 하더라도 최대 8-10일이 걸릴 뿐, 일단 핸들네임이나 URL만 알게 된다면 대부분의 비공개 계정의 보관함에도 접근할 수 있게 해 줍니다. 설치를 위해 상대방의 기기에 접근할 필요 없이 계정 아이디만 알고 있으면 추적이 가능하죠. 상대방이 주고받은 메시지나 민감한 정보를 보는 것은 불가능하다지만, 원래 공격자들의 목적이 얼굴이 나온 사진 한 장만 확보하면 되기 때문에 아무런 문제가 되지 않습니다.
N번방 사건과 유사한 사회공학적 해킹과 피해 사례
거기다 더해 한번 이렇게 딥페이크 음란물이 만들어지면 거기서 파생되는 사회공학적 해킹도 문제가 됩니다. 성범죄자들은 피해자와 그 지인에게 개인정보를 자동으로 수집하는 피싱 링크를 보내고 신상정보를 알아냈다며 협박했습니다. 피해자에게 해킹 프로그램이 심어진 링크를 보내고 이를 빌미로 성착취를 했던 N번방 수법과 동일합니다. 경찰이 수사에 착수했지만 일부 가해자들은 "합성 좀 했다고 벌받는 게 말이 되느냐"는 행태를 보이기까지 했습니다. 딥페이크 음란물 합성 채팅방 참여자들은 피해자에게 신상정보를 요구하는가 하면 "어느 학교에 다니는 누구인지 이름을 말하면 합성한 사진을 올려주겠다"고 조롱하기도 했는데요. 소위 '지인능욕 링공방'에선 N번방 가해자들의 범행 수법을 답습한 2차 가해도 이뤄졌습니다.
텔레그램의 경우 대화방 운영자가 방 검색을 허용하지 않게 설정할 수도 있는데요. 원하는 봇을 사용하기 위해서 봇이 있는 대화방에 들어가기 위해선 입장 링크를 알아야 합니다. 이런 링크를 공유하는 곳을 줄여서 '링공방'이라고 합니다. 참여자들은 피해 사실을 확인하러 온 여성들에게 "여기는 링공방이라 사진이 없다. 딥페이크방 주소를 알려주겠다"며 입장 링크를 보냈지만, 이 링크는 피싱 링크였습니다. 링크를 클릭하면 사용자의 IP 등 개인정보가 유출되도록 해킹 코드가 심어져 있었던거죠.
이는 과거 N번방 가해자들의 범행 수법과 동일합니다. 딥페이크 가해자들도 별반 다르지 않았습니다. 피해 사실을 확인하러 온 여성에게 "내가 보낸 링크를 눌렀냐", "네 전화번호와 IP가 모두 털렸을 것"이라고 협박했습니다. 심지어 가해자들은 죄의식을 느끼지 못하는 것처럼 보이기까지 했습니다. 오히려 한 주만 지나면 다른 이슈에 묻힌다며 자신만만한 태도를 보이기도 했죠. 해당 방 참여자들은 "합성 좀 했다고 벌을 받는 것이 법치국가가 맞느냐"며 "딥페이크 봇은 중국과 미국에서 만든 것이라 한국사람 다 잡혀가도 딥페이크는 없어지지 않는다"고 말하기도 했습니다.
다양한 해킹 수단의 결합이 불러 일으킨 거대한 보안 문제
사건의 해악, 그리고 사용자들의 2차 가해 문제를 모두 접어두더라도 이번 사건은 생성형 AI와 SNS 해킹 도구, 그리고 사회공학적 해킹이라는 복합적인 공격 수단이 모두 결합하면 얼마나 무서운 변종이 되었는지를 보여주는, 보안적으로도 매우 중요한 사건이라고 볼 수 있습니다. 이 사건은 단순히 음란물 합성에 그치지 않을 것입니다. 이미 사람이 맨눈으로 딥페이크로 만든 영상을 보고 진짜와 가짜를 식별하는 건 불가능해졌다고 하는데요. 이런 결과물이 신분 도용 등에 활용, 금융 인증 등에 사용되기 시작한다면 어떻게 될까요? 심지어 이런 음란물을 합성하는 봇들은 작업 과정에서 되먹임 과정이 발생, 생성형 AI를 더욱 강하게 학습시켜주며 AI를 강화시킵니다. 문제는 이 점입니다. 생성형 AI에서 가장 큰 문제가 되는 것은 적절한 수준의 학습 데이터를 수집하는 것인데요.
최소한의 데이터를 학습시켜 어떻게든 딥페이크 음란물을 만들어 내고 공격자들에게 공유할 수 있게 되면 음란물을 원하는 악성 사용자들이 데이터를 자발적으로 가져다주며 악성 인공지능의 학습을 더욱 빠르게, 강하게 만들어 주는 것입니다. 거기다 SNS 해킹/크롤링 봇, 피싱 링크가 결합하여 더욱 파괴력이 강해진 것이죠.
이 문제는 단순히 청소년의 일탈이나 개인의 부주의로만 접근해서는 안 됩니다. APT(Advanced Persistent Threat) 공격과 동일하게 복합화 된 공격이, 자동화된 인공지능 도구를 통해 개인의 내밀한 사생활을 뚫고 들어가는데까지 악용되고 있다는 점에서 이제는 개인마저 기업 레벨, 아니 그 이상의 보안성을 요구하는 시대가 되어버렸다고 봐야 한다는 것입니다.
2008년에 개봉했지만 볼 때마다 여전히 새로운 영화 같은 <다크 나이트>의 한 장면을 기억하시나요? 고담 시민들과 죄수가 각각 탑승한 배의 선창내 가득 실린 폭발물 기폭 장치를 가지고 있던 조커를 찾기 위해 배트맨이 특수한 장비를 가동하던 장면 말입니다. 루시우스 폭스의 도움을 받아 만들어진 그 장비는, 고담 시민들이 가진 각각의 휴대전화를 해킹해서 일종의 레이더처럼 고주파를 발신, 소리를 사용해 입체 영상화 하여 주변 상황을 재구성하는 한편 통화내용을 감청해서 실시간 모니터링하여 목표하는 대화가 들리는 곳을 추적하고 해당 지역의 영상을 감시할 수 있게 하는 신개념 해킹 장비(영화 속 명칭- Sonar Vison[소나 영상])였습니다. 영화를 보면서 저런 일이 가능할지 상상의 나래를 펼쳤던 기억이 있는데요. CCTV 감시와 메신저 추적: 현실이 된 사이버 해킹 영화에서도 루시우스 폭스는 이 장비를 보고 "아름답고, 비윤리적이며, 위험하다"고 말했습니다. 한참을 보더니 "이것은 잘못된 일"이라고 못 박았죠. 그런데 이런 해킹 장비가 현실에 구현이 되어, 실제로 사용될 뻔했다면 어떻게 될까요? 12.3 비상계엄 사태에서 나타난 새로운 증언에 따르면, 위 영화와 같은 기술이 사용될 뻔한 것에 대하여 믿을 수 없는 충격을 선사하였습니다. 국회 12.3 진상조사단(이하 조사단)은 지난 13일 사이버작전사령부(사이버사)산하 해킹 부대이자 군직제에도 미공개 된 비밀특수부대인 '900연구소'가 비상계엄에 개입했다는 제보를 받았다고 밝혔는데요. 조사단은 사이버사가 지난 8월 을지연습(UFS) 훈련에서 '북 거점 초토화 훈련'과 'SNS(Social Network Service, 사회관계망서비스) 장악 훈련' 등 새로운 사이버 훈련을 진행했다는 정보를 입수, 비상계엄을 대비한 훈련에 대한 의혹을 주장하기도 했습니다. 여기서 흥미로운 점은 ‘SNS 장악 훈련’입니다. 조사단은 "(900연구소가 하는)SNS 장악훈련은 유튜브, 페이스북, 텔레그램 등 SNS 중 반국가세력 관리자 그룹, 혹은 유력 인사의 계정을 장악/탈취해, 그 권한으로 나아가 댓글 조작 등을 시도하는 내용"이라고 주장했는데요. 이렇게 되면 메신저로 대한민국 국민들이 어떤 이야기를 하는지 전부 수집할 수 있고, 또한 해당 계정을 직접 공격할 수 있게 됩니다. AI가 적용된 LLM(Large Language Model, 대형 언어 모델)과 결합하면 감청하고자 하는 텍스트를 자동화된 인공지능이 빠르게 탐색할 수도 있겠죠. 거기다 국군 전산병들의 해킹 기술은 그리 나쁜 편이 아닙니다. 지난 C4I 모의 장비 해킹훈련 시에는 순식간에 각 사무실 단말기부터 중앙서버까지 탈취하기도 했죠. 그 뿐만이 아닙니다. 비상계엄이 선포되기 직전부터 육군 특수전사령부와 수도방위사령부 군인들이 서울시가 관리하는 CCTV를 감시 및 관찰한 것으로 보도되기도 했습니다. 군 관계자는 서울시에 별다른 설명 없이 '장비 점검'과 '시스템 테스트'라며 CCTV를 들여다봤다는 데요. 용산구 한남동 일대를 비추는 CCTV와 강남구 압구정동, 종로구 자하문로, 헬기가 착륙할 수 있는 노들섬, 비상계엄이 발표된 직후인 밤 10시 35분쯤 의사당대로, 여의도 국민은행, 그리고 국회 일대의 CCTV를 열람하기도 했습니다. 국회에서 병력이 철수한 새벽 3시 48분까지 706차례나 서울시 CCTV에 접속했다고 하는데요. 서울시가 재난 상황과 치안 대비를 위해 시내에 약 1만여 곳에 설치한 CCTV는, 통합방위태세·경계태세가 격상되거나 군 훈련과 같은 특별한 경우가 아니면 열람이 제한됩니다. 영화에서는 휴대전화를 사용했지만, 권력을 가진 국가의 경우 CCTV 전체조회만 하면 되어, 높은 수준의 기술이 필요 없겠죠. 건물을 투과하여 3D영상을 만들어내는 수준의 기술까진 아니지만, 사람들이 메신저로 어떻한 대화를 하며, 어디서 접속하는 지, 또한 주변에 어떤 일이 벌어지고 있는지 감시할 수 있게 되는 겁니다. 이것이 바로 영화에서나 보던 사이버 해킹이 아닐까 싶은데요. 정말 영화에서만 보던 사이버해킹이 현실적으로 일어날 수 있을까요? 설령 실제로 진행되었다는 가정을 할 게 될 경우, 얼마나 정밀하게 개인을 식별하고 추적할 수 있는 것일까요? 만약 국가가 국민의 디지털 미디어를 전부 감시하고 있고 언제든지 개입할 수 있다면, 그거 야 말로 '잘못된 일'이 아닐까요? IP 추적의 현실적 한계와 디지털 감시망의 허점 물론 IP망을 통해 개인을 추적한다는 말 자체는 어폐가 있을지도 모릅니다. IPv4 주소는 256의 4거듭제곱, 약 43억개의 고유 주소를 가지는 자원입니다. 정해져 있는 자원이라 전 세계인에게 돌아가지 않아요. 실제 IANA(Internet Assigned Numbers Authority, 인터넷 할당 번호 관리기관)에서는 2011년부터 IPv4의 할당을 중지했고, 2015년 ARIN(American Registry for Internet Numbers, 미국 인터넷 번호 등록부)에서는 IP 주소가 고갈되었다고 밝혔습니다. 한국이 소속된 APNIC(Asia Pacific Network Information Center, 아시아-태평양 지역 네트워크 정보센터)의 경우도 2020년에 거의 고갈되었다고 밝혔죠. 128비트 체계인 IPv6을 사용하면 이런 문제가 해결되지만, 아직까지 도입은 지지부진한 상태입니다. 문제는 그러다 보니 공유기를 사용한다거나, Tailnet과 같은 VPN(Virtual Private Network, 가상 사설망)을 쓰는 식으로 IP를 나눠 쓰고, DHCP(Dynamic Host Configuration Protocol, 동적 호스트 구성 프로토콜)과 같이 접속할 때마다 보유중인 IP들중 하나를 분배해주는 식으로 고정된자원을 아껴 쓰게 되는데요. 이렇게 되면 "IP 주소로 원점을 타격하는" 공격은 사실상 불가능해집니다. 또, IP 주소만으로는 개인 정보를 추적할 수도 없습니다. 우리나라가 중국과 같이 전국민을 검열하는 정보 감시 방화벽인 금순공정이 있는 것도 아니여서 SSL에 대한 중간자 공격도 불가능합니다. 과거 IPv4의 수량이 충분하였을 때 개인마다 고정 IP를 받던 시기 기준으로 IP를 추적해서 핑 폭주 공격인 ICMP Flooding을 가하기도 했지만, 개인유무를 식별할 수 없는데다 IDC에서 1차적으로 걸러지는 지금은 불가능하죠.하지만 한국인터넷진흥원(KISA)와 같이 각국에서 사용할 주소 자체는 어느 정도 관리되고 있기 때문에 Track URL과 같은 도구를 통해 어느 ISP(Internet Service Provider, 인터넷 서비스 공급자)의 어떤 노드에서 접속했는지는 알 수 있습니다. 특정 지역 거주 여부 정도까진 알 수 있죠. 개인이 정보를 뽑아낼 수 있는 건 여기까지입니다. 하지만 여기서 문제가 생깁니다. 통신사 문을 물리적으로 열고 들어갈 수 있는 권력기관이라면 사정은 달라지죠. 통신사는 라우팅 정보를 사용해서 유동 IP가 어느 MAC 주소 사용 기기, 어느 가입자에게 할당되었는지에 대한 로그를 보유하고 있습니다. 그래서 사이버수사대는 통신사 측에 정식으로 수사 협조 요청을 해서 정보를 수령, IP와 개인 정보를 확인하기도 합니다. 통신사정보열람 및 개인 SNS감청과 통신비밀보호법의 딜레마 여기서 문제가 생깁니다. 앞서 CCTV를 강제로 열어봤던 것처럼, 총구나 권력을 앞세워 통신사 정보를 강제로 열람하거나 혹은 PII(Personal Identifiable Information, 개인 식별 정보) 원장을 보유하고 있는 국가 기관이 작정하고 개인의 사생활을 열람 및 공격하겠다고 나서면 이를 막을 수 있는 방법이 없다시피 한 것입니다. 실제 2017년, 국군 사이버사령부가 법원을 비롯해 공공기관 전산망을 해킹하고 있다는 사실이 드러난 적도 있었습니다. 미국의 경우 NSA(National Security Agency, 미국 국가안보국)에서는 공개되지 않은 제로데이 취약점이 산더미같이 쌓여있다는 말이 나오기도 하죠. 국가정보기관의 국민을 향한 이런 도감청 시도는 한국에서만 일어나는 일이 아니라는 겁니다. 실제 1979년 12월 12일, 계엄사령부 합수본부단장이자 보안사령관이었던 전두환은 도감청을 총동원한 정보 수집을 바탕으로 진압군의 움직임을 속속들이 파악해서 진압군의 움직임에 사전대응했습니다. 특히 전두환의 비서실장이자 하나회의 핵심인물 중 한 명인 허화평은 군사반란을 성공적으로 이끌기 위해, 수도경비사령관 장태완 소장을 중심으로 한 진압군들의 모든 통화를 도감청한 적이 있습니다. 이걸 보면 권력을 등에 업은 국가정보기관의 무서움을 새삼 실감할 수 있는데요. 이번 사건은 계엄사령부가 도청과 감청에 이어 더 강력하고, 초법적이며, 불법여론 조작까지 하려는 시도로 인한 공포가 증가되었다고 볼 수 있습니다. 국민헌법상 통신의 비밀을 국민의 기본권으로 규정하고 있습니다. 통신비밀보호법도 감청가능한 범죄의 한정, 범죄수사의 보충성, 영장에 준하는 법원의 허가서 발부 등 매우 엄격한 요건 아래에서만 감청을 허용하고 있습니다. 하지만 전국민을 대상으로 소위 '반국가세력'을 막겠다는 미명 하에 자행될 뻔했던 이번 공격은 비윤리적이며, 위험하며, 잘못된 일입니다.
Dec 19 2024
디지털 혁신의 가속화와 함께 생성형AI는 기업 보안과 저작권 체계에 새로운 도전과 기회를 제공하고 있습니다. 이러한 변화 속에서 기업은 법적 리스크를 최소화하고 효율성을 극대화하기 위한 전략을 수립해야 합니다. 본 문서에서는 생성형AI가 기업 보안과 디지털 저작권에 미치는 영향, 그리고 e디스커버리 제도에 미치는 변화를 살펴보고자 합니다.생성형AI가 기업 보안에 미치는 영향생성형AI는 기업의 보안 환경에 긍정적 영향과 잠재적 위협을 모두 가져옵니다. 한편으로 AI 기술은 사이버 위협 탐지, 보안 교육, 개인정보 보호 등에서 혁신을 이끌며 보안 업무의 효율성을 극대화합니다. 예를 들어, AI 기반 자동 기사 생성 도구는 뉴스를 신속히 작성하여 실시간 제공함으로써 제작 효율성을 크게 높입니다.반면 생성형AI의 오남용은 새로운 보안 위협을 초래할 수 있습니다. AI를 활용한 사이버 공격, 데이터 유출, 딥페이크 등의 문제는 기업 보안에 심각한 위협이 됩니다. 또한 법적 효율성을 높이는 동시에 윤리적 문제와 개인정보 침해 위험을 동반합니다. e디스커버리 제도는 AI 도입에 따른 이점과 위험 요소를 균형 있게 반영해야 합니다. 이를 위해 국가정보원은 AI 활용 시 보안 가이드라인을 발표하며 서비스 사용, AI와의 대화, 플러그인 및 확장 프로그램 사용 시 보안 대응 방안을 제시하고 있습니다. 생성형AI의 법적 저작권 범위생성형AI가 만든 콘텐츠의 저작권 인정 여부는 현재 법적 논의의 중심에 있습니다. 일반적으로 저작권은 인간의 창작물에 부여되며, AI가 생성한 콘텐츠는 저작권 보호 대상에서 제외되는 경향이 있습니다. 예를 들어, 우리나라에서 생성형AI로 제작된 영화 ‘AI 수로부인’은 편집저작물로서 저작권을 인정받았습니다. 이는 이미지, 영상 등의 배열에 창작성이 있다는 점을 인정한 것입니다.그러나 생성형AI가 학습한 기존 저작물에 대한 저작권 침해 문제는 여전히 존재합니다. 기존 저작물을 학습하여 유사한 결과물을 생성할 경우, 이는 저작권 침해로 간주될 수 있습니다. 따라서 AI를 활용한 콘텐츠 제작 시에는 저작권 침해 여부를 신중히 검토해야 합니다. 생성형AI 시대에서 e디스커버리 제도의 방향성e디스커버리 제도는 소송 과정에서 전자적 형태의 증거를 수집, 보존, 분석, 제출하는 절차를 의미합니다. 생성형AI의 발전은 e디스커버리 과정에 새로운 과제를 안겨주고 있습니다. 예를 들어, AI가 생성한 콘텐츠가 증거로 제출될 경우, 그 신뢰성과 진위 여부를 판단하는 것이 중요합니다. 특히, 딥 페이크와 같이 AI를 활용한 위조 콘텐츠의 증가는 법적 증거로서의 신뢰성을 저하시킬 수 있습니다. 따라서 생성형AI 시대의 e디스커버리 제도는 다음과 같은 방향으로 발전해야 합니다:- AI 생성 콘텐츠의 신뢰성 검증: AI가 생성한 콘텐츠의 진위 여부를 판단하기 위한 기술적, 법적 기준 마련- 저작권 침해 여부 판단: AI가 생성한 콘텐츠가 기존 저작권을 침해하는지 여부를 검토하는 절차 강화- 법적 프레임워크 정립: 생성형AI와 관련된 법적 공백을 메우기 위해 저작권법 및 관련 법령 개정 필요 생성형AI의 윤리적 고려사항결정적으로 윤리적 문제와 보안 및 프라이버시 보호에 대한 주의가 필요합니다. 따라서 e디스커버리 제도는 생성형AI의 도입으로 인한 효율성 향상과 함께, 윤리적 문제와 보안 및 프라이버시 보호에 대한 고려를 균형 있게 반영해야 합니다. 생성형AI의 발전은 기업 보안, 저작권, 법적 절차 등 다양한 분야에 새로운 도전과 기회를 제공합니다. 법률 전문가들은 이러한 변화에 발맞춰 새로운 법적 기준과 절차를 마련해야 하며, 이를 통해 디지털 시대의 법적 안정성과 공정성을 확보할 수 있을 것입니다. 생성형AI에 대한 대비책 필요생성형AI는 빠르게 전환되는 디지털시대의 중심에 있습니다. 기업과 법률 전문가들은 관련 규제를 면밀히 검토하고 변화에 발맞춘 대비책을 마련해야 합니다. 이를 통해 기술 발전 속에서 법적 안정성을 확보하고 신뢰할 수 있는 디지털 환경을 구축할 수 있을 것입니다.
Dec 17 2024