18 October 2024
딥페이크 불법 합성물 유포 사건은 점점 더 커져만 가고 있습니다. BBC 뉴스는 한국 학교를 집어삼킨 딥페이크 음란물 문제는 이미 체계적이고 조직적인 범죄 수준이라고 보도했는데요.
특정한 딥페이크 음란물 대화방에 입장하기 위해서는 회원들에게 딥페이크의 대상이 될 사람의 이름, 나이, 거주 지역과 함께 사진 4장에서 많게는 10여장까지의 사진을 요구한 곳도 있었기 때문입니다. 사회공학적 해킹을 넘어서 일종의 피라미드 구조가 형성된 모습입니다
딥페이크 범죄처벌 강화 논의를 시작한 정부와 정치, 사회 분야
문제가 점점 커지면서 입법부와 행정부에도 비상이 걸렸습니다. 당정은 지난 8월 29일, <딥페이크 성범죄 관련 부처 긴급 현안보고>라는 논의를 가졌는데요.
김상훈 국민의힘 정책위의장은 백브리핑에서 "현행 성폭력처벌법상 허위영상물 편집 또는 반포 행위는 5년 이하의 징역 또는 5000만원 이하 벌금에 처해지는데 상한을 7년으로 강화하는 입법이 필요하다고 판단했다"고 했으며, 한동훈 국민의힘 대표는 '촉법소년 연령하향'을 대책으로 꺼내 들기도 했습니다.
또한 정부는 텔레그램 측과 협력 회의를 갖고 불법 정보를 자율 규제할 수 있도록 상시 협의하는 핫라인을 확보하겠다고 했습니다.
정부여당의 입법안 이외에도 거대 야당인 더불어민주당은 민주당은 딥페이크 영상의 구입 및 저장, 시청 행위에 대해 처벌하는 내용을 골자로 하는 성폭력범죄처벌 특례법 개정안을 발의하고 당론으로도 추진할 것을 검토하고 있는데요.
이는 아직까지 딥페이크를 활용한 성범죄에 대한 처벌 공백이 크기 때문입니다. 현재 법정형 역시 5년 이하 징역 또는 5천만원 이하의 벌금으로 불법촬영이나 불법촬영물 유포 법정형(7년 이하 징역 또는 5천만원 이하의 벌금)보다 낮죠.
실질적인 처벌을 위한 시민사회의 우려와 대안
이런 부분에 대해서 시민사회에서도 상당한 우려와 함께 대안이 제기되고 있습니다. 데이터 과학, AI 윤리를 연구하는 신민기 분석가는 최근 횡행하는 딥페이크 성착취물 대부분을 현행법으로 처벌할 수 없다는 일각의 주장이 우려된다며 '지인능욕' 등 현재 문제가 되는 일반인 대상의 딥페이크 기술이 자칫하면 '처벌받지 않는다'는 오해로 변해 퍼질 우려가 있다며 원본 화상을 사용했을 것을 요건으로 삼는 현행법을 보완하여 '특정인물'로 오인시키기 위한 허위합성물인지를 기준으로 처벌대상을 넓히는 것이 필요하다고 주장하기도 했습니다.
거기에서 더 나아간 주장도 있습니다. 성범죄 추적을 장시간 해 온 김환민 입법운동가는 가장 강력한 입법안을 제안하기도 했습니다. AI 생성물에 대해서는 AI 생성 과정을 본인이 인증하지 않으면 처벌하자는 내용인데요.
이는 현재 법망으로는 생성형 AI가 만들어낸 결과물을 확인하기 힘들고 AI 생성물은 '어쩌다 닮았다'는 핑계를 가능하게 할 수 있기 때문에 명예훼손에 대한 위법사유가 될 수 있을 가능성이 있을 뿐, 성폭력처벌법에는 조각될 수 있기 때문입니다. 또한 생성형 AI를 통해 만들어진 결과물 중 '권리침해물'을 따로 규율하자고 주장하기도 했습니다.
이런 주장이 나오게 된 배경에는 법망을 피해갔던 사례가 있기 때문입니다. 실제 형사사건 전문임을 내세운 한 법무법인의 홈페이지에는 여성인 직장 동료의 얼굴을 성적인 사진에 합성해 공용 컴퓨터에 저장한 의뢰인에 대해 "불법합성물은 만들었으나 이를 공유하거나 반포할 의도가 없었음을 강조"해 무죄 판결을 받았다는 홍보글이 게재돼 있을 정도이기 때문입니다.
소위 '서울대 N번방' 사건 피해자 변호를 맡았던 법무법인 이채 조윤희 변호사는 "불법촬영물은 피해자가 원치 않는 모습이 촬영되어 성적 대상으로 소비되는 데 대해 수치심이나 불쾌감을 일으키는데, 허위영상물이라고 해서 성적 대상화가 되는 방식이 다르지 않기에 피해자의 피해도 같고, 그러므로 허위영상물 성범죄도 최소한 카메라 등 이용 촬영죄와 같은 수준으로 처벌해야 한다"고 말하기도 했습니다.
과잉 규제와 개인정보 보호 사이의 균형 문제
한편 여기에 대해 추경호 국민의힘 원내대표는 "일각에서 우려하는 바와 같이 개인정보 보호 문제나 메신저 검열과 같은 과잉 규제 문제가 없도록 유념해 주길 바란다"고 하며 과도한 검열 등 부작용을 우려하는 목소리도 나왔는데요.
실제로 딥페이크 성범죄 확산 우려와 관련해 "위협이 과대평가되고 있다"고 했던 이준석 개혁신당 의원은 정부의 수사 방침을 두고 "이런 식으로 간다면 대책은 텔레그램 차단밖에 없다", "텔레그램을 차단할지 말지만 결정하면 되는 것인데 정치인들이 입발린 소리로 검열 강화만 말한다"고 지적했습니다.
그런데 앞뒤가 좀 맞지 않습니다. 이준석 의원은 "학폭 문제는 몇 십 년 동안 달려들어도 항상 있었다. 학폭을 없애는 가장 쉬운 방법이 무엇인가. 학교를 없애는 것이다. 그러면 확실히 없어진다"면서 "그런데 이런 식으로 접근하면 해법 같지만 아닌 해법들이 나온다"고 하면서 "텔레그램이 문제가 된다고 하면 다른 메시지로 이전을 할 것이고 그러면 결국에는 모두 차단해 버려야 되는 상황이 올 것"이라고 했는데요. 이 논리라면 텔레그램을 차단하건 말건 딥페이크에 대한 문제는 해결되지 않는다는 말과 일맥상통합니다.
검열과 규제에 대한 오래된 논란과 논쟁
실제 지난 2021년, 소위 'N번방 사건' 때에도 이런 논쟁이 있었는데요. 당시 윤석열 대선 후보는 N번방 방지법 시행으로 인해 검열이 강화되면 '귀여운 고양이, 사랑하는 가족의 동영상도 검열의 대상이 된다면 그런 나라가 어떻게 자유의 나라겠습니까'라고 했고, 하태경 전 의원 역시 "n번방 방지법은 이용자가 올리려는 콘텐츠가 범죄물일 수도 있다고 전제하고 시행되는 법"이라면서 "온라인 커뮤니티의 모든 콘텐츠가 사전 검열되는 법은 전 세계에 유례가 없다"고 주장하기도 했습니다.
당시 각 팩트체크 미디어들은 이미 공개된 불법촬영물이 갖던 헤더 코드와 해당 영상의 헤더 코드만 비교하기 때문에 내용 검열에는 해당하지 않는다고 했는데요. 딥페이크의 경우에는 대조군이 될 영상군이 없기 때문에 이런 헤더 코드를 사용한 검증이 의미가 없게 되는 경우도 많습니다. 그래서 "온라인 커뮤니티의 모든 콘텐츠가 사전 검열되는 법은 전 세계에 유례가 없다"와 같은 주장이 다시 나오고 있는거겠죠.
한편 330만여명의 구독자를 둔 '슈카월드(전석재)'는 <검열이 당연한 나라>라는 제목으로 한국의 성인물 금지를 비판하는 영상을 올렸습니다. 그는 세계에서 포르노를 금지하는 나라는 이슬람 국가들과 중국, 북한, 그리고 한국 밖에 없다는 걸 강조했는데요.
하지만 이는 단순히 음란물 허용만이라는 시각만으로는 판단할 수 없습니다. 실제 전석재씨 본인도 인정했듯 한국에서 포르노를 보는 것만으로는 처벌받지 않기 때문입니다. 물론 한국에서 허용되는 성인물은 서구나 일본 수준의 포르노와 다릅니다만, 이는 해당 국가의 법 체계상으로는 불법촬영물이나 디지털 성범죄물이 아니며, 이 역시 회색지대에 놓여 있습니다. 문제는 전석재씨가 온라인 통신에 대한 검열과 성인물을 뒤섞어 논의를 뒤집어버린거죠.
실제 이번 딥페이크 사건에 엮여 있는 문제들의 구조는 상당히 복잡합니다. 전통적인 음란물 범죄와 거기에 엮인 협박이나 사회공학적 해킹, 피라미드 구조의 조직범죄, 텔레그램을 위시한 대형 플랫폼과 거기에서 활용되는 수많은 응용 프로그램과 봇, 그리고 적법한 통신망에 대한 규제라는 법적 이론, 생성형 AI가 악으로 빠지지 않도록 하는 적합한 교육자료의 확보에 이어 AI 알고리즘이 결과물을 내놓는 과정에 대한 투명성 확보와 컴플라이언스 준수라는 복잡한 화두가 모두 엮여 있습니다.
세계 각국이 한국 딥페이크 수사 상황에 주목하는 이유
그렇기에 BBC를 포함한 수많은 외신과 각국은 이번 한국 딥페이크 논란과 수사 상황에 주목하고 있고 강력한 대응을 준비하고 있기도 합니다. CNBC는 "프랑스에서 시작된 텔레그램의 법적 문제는 한국에서 점점 더 커지고 있다"라고 말하기도 했습니다. 실제 텔레그램에 대한 조사에 돌입한 것은 한국, 프랑스뿐만이 아닙니다.
텔레그램 사용자 수가 1억 명이 넘는 인도는 지난달 24일 텔레그램에서 벌어지는 각종 도박 등 불법 활동에 대한 조사에 착수했고, 인도네시아 통신정보부 장관 부디 아리 세티아디는 각종 불법 콘텐츠를 근거로 '비고 라이브'와 함께 텔레그램을 차단하는 것을 검토중이라고 밝힌 바 있습니다. EU도 이 흐름에 동참했습니다.
EU 내에서 4,500만 명 이상의 사용자를 확보하고 서비스하는 온라인 플랫폼은 디지털 시장법(DMA)의 적용을 받아 각종 강력한 규제를 받게 되는데, 텔레그램이 해당 규제를 회피하기 위해 정확한 사용자 수를 제공하지 않았다는 것이죠.
하지만 텔레그램 폐쇄는 일시적인 효과만 가질 뿐, 딥페이크 불법 음란물을 보려는 욕구와 만드려는 욕구가 없어지지는 않을 것으로 봅니다. 피해자도 사라지지 않겠죠. 텔레그램을 폐쇄하면 범죄자들은 다른 암호화 메신저나 다크웹과 같은 대체 플랫폼으로 이동할 가능성이 큽니다. 이는 오히려 범죄 수사에 더 큰 어려움을 초래할 수도 있겠죠.
일각에서 주장하는 것처럼 정부나 경찰당국이 모든 개인의 통신에 개입할 수 있는 과다한 권력을 잡는 것 또한 문제가 될 수 있습니다. 그렇기에 유통되는 각 사용자나 단말의 영역에서 현실적으로 단속이 불가능하니, 딥페이크의 생성 단계나 혹은 법정에서 이를 걸러낼 수 있도록 하는 방법론이 대두되고 있습니다.
딥페이크 방지 기술의 발전 그리고 협업의 필요성
구글 딥마인드는 AI가 생성한 이미지에 워터마크를 삽입하여 생성 AI 콘텐츠임을 식별할 수 있는 신스ID(SynthID) 기술을 공개했습니다. 이미지의 일부 픽셀을 미묘하게 수정한 후 덧입혀 눈으로는 식별할 수 없는 워터마크 기술이죠. 기존의 워터마크가 눈에 잘 띄어 쉽게 편집이 가능한 것과 달리, 신스ID의 디지털 워터마크는 잘라낼 수도 없고, 크기 조정, 색상 변경 등의 편집을 하거나 스크린샷으로 찍더라도 워터마크를 계속 감지할 수 있도록 설계되었다고 합니다.
이런 디지털 워터마킹 기술은 이미 상당히 넓은 절차적 저변을 갖추고 진행되고 있습니다. 지난 7월 백악관이 발표한 AI 자율규제안에도 기업이 워터마크 등의 기술을 갖춰야 한다는 내용이 포함되어 있었고, 우리나라 역시 AI 콘텐츠 표기 의무화를 위해 콘텐츠산업진흥법 개정을 추진하고 있습니다.
하지만 여전히 악성 사용자들은 이런 워터마크를 우회해서 생성할 수단을 갖추고 있습니다. 그렇기에 기술만으로는 딥페이크 문제를 해결할 수 없죠. EDRM(Electronic Discovery Reference Model, 전자정보공개 참고모델) 전략책임자 케일리 월스타드와 AI 사이버 보안 회사 Clarity 최고 전략 책임자 길 아브리엘은 AI와 인간이, 각 분야의 전문가들이 서로 장벽을 깨고 협업할 것을 주문하기도 했습니다.
사일로(Silo)에서 시너지(Synergy)로 가자는 것이죠. 또한 협업 프레임워크의 일환으로, 디지털 포렌식의 보존, 조사 및 증언 과정에서 딥페이크 전문가 역시 법의학 전문가 및 전문가 증인과 협업할 것을 주문하기도 했습니다. 미 연방증거법 702조에 있는 전문가 의견증거(Testimony by Expert Witnesses, Fed.R.Civ.P.702)를 근거조항으로 쓸 수 있다는 것이죠. 여기에 AI기술 등 다양한 협업 프레임워크가 결합해야 기술뿐 아니라 법률적으로도 딥페이크와의 싸움에서 고지를 점할 수 있다는 것이죠.
물론 배심원 제도나 전자증거개시제도를 전면 도입하고 있지 않은 우리나라에서 전문가 증언의 허용 여부, EDRM에 관한 미국 제도를 그대로 적용하기는 어렵겠지만 법관으로 하여금 전문가 증언을 듣고, 또 이 증언의 내용적 타당성까지 검토하도록 하는 제도는 우리에게 큰 방향성을 제시해준다고 생각합니다.
2008년에 개봉했지만 볼 때마다 여전히 새로운 영화 같은 <다크 나이트>의 한 장면을 기억하시나요? 고담 시민들과 죄수가 각각 탑승한 배의 선창내 가득 실린 폭발물 기폭 장치를 가지고 있던 조커를 찾기 위해 배트맨이 특수한 장비를 가동하던 장면 말입니다. 루시우스 폭스의 도움을 받아 만들어진 그 장비는, 고담 시민들이 가진 각각의 휴대전화를 해킹해서 일종의 레이더처럼 고주파를 발신, 소리를 사용해 입체 영상화 하여 주변 상황을 재구성하는 한편 통화내용을 감청해서 실시간 모니터링하여 목표하는 대화가 들리는 곳을 추적하고 해당 지역의 영상을 감시할 수 있게 하는 신개념 해킹 장비(영화 속 명칭- Sonar Vison[소나 영상])였습니다. 영화를 보면서 저런 일이 가능할지 상상의 나래를 펼쳤던 기억이 있는데요. CCTV 감시와 메신저 추적: 현실이 된 사이버 해킹 영화에서도 루시우스 폭스는 이 장비를 보고 "아름답고, 비윤리적이며, 위험하다"고 말했습니다. 한참을 보더니 "이것은 잘못된 일"이라고 못 박았죠. 그런데 이런 해킹 장비가 현실에 구현이 되어, 실제로 사용될 뻔했다면 어떻게 될까요? 12.3 비상계엄 사태에서 나타난 새로운 증언에 따르면, 위 영화와 같은 기술이 사용될 뻔한 것에 대하여 믿을 수 없는 충격을 선사하였습니다. 국회 12.3 진상조사단(이하 조사단)은 지난 13일 사이버작전사령부(사이버사)산하 해킹 부대이자 군직제에도 미공개 된 비밀특수부대인 '900연구소'가 비상계엄에 개입했다는 제보를 받았다고 밝혔는데요. 조사단은 사이버사가 지난 8월 을지연습(UFS) 훈련에서 '북 거점 초토화 훈련'과 'SNS(Social Network Service, 사회관계망서비스) 장악 훈련' 등 새로운 사이버 훈련을 진행했다는 정보를 입수, 비상계엄을 대비한 훈련에 대한 의혹을 주장하기도 했습니다. 여기서 흥미로운 점은 ‘SNS 장악 훈련’입니다. 조사단은 "(900연구소가 하는)SNS 장악훈련은 유튜브, 페이스북, 텔레그램 등 SNS 중 반국가세력 관리자 그룹, 혹은 유력 인사의 계정을 장악/탈취해, 그 권한으로 나아가 댓글 조작 등을 시도하는 내용"이라고 주장했는데요. 이렇게 되면 메신저로 대한민국 국민들이 어떤 이야기를 하는지 전부 수집할 수 있고, 또한 해당 계정을 직접 공격할 수 있게 됩니다. AI가 적용된 LLM(Large Language Model, 대형 언어 모델)과 결합하면 감청하고자 하는 텍스트를 자동화된 인공지능이 빠르게 탐색할 수도 있겠죠. 거기다 국군 전산병들의 해킹 기술은 그리 나쁜 편이 아닙니다. 지난 C4I 모의 장비 해킹훈련 시에는 순식간에 각 사무실 단말기부터 중앙서버까지 탈취하기도 했죠. 그 뿐만이 아닙니다. 비상계엄이 선포되기 직전부터 육군 특수전사령부와 수도방위사령부 군인들이 서울시가 관리하는 CCTV를 감시 및 관찰한 것으로 보도되기도 했습니다. 군 관계자는 서울시에 별다른 설명 없이 '장비 점검'과 '시스템 테스트'라며 CCTV를 들여다봤다는 데요. 용산구 한남동 일대를 비추는 CCTV와 강남구 압구정동, 종로구 자하문로, 헬기가 착륙할 수 있는 노들섬, 비상계엄이 발표된 직후인 밤 10시 35분쯤 의사당대로, 여의도 국민은행, 그리고 국회 일대의 CCTV를 열람하기도 했습니다. 국회에서 병력이 철수한 새벽 3시 48분까지 706차례나 서울시 CCTV에 접속했다고 하는데요. 서울시가 재난 상황과 치안 대비를 위해 시내에 약 1만여 곳에 설치한 CCTV는, 통합방위태세·경계태세가 격상되거나 군 훈련과 같은 특별한 경우가 아니면 열람이 제한됩니다. 영화에서는 휴대전화를 사용했지만, 권력을 가진 국가의 경우 CCTV 전체조회만 하면 되어, 높은 수준의 기술이 필요 없겠죠. 건물을 투과하여 3D영상을 만들어내는 수준의 기술까진 아니지만, 사람들이 메신저로 어떻한 대화를 하며, 어디서 접속하는 지, 또한 주변에 어떤 일이 벌어지고 있는지 감시할 수 있게 되는 겁니다. 이것이 바로 영화에서나 보던 사이버 해킹이 아닐까 싶은데요. 정말 영화에서만 보던 사이버해킹이 현실적으로 일어날 수 있을까요? 설령 실제로 진행되었다는 가정을 할 게 될 경우, 얼마나 정밀하게 개인을 식별하고 추적할 수 있는 것일까요? 만약 국가가 국민의 디지털 미디어를 전부 감시하고 있고 언제든지 개입할 수 있다면, 그거 야 말로 '잘못된 일'이 아닐까요? IP 추적의 현실적 한계와 디지털 감시망의 허점 물론 IP망을 통해 개인을 추적한다는 말 자체는 어폐가 있을지도 모릅니다. IPv4 주소는 256의 4거듭제곱, 약 43억개의 고유 주소를 가지는 자원입니다. 정해져 있는 자원이라 전 세계인에게 돌아가지 않아요. 실제 IANA(Internet Assigned Numbers Authority, 인터넷 할당 번호 관리기관)에서는 2011년부터 IPv4의 할당을 중지했고, 2015년 ARIN(American Registry for Internet Numbers, 미국 인터넷 번호 등록부)에서는 IP 주소가 고갈되었다고 밝혔습니다. 한국이 소속된 APNIC(Asia Pacific Network Information Center, 아시아-태평양 지역 네트워크 정보센터)의 경우도 2020년에 거의 고갈되었다고 밝혔죠. 128비트 체계인 IPv6을 사용하면 이런 문제가 해결되지만, 아직까지 도입은 지지부진한 상태입니다. 문제는 그러다 보니 공유기를 사용한다거나, Tailnet과 같은 VPN(Virtual Private Network, 가상 사설망)을 쓰는 식으로 IP를 나눠 쓰고, DHCP(Dynamic Host Configuration Protocol, 동적 호스트 구성 프로토콜)과 같이 접속할 때마다 보유중인 IP들중 하나를 분배해주는 식으로 고정된자원을 아껴 쓰게 되는데요. 이렇게 되면 "IP 주소로 원점을 타격하는" 공격은 사실상 불가능해집니다. 또, IP 주소만으로는 개인 정보를 추적할 수도 없습니다. 우리나라가 중국과 같이 전국민을 검열하는 정보 감시 방화벽인 금순공정이 있는 것도 아니여서 SSL에 대한 중간자 공격도 불가능합니다. 과거 IPv4의 수량이 충분하였을 때 개인마다 고정 IP를 받던 시기 기준으로 IP를 추적해서 핑 폭주 공격인 ICMP Flooding을 가하기도 했지만, 개인유무를 식별할 수 없는데다 IDC에서 1차적으로 걸러지는 지금은 불가능하죠.하지만 한국인터넷진흥원(KISA)와 같이 각국에서 사용할 주소 자체는 어느 정도 관리되고 있기 때문에 Track URL과 같은 도구를 통해 어느 ISP(Internet Service Provider, 인터넷 서비스 공급자)의 어떤 노드에서 접속했는지는 알 수 있습니다. 특정 지역 거주 여부 정도까진 알 수 있죠. 개인이 정보를 뽑아낼 수 있는 건 여기까지입니다. 하지만 여기서 문제가 생깁니다. 통신사 문을 물리적으로 열고 들어갈 수 있는 권력기관이라면 사정은 달라지죠. 통신사는 라우팅 정보를 사용해서 유동 IP가 어느 MAC 주소 사용 기기, 어느 가입자에게 할당되었는지에 대한 로그를 보유하고 있습니다. 그래서 사이버수사대는 통신사 측에 정식으로 수사 협조 요청을 해서 정보를 수령, IP와 개인 정보를 확인하기도 합니다. 통신사정보열람 및 개인 SNS감청과 통신비밀보호법의 딜레마 여기서 문제가 생깁니다. 앞서 CCTV를 강제로 열어봤던 것처럼, 총구나 권력을 앞세워 통신사 정보를 강제로 열람하거나 혹은 PII(Personal Identifiable Information, 개인 식별 정보) 원장을 보유하고 있는 국가 기관이 작정하고 개인의 사생활을 열람 및 공격하겠다고 나서면 이를 막을 수 있는 방법이 없다시피 한 것입니다. 실제 2017년, 국군 사이버사령부가 법원을 비롯해 공공기관 전산망을 해킹하고 있다는 사실이 드러난 적도 있었습니다. 미국의 경우 NSA(National Security Agency, 미국 국가안보국)에서는 공개되지 않은 제로데이 취약점이 산더미같이 쌓여있다는 말이 나오기도 하죠. 국가정보기관의 국민을 향한 이런 도감청 시도는 한국에서만 일어나는 일이 아니라는 겁니다. 실제 1979년 12월 12일, 계엄사령부 합수본부단장이자 보안사령관이었던 전두환은 도감청을 총동원한 정보 수집을 바탕으로 진압군의 움직임을 속속들이 파악해서 진압군의 움직임에 사전대응했습니다. 특히 전두환의 비서실장이자 하나회의 핵심인물 중 한 명인 허화평은 군사반란을 성공적으로 이끌기 위해, 수도경비사령관 장태완 소장을 중심으로 한 진압군들의 모든 통화를 도감청한 적이 있습니다. 이걸 보면 권력을 등에 업은 국가정보기관의 무서움을 새삼 실감할 수 있는데요. 이번 사건은 계엄사령부가 도청과 감청에 이어 더 강력하고, 초법적이며, 불법여론 조작까지 하려는 시도로 인한 공포가 증가되었다고 볼 수 있습니다. 국민헌법상 통신의 비밀을 국민의 기본권으로 규정하고 있습니다. 통신비밀보호법도 감청가능한 범죄의 한정, 범죄수사의 보충성, 영장에 준하는 법원의 허가서 발부 등 매우 엄격한 요건 아래에서만 감청을 허용하고 있습니다. 하지만 전국민을 대상으로 소위 '반국가세력'을 막겠다는 미명 하에 자행될 뻔했던 이번 공격은 비윤리적이며, 위험하며, 잘못된 일입니다.
Dec 19 2024
디지털 혁신의 가속화와 함께 생성형AI는 기업 보안과 저작권 체계에 새로운 도전과 기회를 제공하고 있습니다. 이러한 변화 속에서 기업은 법적 리스크를 최소화하고 효율성을 극대화하기 위한 전략을 수립해야 합니다. 본 문서에서는 생성형AI가 기업 보안과 디지털 저작권에 미치는 영향, 그리고 e디스커버리 제도에 미치는 변화를 살펴보고자 합니다.생성형AI가 기업 보안에 미치는 영향생성형AI는 기업의 보안 환경에 긍정적 영향과 잠재적 위협을 모두 가져옵니다. 한편으로 AI 기술은 사이버 위협 탐지, 보안 교육, 개인정보 보호 등에서 혁신을 이끌며 보안 업무의 효율성을 극대화합니다. 예를 들어, AI 기반 자동 기사 생성 도구는 뉴스를 신속히 작성하여 실시간 제공함으로써 제작 효율성을 크게 높입니다.반면 생성형AI의 오남용은 새로운 보안 위협을 초래할 수 있습니다. AI를 활용한 사이버 공격, 데이터 유출, 딥페이크 등의 문제는 기업 보안에 심각한 위협이 됩니다. 또한 법적 효율성을 높이는 동시에 윤리적 문제와 개인정보 침해 위험을 동반합니다. e디스커버리 제도는 AI 도입에 따른 이점과 위험 요소를 균형 있게 반영해야 합니다. 이를 위해 국가정보원은 AI 활용 시 보안 가이드라인을 발표하며 서비스 사용, AI와의 대화, 플러그인 및 확장 프로그램 사용 시 보안 대응 방안을 제시하고 있습니다. 생성형AI의 법적 저작권 범위생성형AI가 만든 콘텐츠의 저작권 인정 여부는 현재 법적 논의의 중심에 있습니다. 일반적으로 저작권은 인간의 창작물에 부여되며, AI가 생성한 콘텐츠는 저작권 보호 대상에서 제외되는 경향이 있습니다. 예를 들어, 우리나라에서 생성형AI로 제작된 영화 ‘AI 수로부인’은 편집저작물로서 저작권을 인정받았습니다. 이는 이미지, 영상 등의 배열에 창작성이 있다는 점을 인정한 것입니다.그러나 생성형AI가 학습한 기존 저작물에 대한 저작권 침해 문제는 여전히 존재합니다. 기존 저작물을 학습하여 유사한 결과물을 생성할 경우, 이는 저작권 침해로 간주될 수 있습니다. 따라서 AI를 활용한 콘텐츠 제작 시에는 저작권 침해 여부를 신중히 검토해야 합니다. 생성형AI 시대에서 e디스커버리 제도의 방향성e디스커버리 제도는 소송 과정에서 전자적 형태의 증거를 수집, 보존, 분석, 제출하는 절차를 의미합니다. 생성형AI의 발전은 e디스커버리 과정에 새로운 과제를 안겨주고 있습니다. 예를 들어, AI가 생성한 콘텐츠가 증거로 제출될 경우, 그 신뢰성과 진위 여부를 판단하는 것이 중요합니다. 특히, 딥 페이크와 같이 AI를 활용한 위조 콘텐츠의 증가는 법적 증거로서의 신뢰성을 저하시킬 수 있습니다. 따라서 생성형AI 시대의 e디스커버리 제도는 다음과 같은 방향으로 발전해야 합니다:- AI 생성 콘텐츠의 신뢰성 검증: AI가 생성한 콘텐츠의 진위 여부를 판단하기 위한 기술적, 법적 기준 마련- 저작권 침해 여부 판단: AI가 생성한 콘텐츠가 기존 저작권을 침해하는지 여부를 검토하는 절차 강화- 법적 프레임워크 정립: 생성형AI와 관련된 법적 공백을 메우기 위해 저작권법 및 관련 법령 개정 필요 생성형AI의 윤리적 고려사항결정적으로 윤리적 문제와 보안 및 프라이버시 보호에 대한 주의가 필요합니다. 따라서 e디스커버리 제도는 생성형AI의 도입으로 인한 효율성 향상과 함께, 윤리적 문제와 보안 및 프라이버시 보호에 대한 고려를 균형 있게 반영해야 합니다. 생성형AI의 발전은 기업 보안, 저작권, 법적 절차 등 다양한 분야에 새로운 도전과 기회를 제공합니다. 법률 전문가들은 이러한 변화에 발맞춰 새로운 법적 기준과 절차를 마련해야 하며, 이를 통해 디지털 시대의 법적 안정성과 공정성을 확보할 수 있을 것입니다. 생성형AI에 대한 대비책 필요생성형AI는 빠르게 전환되는 디지털시대의 중심에 있습니다. 기업과 법률 전문가들은 관련 규제를 면밀히 검토하고 변화에 발맞춘 대비책을 마련해야 합니다. 이를 통해 기술 발전 속에서 법적 안정성을 확보하고 신뢰할 수 있는 디지털 환경을 구축할 수 있을 것입니다.
Dec 17 2024