8 October 2024
안녕하세요. 인텔렉추얼데이터입니다.
<터미네이터> 나 <2001 : 스페이스 오디세이> 같은 SF영화를 보면 인간을 위협하는 인공지능을 쉽게 만나볼 수 있습니다. 물론 현재의 인공지능(Artificial Intelligence, AI) 기술이 인류를 위협할 정도까지 발달한 것은 아니지만, 최근 빠르게 산업 곳곳에 생성형 AI가 적용되기 시작하면서 AI 시스템에 가해지는 공격, 그리고 AI 자체의 취약성이 조금씩 드러나고 있습니다.
우리는 이런 위험에서 어떻게 스스로를 보호해야 할까요? 극도로 발달한 AI는 정말로 영화에서나 나오던 아포칼립스를 일으킬 수 있을까요? 기계 학습 모델은 완벽하게 안전한 것일까요? 오늘은 아주 밀접한 관계인 보안과 인공지능에 대해 알아볼까 합니다.
인공 지능이란? 핵심적인 기본 개념 파헤치기
AI는 일반적으로 학습 알고리즘과 데이터 세트의 결합체로 구성됩니다. 머신 러닝(Machine Learning) 혹은 딥 러닝이 적용되어 학습을 수행할 수 있는 AI 알고리즘은 데이터 세트를 기반으로 각종 입력 정보에 대한 예측 및 분류를 수행합니다.
이런 '지능'이라는 용어는 과거의 경험을 통해 추론하고, 발견하고, 일반화하고, 학습하는 인간의 특성을 모방하는 데서 사용되었는데요. 최근 발달하고 있는 AI 알고리즘은 이런 되먹임(Feedback) 역할을 갖도록 만들어져 있어 데이터를 통해 '학습'된 경험을 바탕으로 목표로 하는 작업에 대한 접근 방법을 개선하거나 변경, 목표 수행을 위해 더 합리적인 행동을 할 수 있도록 스스로를 개선할 수 있게 됩니다.
보안 시스템 관리를 돕는 AI의 역할
현대 IT 시스템에는 복잡한 다량의 모니터링 데이터와 로그 데이터가 실시간으로 누적됩니다. AI는 이런 데이터를 신속하게 처리하여 이상 징후를 찾아내고 보안 제어에 대한 권장 사항을 제시하거나 조정할 수 있습니다. 인간은 직관을 통해 새로운 패턴을 탐지할 수 있지만, 수많은 데이터 속에서 특정 패턴을 식별하는 것에는 약합니다. AI는 이러한 탐지의 정확도를 빠르게 향상하여 이상 데이터를 필터링, 인간에게 제공합니다.
이를 통해 보안 관제를 수행하는 인력은 보다 더 중요한 경고에 집중하여 공격에 대응할 수 있게 됩니다. 하지만 반대로 공격자 역시 인공 지능을 악용하여 시스템에 대한 악의적 접근을 할 수 있게 됩니다.
사이버 공격 고도화에 악용되는 AI
생성형 AI(Generative AI)는 텍스트, 이미지, 비디오, 음악을 창의적으로 생성하는 AI 모델입니다. 공격자측은 이 모델을 활용하여 맬웨어 코드, 피싱 이메일, 사기, 음성/영상 사칭 사기에 콘텐츠를 만들고 있습니다. AI 모델에 대한 수요가 증가하며 이런 서비스의 공급 및 품질이 대폭 개선되고 증가하고 있는데요. 그러면서 이러한 공격도 대폭 증가하게 되었습니다. 방어자가 효율적으로 방어할 수 있다는 것은, 공격자 역시 사람이 작업하던 시간을 대폭 줄여서 보다 '효율적'으로 공격에 필요한 도구를 생성하고 다양한 포트나 방식을 통해 자동화된 공격을 할 수 있다는 것입니다.
공격자는 AI 시스템에 이름, 주소, 생일, 비밀번호 , 결제 카드, 건강 정보, 전화번호 및 기타 형태의 민감한 개인 정보가 포함된 대규모 데이터세트를 학습시켜 시스템이 보유하고 있는 민감한 데이터를 공개하도록 프롬프트를 변경하여 민감한 정보를 공개하는 것을 목표로 합니다.
AI를 대상으로 하는 사이버 공격의 위험성
또 다른 위협은 바로 AI 자체를 대상으로 하는 공격입니다. 대부분의 경우 기계 학습 모델은 알 수 없거나 새로운 데이터 대신 훈련 데이터가 제공될 때 더욱 강력한 신뢰도 응답을 출력하는데, MI(Membership Inference)라는 공격을 통해 공격자가 의도한대로 훈련 데이터를 재구성할 경우 AI는 제대로 된 응답을 할 수 없게 됩니다.
최근 공격자는 SMI(Strong Membership Inference)라는 공격을 수행하고 있는데, 이는 MI와 추론 공격의 결합을 통한 공격입니다. 이는 훈련 데이터 세트에 가까운 데이터를 입력 받으면 유사한 답을 출력하는 생성형 AI의 한계를 공격하는 것으로, 보다 완화된 AI 개념인 AAI(근사 속성 추론)을 통해 방어할 수 있습니다.
그 외에 정보를 변조하여 분류 오류에 대한 사각 지대를 생성하는 회피 공격과 머신러닝 모델을 표적으로 삼아 훈련 데이터를 추출하는 추론 공격 등이 있습니다.
AI를 대상으로 하는 공격, 효과적인 방어 방법은?
적응형 학습을 기반으로 구축된 모든 것에는 항상 잘못된 정보가 심어져 악용될 수 있습니다. 이는 인간 역시 마찬가지입니다. 물론 인간에게는 데이터를 더 자율적으로 해석할 수 있는 지능이 있지만 AI는 논리적으로 알고리즘에만 의해 작동하고 그 알고리즘은 일반적으로 블랙박스의 형태로 작동하기 때문에 알고리즘의 취약성이 공격당해서 오염되기 시작하면 이를 쉽게 확인하기 힘들다는 문제점이 있습니다.
모든 방어 메커니즘과 마찬가지로, 시스템을 공격으로부터 보호하는데는 다양한 제어 기능 구현을 포함한 복합적인 방어 정책을 수행하는 것이 가장 최선의 방법입니다.
그 방법 중 하나인 교육 및 원본 데이터에 대한 지속적인 검토 및 평가는 매우 중요한 영역입니다. 이는 모든 AI의 가장 중요한 약점 중 하나로, 모델에 사용된 정보가 손상된 경우 영향 평가 및 복구에 대한 작업을 신속하게 할 수 있도록 합니다.
또한 솔루션 라이프사이클 전반에 걸친 지속적인 데이터 보안 분석 및 개선을 통해 학습 데이터의 오염 가능성을 줄일 수 있습니다. AI 시스템이 산업에 점점 더 적용될 수록 새로운 공격, 취약점, 익스플로잇이 매일 등장합니다. 개발, 유지, 보수 등 솔루션의 전반적인 라이프사이클에 관여하는 사이버 보안 팀, 개발자 및 데이터 엔지니어 간의 유기적 협업은 매우 중요합니다.
또한 AI가 적용되는 인프라에도 적절한 보호가 필요합니다. 특히 거버넌스 및 도구를 개선하는 것이 가장 가시적이고 중요한 방법 중 하나일 것입니다.
2008년에 개봉했지만 볼 때마다 여전히 새로운 영화 같은 <다크 나이트>의 한 장면을 기억하시나요? 고담 시민들과 죄수가 각각 탑승한 배의 선창내 가득 실린 폭발물 기폭 장치를 가지고 있던 조커를 찾기 위해 배트맨이 특수한 장비를 가동하던 장면 말입니다. 루시우스 폭스의 도움을 받아 만들어진 그 장비는, 고담 시민들이 가진 각각의 휴대전화를 해킹해서 일종의 레이더처럼 고주파를 발신, 소리를 사용해 입체 영상화 하여 주변 상황을 재구성하는 한편 통화내용을 감청해서 실시간 모니터링하여 목표하는 대화가 들리는 곳을 추적하고 해당 지역의 영상을 감시할 수 있게 하는 신개념 해킹 장비(영화 속 명칭- Sonar Vison[소나 영상])였습니다. 영화를 보면서 저런 일이 가능할지 상상의 나래를 펼쳤던 기억이 있는데요. CCTV 감시와 메신저 추적: 현실이 된 사이버 해킹 영화에서도 루시우스 폭스는 이 장비를 보고 "아름답고, 비윤리적이며, 위험하다"고 말했습니다. 한참을 보더니 "이것은 잘못된 일"이라고 못 박았죠. 그런데 이런 해킹 장비가 현실에 구현이 되어, 실제로 사용될 뻔했다면 어떻게 될까요? 12.3 비상계엄 사태에서 나타난 새로운 증언에 따르면, 위 영화와 같은 기술이 사용될 뻔한 것에 대하여 믿을 수 없는 충격을 선사하였습니다. 국회 12.3 진상조사단(이하 조사단)은 지난 13일 사이버작전사령부(사이버사)산하 해킹 부대이자 군직제에도 미공개 된 비밀특수부대인 '900연구소'가 비상계엄에 개입했다는 제보를 받았다고 밝혔는데요. 조사단은 사이버사가 지난 8월 을지연습(UFS) 훈련에서 '북 거점 초토화 훈련'과 'SNS(Social Network Service, 사회관계망서비스) 장악 훈련' 등 새로운 사이버 훈련을 진행했다는 정보를 입수, 비상계엄을 대비한 훈련에 대한 의혹을 주장하기도 했습니다. 여기서 흥미로운 점은 ‘SNS 장악 훈련’입니다. 조사단은 "(900연구소가 하는)SNS 장악훈련은 유튜브, 페이스북, 텔레그램 등 SNS 중 반국가세력 관리자 그룹, 혹은 유력 인사의 계정을 장악/탈취해, 그 권한으로 나아가 댓글 조작 등을 시도하는 내용"이라고 주장했는데요. 이렇게 되면 메신저로 대한민국 국민들이 어떤 이야기를 하는지 전부 수집할 수 있고, 또한 해당 계정을 직접 공격할 수 있게 됩니다. AI가 적용된 LLM(Large Language Model, 대형 언어 모델)과 결합하면 감청하고자 하는 텍스트를 자동화된 인공지능이 빠르게 탐색할 수도 있겠죠. 거기다 국군 전산병들의 해킹 기술은 그리 나쁜 편이 아닙니다. 지난 C4I 모의 장비 해킹훈련 시에는 순식간에 각 사무실 단말기부터 중앙서버까지 탈취하기도 했죠. 그 뿐만이 아닙니다. 비상계엄이 선포되기 직전부터 육군 특수전사령부와 수도방위사령부 군인들이 서울시가 관리하는 CCTV를 감시 및 관찰한 것으로 보도되기도 했습니다. 군 관계자는 서울시에 별다른 설명 없이 '장비 점검'과 '시스템 테스트'라며 CCTV를 들여다봤다는 데요. 용산구 한남동 일대를 비추는 CCTV와 강남구 압구정동, 종로구 자하문로, 헬기가 착륙할 수 있는 노들섬, 비상계엄이 발표된 직후인 밤 10시 35분쯤 의사당대로, 여의도 국민은행, 그리고 국회 일대의 CCTV를 열람하기도 했습니다. 국회에서 병력이 철수한 새벽 3시 48분까지 706차례나 서울시 CCTV에 접속했다고 하는데요. 서울시가 재난 상황과 치안 대비를 위해 시내에 약 1만여 곳에 설치한 CCTV는, 통합방위태세·경계태세가 격상되거나 군 훈련과 같은 특별한 경우가 아니면 열람이 제한됩니다. 영화에서는 휴대전화를 사용했지만, 권력을 가진 국가의 경우 CCTV 전체조회만 하면 되어, 높은 수준의 기술이 필요 없겠죠. 건물을 투과하여 3D영상을 만들어내는 수준의 기술까진 아니지만, 사람들이 메신저로 어떻한 대화를 하며, 어디서 접속하는 지, 또한 주변에 어떤 일이 벌어지고 있는지 감시할 수 있게 되는 겁니다. 이것이 바로 영화에서나 보던 사이버 해킹이 아닐까 싶은데요. 정말 영화에서만 보던 사이버해킹이 현실적으로 일어날 수 있을까요? 설령 실제로 진행되었다는 가정을 할 게 될 경우, 얼마나 정밀하게 개인을 식별하고 추적할 수 있는 것일까요? 만약 국가가 국민의 디지털 미디어를 전부 감시하고 있고 언제든지 개입할 수 있다면, 그거 야 말로 '잘못된 일'이 아닐까요? IP 추적의 현실적 한계와 디지털 감시망의 허점 물론 IP망을 통해 개인을 추적한다는 말 자체는 어폐가 있을지도 모릅니다. IPv4 주소는 256의 4거듭제곱, 약 43억개의 고유 주소를 가지는 자원입니다. 정해져 있는 자원이라 전 세계인에게 돌아가지 않아요. 실제 IANA(Internet Assigned Numbers Authority, 인터넷 할당 번호 관리기관)에서는 2011년부터 IPv4의 할당을 중지했고, 2015년 ARIN(American Registry for Internet Numbers, 미국 인터넷 번호 등록부)에서는 IP 주소가 고갈되었다고 밝혔습니다. 한국이 소속된 APNIC(Asia Pacific Network Information Center, 아시아-태평양 지역 네트워크 정보센터)의 경우도 2020년에 거의 고갈되었다고 밝혔죠. 128비트 체계인 IPv6을 사용하면 이런 문제가 해결되지만, 아직까지 도입은 지지부진한 상태입니다. 문제는 그러다 보니 공유기를 사용한다거나, Tailnet과 같은 VPN(Virtual Private Network, 가상 사설망)을 쓰는 식으로 IP를 나눠 쓰고, DHCP(Dynamic Host Configuration Protocol, 동적 호스트 구성 프로토콜)과 같이 접속할 때마다 보유중인 IP들중 하나를 분배해주는 식으로 고정된자원을 아껴 쓰게 되는데요. 이렇게 되면 "IP 주소로 원점을 타격하는" 공격은 사실상 불가능해집니다. 또, IP 주소만으로는 개인 정보를 추적할 수도 없습니다. 우리나라가 중국과 같이 전국민을 검열하는 정보 감시 방화벽인 금순공정이 있는 것도 아니여서 SSL에 대한 중간자 공격도 불가능합니다. 과거 IPv4의 수량이 충분하였을 때 개인마다 고정 IP를 받던 시기 기준으로 IP를 추적해서 핑 폭주 공격인 ICMP Flooding을 가하기도 했지만, 개인유무를 식별할 수 없는데다 IDC에서 1차적으로 걸러지는 지금은 불가능하죠.하지만 한국인터넷진흥원(KISA)와 같이 각국에서 사용할 주소 자체는 어느 정도 관리되고 있기 때문에 Track URL과 같은 도구를 통해 어느 ISP(Internet Service Provider, 인터넷 서비스 공급자)의 어떤 노드에서 접속했는지는 알 수 있습니다. 특정 지역 거주 여부 정도까진 알 수 있죠. 개인이 정보를 뽑아낼 수 있는 건 여기까지입니다. 하지만 여기서 문제가 생깁니다. 통신사 문을 물리적으로 열고 들어갈 수 있는 권력기관이라면 사정은 달라지죠. 통신사는 라우팅 정보를 사용해서 유동 IP가 어느 MAC 주소 사용 기기, 어느 가입자에게 할당되었는지에 대한 로그를 보유하고 있습니다. 그래서 사이버수사대는 통신사 측에 정식으로 수사 협조 요청을 해서 정보를 수령, IP와 개인 정보를 확인하기도 합니다. 통신사정보열람 및 개인 SNS감청과 통신비밀보호법의 딜레마 여기서 문제가 생깁니다. 앞서 CCTV를 강제로 열어봤던 것처럼, 총구나 권력을 앞세워 통신사 정보를 강제로 열람하거나 혹은 PII(Personal Identifiable Information, 개인 식별 정보) 원장을 보유하고 있는 국가 기관이 작정하고 개인의 사생활을 열람 및 공격하겠다고 나서면 이를 막을 수 있는 방법이 없다시피 한 것입니다. 실제 2017년, 국군 사이버사령부가 법원을 비롯해 공공기관 전산망을 해킹하고 있다는 사실이 드러난 적도 있었습니다. 미국의 경우 NSA(National Security Agency, 미국 국가안보국)에서는 공개되지 않은 제로데이 취약점이 산더미같이 쌓여있다는 말이 나오기도 하죠. 국가정보기관의 국민을 향한 이런 도감청 시도는 한국에서만 일어나는 일이 아니라는 겁니다. 실제 1979년 12월 12일, 계엄사령부 합수본부단장이자 보안사령관이었던 전두환은 도감청을 총동원한 정보 수집을 바탕으로 진압군의 움직임을 속속들이 파악해서 진압군의 움직임에 사전대응했습니다. 특히 전두환의 비서실장이자 하나회의 핵심인물 중 한 명인 허화평은 군사반란을 성공적으로 이끌기 위해, 수도경비사령관 장태완 소장을 중심으로 한 진압군들의 모든 통화를 도감청한 적이 있습니다. 이걸 보면 권력을 등에 업은 국가정보기관의 무서움을 새삼 실감할 수 있는데요. 이번 사건은 계엄사령부가 도청과 감청에 이어 더 강력하고, 초법적이며, 불법여론 조작까지 하려는 시도로 인한 공포가 증가되었다고 볼 수 있습니다. 국민헌법상 통신의 비밀을 국민의 기본권으로 규정하고 있습니다. 통신비밀보호법도 감청가능한 범죄의 한정, 범죄수사의 보충성, 영장에 준하는 법원의 허가서 발부 등 매우 엄격한 요건 아래에서만 감청을 허용하고 있습니다. 하지만 전국민을 대상으로 소위 '반국가세력'을 막겠다는 미명 하에 자행될 뻔했던 이번 공격은 비윤리적이며, 위험하며, 잘못된 일입니다.
Dec 19 2024
디지털 혁신의 가속화와 함께 생성형AI는 기업 보안과 저작권 체계에 새로운 도전과 기회를 제공하고 있습니다. 이러한 변화 속에서 기업은 법적 리스크를 최소화하고 효율성을 극대화하기 위한 전략을 수립해야 합니다. 본 문서에서는 생성형AI가 기업 보안과 디지털 저작권에 미치는 영향, 그리고 e디스커버리 제도에 미치는 변화를 살펴보고자 합니다.생성형AI가 기업 보안에 미치는 영향생성형AI는 기업의 보안 환경에 긍정적 영향과 잠재적 위협을 모두 가져옵니다. 한편으로 AI 기술은 사이버 위협 탐지, 보안 교육, 개인정보 보호 등에서 혁신을 이끌며 보안 업무의 효율성을 극대화합니다. 예를 들어, AI 기반 자동 기사 생성 도구는 뉴스를 신속히 작성하여 실시간 제공함으로써 제작 효율성을 크게 높입니다.반면 생성형AI의 오남용은 새로운 보안 위협을 초래할 수 있습니다. AI를 활용한 사이버 공격, 데이터 유출, 딥페이크 등의 문제는 기업 보안에 심각한 위협이 됩니다. 또한 법적 효율성을 높이는 동시에 윤리적 문제와 개인정보 침해 위험을 동반합니다. e디스커버리 제도는 AI 도입에 따른 이점과 위험 요소를 균형 있게 반영해야 합니다. 이를 위해 국가정보원은 AI 활용 시 보안 가이드라인을 발표하며 서비스 사용, AI와의 대화, 플러그인 및 확장 프로그램 사용 시 보안 대응 방안을 제시하고 있습니다. 생성형AI의 법적 저작권 범위생성형AI가 만든 콘텐츠의 저작권 인정 여부는 현재 법적 논의의 중심에 있습니다. 일반적으로 저작권은 인간의 창작물에 부여되며, AI가 생성한 콘텐츠는 저작권 보호 대상에서 제외되는 경향이 있습니다. 예를 들어, 우리나라에서 생성형AI로 제작된 영화 ‘AI 수로부인’은 편집저작물로서 저작권을 인정받았습니다. 이는 이미지, 영상 등의 배열에 창작성이 있다는 점을 인정한 것입니다.그러나 생성형AI가 학습한 기존 저작물에 대한 저작권 침해 문제는 여전히 존재합니다. 기존 저작물을 학습하여 유사한 결과물을 생성할 경우, 이는 저작권 침해로 간주될 수 있습니다. 따라서 AI를 활용한 콘텐츠 제작 시에는 저작권 침해 여부를 신중히 검토해야 합니다. 생성형AI 시대에서 e디스커버리 제도의 방향성e디스커버리 제도는 소송 과정에서 전자적 형태의 증거를 수집, 보존, 분석, 제출하는 절차를 의미합니다. 생성형AI의 발전은 e디스커버리 과정에 새로운 과제를 안겨주고 있습니다. 예를 들어, AI가 생성한 콘텐츠가 증거로 제출될 경우, 그 신뢰성과 진위 여부를 판단하는 것이 중요합니다. 특히, 딥 페이크와 같이 AI를 활용한 위조 콘텐츠의 증가는 법적 증거로서의 신뢰성을 저하시킬 수 있습니다. 따라서 생성형AI 시대의 e디스커버리 제도는 다음과 같은 방향으로 발전해야 합니다:- AI 생성 콘텐츠의 신뢰성 검증: AI가 생성한 콘텐츠의 진위 여부를 판단하기 위한 기술적, 법적 기준 마련- 저작권 침해 여부 판단: AI가 생성한 콘텐츠가 기존 저작권을 침해하는지 여부를 검토하는 절차 강화- 법적 프레임워크 정립: 생성형AI와 관련된 법적 공백을 메우기 위해 저작권법 및 관련 법령 개정 필요 생성형AI의 윤리적 고려사항결정적으로 윤리적 문제와 보안 및 프라이버시 보호에 대한 주의가 필요합니다. 따라서 e디스커버리 제도는 생성형AI의 도입으로 인한 효율성 향상과 함께, 윤리적 문제와 보안 및 프라이버시 보호에 대한 고려를 균형 있게 반영해야 합니다. 생성형AI의 발전은 기업 보안, 저작권, 법적 절차 등 다양한 분야에 새로운 도전과 기회를 제공합니다. 법률 전문가들은 이러한 변화에 발맞춰 새로운 법적 기준과 절차를 마련해야 하며, 이를 통해 디지털 시대의 법적 안정성과 공정성을 확보할 수 있을 것입니다. 생성형AI에 대한 대비책 필요생성형AI는 빠르게 전환되는 디지털시대의 중심에 있습니다. 기업과 법률 전문가들은 관련 규제를 면밀히 검토하고 변화에 발맞춘 대비책을 마련해야 합니다. 이를 통해 기술 발전 속에서 법적 안정성을 확보하고 신뢰할 수 있는 디지털 환경을 구축할 수 있을 것입니다.
Dec 17 2024