November 16, 2025

Web and Technology News

방어도 AI 시대…체크포인트, AI 기반 사이버 위협 및 대응 전략 보고서 발표

글로벌 사이버보안 업체 체크포인트 소프트웨어 테크놀로지스(Check Point Software Technologies Ltd., 이하 체크포인트)가 최신 AI 시큐리티 리포트(AI Security Report)를 발표했다. 이번 보고서는 사이버 범죄자가 생성형 AI와 LLM(Large Language Model)을 어떻게 무기화하고 있는지 분석하고, 방어자가 이들보다 한발 앞서 나가기 위한 전략적 인사이트를 제공한다.

AI가 산업을 재편하면서 디지털 세계에서 진실과 거짓의 경계가 무너지고 있다. 체크포인트는 사이버 범죄자가 생헝형 AI와 LLM을 적극 활용해 디지털 아이덴티티에 대한 신뢰를 흔들고 있으며, AI 기반 사칭은 가장 정교한 인증 시스템을 우회할 수 있어 누구든 대규모 사기의 피해자가 될 수 있는 시대라고 지적했다.

체크포인트 리서치 이사 로템 핀켈슈타인은 “사이버 범죄자의 AI 도입이 이미 위협 환경을 재편하고 있다. 일부 지하 공격 서비스는 더욱 발전했지만, 모든 징후는 디지털 트윈의 부상이라는 임박한 변화를 가리키고 있다. 이는 단순히 외형이나 음성이 유사한 것이 아니라, 인간의 사고와 행동을 모방할 수 있는 AI 기반 복제본이다. 먼 미래가 아니라 바로 코앞에 와 있는 것이다”라고 말했다.

기업이 현장에서 마주하는 위협은 점점 더 복잡하고 교묘해지고 있다. 체크포인트는 주요 위협으로 다음 4가지를 꼽았다.

  • AI 기반 사칭 및 정교한 피싱 공격 : AI 생성 이메일, 오디오, 딥페이크 영상 등으로 고도화된 사칭 공격 발생하고 있다. 실제로 이탈리아 국방장관을 사칭한 오디오 피싱 사례에서 보듯, 기존 음성·영상 기반 인증 시스템의 무력화 가능성도 증가하고 있다.
  • LLM 중독(Data Poisoning) 및 허위 정보 확산 : 러시아 관련 챗봇이 33%의 허위 응답을 반복한 사례는 내부 챗봇이나 LLM 도입 시 데이터 신뢰성과 검증 체계 확보가 얼마나 중요한지를 보여준다.
  • AI 기반 악성코드 제작 및 자격증명 마이닝 : AI는 DDoS 자동화, 악성코드 정교화, 자격증명 필터링을 수행하는 데 사용되고 있다. 특히 개버스 샵(Gabbers Shop) 사례처럼 다크웹 기반 AI 도구의 정교화로 인해 탐지 우회 및 대응 지연 가능성이 증가하는 추세다.
  • 다크웹 AI 모델 상용화 : 공격자는 프로드GPT(FraudGPT), 웜GPT(WormGPT) 등 맞춤형 LLM을 보안 우회 및 피싱, 해킹 등에 적극 활용하고 있다. 이는 기존 보안 솔루션만으로는 AI 위협 대응이 한계에 도달했음을 보여준다.

이러한 분석을 바탕으로 보고서 집필팀은 AI가 결합된 적대적 공격 캠페인을 전제로 보안 전략을 세워야 한다고 조언했다. 이를 위해 AI를 고려한 사이버보안 프레임워크를 마련할 필요가 있으며, 주요 방안으로는 AI 기반 탐지 및 위협 헌팅, 다중 AI 기반 아이덴티티 검증 체계, AI 컨텍스트를 활용한 위협 인텔리전스 강화 등이 제시됐다.

예를 들어, 스마트 이벤트(SmartEvent)와 쓰렛클라우드(ThreatCloud) 같은 솔루션을 연계해 AI가 생성한 피싱, 딥페이크를 실시간으로 식별·대응할 수 있어야 한다. 또한 기존 OTP나 음성 인증에 더해 텍스트, 영상, 음성을 함께 검증하는 다층적 신원 확인 체계가 필요하다. 아울러, 마이터 어택(MITRE ATT&CK) 매핑 기반 위협 모델링 등을 통해 LLM 악용 TTP(techniques tactics procedures)를 사전에 식별하고 대응할 수 있는 체계도 필수적이다.

핀켈슈타인은 “AI 중심 시대에 사이버보안팀은 AI를 방어 시스템에 통합해 공격자의 속도에 발맞춰야 한다. 이 보고서는 위험을 강조할 뿐만 아니라 AI 환경을 안전하고 책임감 있게 보호하기 위한 로드맵을 제시한다”라고 말했다.
dl-ciokorea@foundryco.com

Previous Article

“美 개발자 연봉 평균 약 2억 원···전 세계 인기 언어는 자바스크립트” 데보그래픽스 설문 발표

Next Article

“AI 에이전트 오케스트레이션” CIO의 다음 핵심 과제

You might be interested in …

메타, 새 정책 문서에서 ‘위험한 AI 시스템 출시 않겠다’ 약속

메타의 새로운 정책 문서인 프론티어 AI 프레임워크(Frontier AI Framework)에 따르면, 회사는 특정 위험 시나리오에 해당할 경우 자체 개발한 AI 시스템을 외부 출시하지 않을 방침이다.이 문서는 ‘고위험’(high risk) 또는 ‘극위험’(critical risk)으로 분류될 수 있는 두 가지 유형의 AI 시스템을 정의한다. 두 경우 모두 사이버, 화학 또는 생물학적 공격을 수행하는 데 도…

하이테크 사이버 공격에 대한 ‘로우테크’ 해결책

2025년이 AI 사이버 범죄의 해가 될 것이라는 우려가 있지만, 사실 이 흐름은 이미 2024년에 시작됐다.

AI를 활용한 범죄는 점점 더 압도적인 수준으로 발전하고 있다. 이를 막을 유일한 방법은 AI 기반 보안 소프트웨어를 이용하는 것뿐이라고 말하는 이들도 있다. 그러나 최근에 등장한 2가지 간단하고 기술적 진입 장벽이 낮은 방법이 주목받고 있다. 이 방법은 기업 및 개인 사용자 모두에게 적용할 …

보안 운영에서 급증하는 생성형 AI 사용례··· 우려할 점은?

많은 CISO가 수작업 프로세스를 자동화하고 생산성을 향상하기 위해 생성형 AI를 보안 도구에 빠르게 통합하고 있다. 그러나 한 연구에 따르면, 생성형 AI 도입 급증은 우려를 동반한다. CISO는 생성형 AI를 보안 운영에 통합할 때 이런 신중한 시각을 반드시 고려해야 한다.

생성형 AI를 일찍이 도입한 기업은 이 기술을 사용해 보안 워크플로를 자동화하고 가속화하며 사고 대응 능력을 개선하고 있다. …

Leave a Reply

Your email address will not be published. Required fields are marked *