February 9, 2025

Web and Technology News

메타, 새 정책 문서에서 ‘위험한 AI 시스템 출시 않겠다’ 약속

메타의 새로운 정책 문서인 프론티어 AI 프레임워크(Frontier AI Framework)에 따르면, 회사는 특정 위험 시나리오에 해당할 경우 자체 개발한 AI 시스템을 외부 출시하지 않을 방침이다.

이 문서는 ‘고위험’(high risk) 또는 ‘극위험’(critical risk)으로 분류될 수 있는 두 가지 유형의 AI 시스템을 정의한다. 두 경우 모두 사이버, 화학 또는 생물학적 공격을 수행하는 데 도움이 될 수 있는 시스템이다.

‘고위험’으로 분류된 시스템은 치명적인 결과를 초래할 수 있는 ‘극위험’ 시스템과 같은 정도는 아닐지라도 파국적 공격으로 이어질 가능성을 가진다. 예를 들어, 기업 환경을 장악하는 도구, 강력한 생물학적 무기 배치 등이 이에 해당한다.

이 문서에서 메타는 시스템이 ‘고위험인 경우, 회사는 내부 접근을 제한하고 위험성을 ‘중간 수준’(moterate levels)으로 줄이기 위한 조치가 취해질 때까지 시스템을 공개하지 않을 것’이라고 명시하고 있다. 아울러 시스템이 ‘극위험’인 경우, 시스템 확산을 막기 위한 보안 보호 장치가 마련되고 시스템이 더 안전해질 때까지 개발이 중단되게 된다.
dl-ciokorea@foundryco.com

Previous Article

칼럼 | 굿바이 디지털 트랜스포메이션, 이제 AI 우선 비즈니스 트랜스포메이션이다

Next Article

Hitachi Ventures raises $400M fund to invest in everything from fusion to AI

You might be interested in …

하이테크 사이버 공격에 대한 ‘로우테크’ 해결책

2025년이 AI 사이버 범죄의 해가 될 것이라는 우려가 있지만, 사실 이 흐름은 이미 2024년에 시작됐다.

AI를 활용한 범죄는 점점 더 압도적인 수준으로 발전하고 있다. 이를 막을 유일한 방법은 AI 기반 보안 소프트웨어를 이용하는 것뿐이라고 말하는 이들도 있다. 그러나 최근에 등장한 2가지 간단하고 기술적 진입 장벽이 낮은 방법이 주목받고 있다. 이 방법은 기업 및 개인 사용자 모두에게 적용할 …

보안 운영에서 급증하는 생성형 AI 사용례··· 우려할 점은?

많은 CISO가 수작업 프로세스를 자동화하고 생산성을 향상하기 위해 생성형 AI를 보안 도구에 빠르게 통합하고 있다. 그러나 한 연구에 따르면, 생성형 AI 도입 급증은 우려를 동반한다. CISO는 생성형 AI를 보안 운영에 통합할 때 이런 신중한 시각을 반드시 고려해야 한다.

생성형 AI를 일찍이 도입한 기업은 이 기술을 사용해 보안 워크플로를 자동화하고 가속화하며 사고 대응 능력을 개선하고 있다. …

Leave a Reply

Your email address will not be published. Required fields are marked *