오픈AI, 사이버 보안 특수 모델 'GPT-5.4-사이버' 공개…신원 검증 통한 접근 제어
오픈AI가 사이버 보안 특화 대규모 언어 모델(LLM)의 공개를 본격화하며, 접근 통제 전략을 근본적으로 전환했다. 기존의 모델 기능 제한 방식에서 벗어나, 가장 민감한 기능에 접근하는 사용자 자체를 철저히 검증하는 방식으로 사이버 위험 대응 전략을 수정한 것이다. 이는 생성형 AI의 오용과 악성 사이버 활동에 대한 우려가 고조되는 가운데, 기술 제공과 안전 사이에서 오픈AI가 선택한 새로운 실험적 길로 주목받고 있다.
악시오스 보도에 따르면, 오픈AI는 강화된 사이버보안 역량을 갖춘 'GPT-5.4-사이버(GPT-5.4-Cyber)' 모델을 신원 검증을 완료한 사용자들에게 단계적으로 확대 제공할 계획이다. 회사는 신원 확인과 모니터링 시스템을 통해 오용을 방지하면서도, 가능한 한 광범위하게 해당 도구를 제공하는 것이 목표라고 밝혔다. 이 모델은 취약점 연구, 분석 등 전문적인 사이버 보안 작업을 지원하도록 설계된 것으로 알려졌다.
이번 조치는 사이버 보안이라는 민감한 분야에서 생성형 AI의 역할과 책임에 대한 논의를 다시 촉발시킬 전망이다. 오픈AI의 새로운 접근법은 기술의 민감한 활용을 완전히 차단하기보다는, 엄격한 게이트키핑(gatekeeping) 아래 허용하는 모델로, 향후 다른 AI 기업들의 정책에 영향을 미칠 가능성이 있다. 그러나 신원 검증 시스템의 실효성과 모니터링이 제 기능을 할지에 대한 검증은 아직 남아있으며, 이 실험이 사이버 위협 대응의 새로운 패러다임이 될지, 아니면 새로운 취약점을 노출시킬지 업계의 주목을 받고 있다.