1. AI 프롬프트 한 번이 전력 폭증 유발…‘트랜스포머’ 한계 드러내며 차세대 아키텍처 경쟁 가열
AI의 폭발적 확산이 전력 수요를 급증시키며, 현재 대부분의 대형언어모델(LLM)이 채택하고 있는 ‘트랜스포머(Transformer)’ 아키텍처의 근본적 한계를 노출하고 있다. 데이터센터를 무작정 증설하는 방식으로는 AI 연산 수요의 폭주를 따라잡기 어렵다는 업계의 공감대가 확산되면서, 전력 효율을 획기적으로 높일 수 있는 ‘포스트 트랜스포머(Post-Transformer)’ 차세대 구조가 유일한 돌파구로 급부상하고 있다. 문제의 핵심은 트랜스포머 모델이 단일 AI 프롬프트(명령) 처리 시에도 막대한 양의 병렬 연산을 수행해야 한다는 데 있다. 이 구조는 정교한 문...