인공지능(AI) 모델 경량화·최적화 솔루션 ‘넷츠프레소(NetsPresso)’를 보유한 노타가 다양한 연산 디바이스 환경(GPU·NPU·TPU 등)에서 일관된 고성능을 구현할 수 있는 핵심 조직인 'XPU 인에어블러 팀(Enabler Team)'의 기술력이 다시 주목받고 있다. 최근 AI 가속기 종류가 급속도로 다변화되는 가운데, 특정 하드웨어 종속성을 탈피해 플랫폼 전반에 대응할 수 있는 기술 기반을 확보한 점이 경쟁력으로 부각되고 있다는 분석이다.
26일 노타의 금융감독원 전자공시 시스템에 제출한 보고서에 따르면 최근 고성능 AI 모델의 등장으로 AI 도입과 운영 비용이 급증하는 가운데, 노타의 기술력이 기업의 비용 절감과 효율 향상을 동시에 실현할 수 있어 글로벌 시장에서 반응이 뜨겁다. 노타는 엔비디아, 삼성전자, ARM, 퀄컴, 소니 등 세계 주요 기업들과 협업한 이력이 있다.
이중 노타의 핵심 경쟁력은 XPU 인에어블러 팀이다. XPU 인에어블러 팀은 넷츠프레소 엔진이 어떤 디바이스 환경에서도 최적의 성능을 낼 수 있도록 하드웨어–소프트웨어 연동 기술을 전문적으로 연구하는 조직이다. 특히 커널 최적화, 커스텀 백엔드 설계, 디바이스별 성능 벤치마킹 등을 수행하며, GPU·NPU·TPU·엣지 디바이스 등 이기종 환경에서도 일관된 추론 효율을 확보할 수 있는 기반 기술을 다지고 있다.
![채명수 노타 대표 [사진=노타]](https://cdn.financialpost.co.kr/news/photo/202511/239230_279489_2250.jpg)
팀 구성 역시 차별점으로 평가된다. ML 컴파일러, 로우레벨 최적화, 임베디드 시스템 등 분야별 전문성을 갖춘 연구자들이 포진해 있다. 글로벌 디바이스 벤더들과의 협업을 통해 실제 상용 디바이스에서 검증된 하드웨어 연동 기술을 다수 확보했다는 평가다. 이를 바탕으로 넷츠프레소는 디바이스가 달라져도 품질 저하 없이 모델을 실행할 수 있는 범용성을 강화해 왔다는 게 노타 측의 설명이다.
노타에 따르면 XPU 인에어블러 팀은 단순 호환성 수준을 넘어, 디바이스별로 모델이 '최적 성능'을 발휘할 수 있도록 자동·수동 최적화 전략을 모두 지원하는 구조를 구축 중이다. 이는 기존의 특정 칩 기반 솔루션 대비 적용 범위를 획기적으로 넓힌 것으로, 다양한 AI 엣지 환경에서 제품 확산 가능성을 높이는 기술적 핵심으로 꼽힌다.
해당 조직을 이끄는 박상건 리더는 임베디드 시스템 및 커널 최적화 경험을 기반으로 넷츠프레소의 하드웨어 적응성 및 실행 효율 극대화를 목표로 기술 개발을 진행하고 있다. 특히 경량화된 AI 모델을 디바이스 제약 없이 신속히 배포할 수 있도록 하는 실행 엔진의 완성도를 높이는 데 집중하고 있다는 설명이다.
XPU 인에어블러 팀이 구현한 GPU·NPU·TPU 등 다양한 디바이스 환경 최적화 기술은 디바이스별 커널 최적화, 커스텀 백엔드 설계, 성능 벤치마킹 등을 통해 일관된 모델 실행 품질을 유지하도록 설계된 것이 특징이다. 이러한 다중 디바이스 대응 능력은 실제 글로벌 디바이스 벤더와의 협업 과정에서 검증된 기술 기반 위에서 구축된 것으로, 넷츠프레소 엔진의 하드웨어 적응성과 실행 효율을 뒷받침하는 핵심 요소로 평가된다.
