인텔과 구글은 오늘 차세대 AI 및 클라우드 인프라 발전을 위한 다년간의 협력을 발표했다. 양사는 이를 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 CPU와 주문형 IPU(인프라 처리 장치)의 핵심적인 역할을 강화한다고 밝혔다.
AI 도입이 가속화됨에 따라 인프라는 더욱 복잡하고 이기종으로 변하고 있으며, 이에 따라 오케스트레이션, 데이터 처리 및 시스템급 성능을 위해 CPU에 대한 의존도가 높아지고 있다. 이번 협력을 통해 인텔과 구글은 인텔® 제온®(Intel® Xeon®) 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능, 에너지 효율성 및 총 소유 비용을 개선할 예정이다.
AI는 가속기만이 아닌 시스템에서 구동, CPU는 이러한 시스템의 핵심
구글 클라우드(Google Cloud)는 최신 인텔 제온 6(Intel Xeon 6) 프로세서를 탑재한 C4 및 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스 전반적으로 인텔 제온 프로세서를 지속적으로 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론 및 범용 컴퓨팅에 이르기까지 광범위한 워크로드를 지원하고 있다.
이와 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 이러한 프로그래밍 가능한 가속기는 호스트 CPU에서 네트워킹, 스토리지 및 보안 기능을 분담하여 활용도를 높이고 효율성을 향상시키며 하이퍼스케일 AI 환경 전반에서 더욱 예측 가능한 성능을 구현한다.
IPU는 최신 데이터 센터 아키텍처의 핵심 구성 요소로, 기존 CPU가 담당하던 인프라 작업을 처리하여 더욱 효율적인 컴퓨팅 성능을 제공한다. 클라우드 제공업체(CP)는 이를 통해 시스템 복잡성을 높이지 않고도 더욱 효율적으로 확장할 수 있다. 제온 CPU와 IPU는 함께 긴밀하게 통합된 플랫폼을 구성하여 범용 컴퓨팅과 특정 목적에 특화된 인프라 가속 기능을 균형 있게 제공함으로써 더욱 효율적이고 유연하며 확장 가능한 AI 시스템을 구현해준다.
대규모 환경에서 성능 및 효율성 극대화
립-부 탄(Lip-Bu Tan) 인텔 CEO는 “AI는 인프라 구축 및 확장 방식을 재편하고 있다”며, “AI 확장을 위해서는 가속기 이상의 것이 필요하며, 균형 잡힌 시스템이 필수적이다. CPU와 IPU는 최신 AI 워크로드가 요구하는 성능, 효율성 및 유연성을 제공하는 데 핵심적인 역할을 한다”고 말했다.
아민 바흐다트(Amin Vahdat) 구글 AI 인프라 부문 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습 오케스트레이션부터 추론 및 배포에 이르기까지 AI 시스템의 핵심 요소로 남아 있다”라며, “인텔은 거의 20년 동안 신뢰할 수 있는 파트너였으며, 인텔의 제온 로드맵을 통해 구글은 워크로드의 증가하는 성능 및 효율성 요구 사항을 지속적으로 충족할 수 있을 것이라는 확신을 갖게 되었다”고 밝혔다.
차세대 AI 기반 구축
이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키고자 하는 양사 공동의 노력을 반영했다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합함으로써, 활용도를 높이고 복잡성을 줄이며 효율적인 확장을 가능하게 하는 균형 잡힌 AI 시스템 설계 방식을 구현하고 있다.
양사는 협력을 통해 차세대 AI 기반 클라우드 서비스의 기반을 강화하고, 전 세계 기업, 개발자 및 사용자의 지속적인 혁신을 지원해 나갈 계획이다.
등록순 최신순 댓글순