일본, 첨단 ABCI 3.0 슈퍼컴퓨터로 AI 주권 강화

Date:

일본의 강화 AI 주권 그리고 연구 개발 역량을 강화하기 위해 일본의 산업 기술 종합 연구소(AIST)는 수천 개의 엔비디아 H200 Tensor Core GPU를 AI Bridging Cloud Infrastructure 3.0 슈퍼컴퓨터(ABCI 3.0)에 통합합니다. Hewlett Packard Enterprise Cray XD 시스템은 다음과 같은 특징을 갖습니다. 엔비디아 퀀텀-2 뛰어난 성능과 확장성을 위한 InfiniBand 네트워킹.

ABCI 3.0은 AI R&D를 발전시키기 위해 설계된 일본의 대규모 오픈 AI 컴퓨팅 인프라의 최신 버전입니다. 이 협업은 일본의 AI 역량을 발전시키고 기술적 독립성을 강화하려는 의지를 강조합니다.

AIST 임원 요시오 타나카는 “2018년 8월에 세계 최초의 대규모 오픈 AI 컴퓨팅 인프라인 ABCI를 출시했습니다.”라고 말했습니다. “지난 몇 년간 ABCI를 관리한 경험을 바탕으로 이제 ABCI 3.0으로 업그레이드하고 있습니다. NVIDIA와 HPE와 협력하여 ABCI 3.0을 추가 연구 및 개발 역량을 발전시킬 컴퓨팅 인프라로 개발하는 것을 목표로 합니다. 생성형 AI 일본에서요.”

AIST Solutions Co.의 프로듀서이자 ABCI 운영 책임자인 히로타카 오가와는 “생성적 AI가 세계적 변화를 촉진할 준비를 하는 가운데, 일본 내에서 연구 개발 역량을 신속하게 기르는 것이 중요합니다.”라고 말했습니다. “NVIDIA와 HPE와의 협력을 통한 ABCI의 이 주요 업그레이드가 국내 산업 및 학계에서 ABCI의 리더십을 강화하고, 일본을 AI 개발에서 세계적 경쟁력으로 이끌고 미래 혁신의 토대가 될 것이라고 확신합니다.”

ABCI 3.0 슈퍼컴퓨터는 일본 국립 산업기술 종합연구소가 운영하는 시설인 가시와에 보관될 예정입니다. 출처: 국립 산업기술 종합연구소 제공.

ABCI 3.0: 일본 AI 연구개발의 새로운 시대

ABCI 3.0은 AIST, 그 자회사인 AIST Solutions, 그리고 시스템 통합자 Hewlett Packard Enterprise(HPE)가 개발하고 운영합니다.

ABCI 3.0 프로젝트는 경제안보기금을 통해 컴퓨팅 리소스를 강화하기 위한 일본 경제산업성(METI)의 지원에 따른 것이며, ABCI 활동과 클라우드 AI 컴퓨팅 투자를 모두 포함하는 METI의 보다 광범위한 10억 달러 규모 이니셔티브의 일부입니다.

NVIDIA는 긴밀히 METI와 협력 지난해 회사 창립자 겸 CEO인 젠슨 황이 일본 총리 기시다 후미오를 비롯한 정계 및 재계 지도자들을 만나 AI의 미래에 대해 논의한 데 이어 연구 및 교육에 주력하고 있습니다.

일본의 미래에 대한 NVIDIA의 헌신

황은 특히 생성 AI, 로봇공학 분야의 연구에 협력할 것을 약속했습니다. 양자 컴퓨팅AI 스타트업에 투자하고 AI에 대한 제품 지원, 교육 및 훈련을 제공합니다.

황은 방문 중 가장 계산 집약적인 AI 작업을 처리하도록 설계된 차세대 데이터 센터인 “AI 팩토리”가 방대한 양의 데이터를 지능으로 전환하는 데 필수적이라고 강조했습니다.

황 총리는 12월 일본 언론과의 회동에서 “AI 공장은 전 세계 현대 경제의 기반이 될 것”이라고 말했다.

초고밀도 데이터 센터와 에너지 효율적인 설계를 통해 ABCI는 AI 및 빅데이터 애플리케이션 개발을 위한 견고한 인프라를 제공합니다.

이 시스템은 올해 말까지 온라인에 올라올 예정이며 최첨단 AI 연구 및 개발 리소스를 제공할 예정입니다. 도쿄 근처 카시와에 위치할 예정입니다.

비교할 수 없는 컴퓨팅 성능과 효율성

이 시설에서는 다음을 제공합니다.

  • 6 인공지능 엑사플롭스 컴퓨팅 용량, 희소성 없이 AI 특정 성능 측정
  • 410배 정밀도 페타플롭, 일반 컴퓨팅 용량 측정
  • 각 노드는 200GB/s의 이분형 대역폭으로 Quantum-2 InfiniBand 플랫폼을 통해 연결됩니다.

NVIDIA 기술은 이 이니셔티브의 중추를 형성하며, 각각 8개의 NVLlink로 연결된 H200 GPU가 장착된 수백 개의 노드는 전례 없는 컴퓨팅 성능과 효율성을 제공합니다.

NVIDIA H200은 초당 4.8테라바이트(TB/s)의 140기가바이트(GB) 이상의 HBM3e 메모리를 제공하는 최초의 GPU입니다. H200의 더 크고 빠른 메모리는 생성적 AI와 LLM을 가속화하는 동시에 더 나은 에너지 효율성과 더 낮은 총소유비용으로 HPC 워크로드를 위한 과학적 컴퓨팅을 발전시킵니다.

NVIDIA H200 GPU는 LLM 토큰 생성과 같은 AI 워크로드의 경우 이전 세대 ABCI 아키텍처보다 에너지 효율성이 15배 더 높습니다.

첨단 NVIDIA Quantum-2 InfiniBand와 네트워크 내 컴퓨팅(네트워킹 장치가 데이터에 대한 계산을 수행하여 CPU의 작업 부담을 덜어줌)을 통합하면 효율적이고 고속, 저지연 통신이 보장되며, 이는 집약적 AI 워크로드와 방대한 데이터 세트를 처리하는 데 필수적입니다.

ABCI는 세계적 수준의 컴퓨팅 및 데이터 처리 능력을 자랑하며, 산업, 학계, 정부와의 공동 AI 연구개발을 가속화하는 플랫폼 역할을 합니다.

METI의 상당한 투자는 AI 개발 역량을 강화하고 생성적 AI의 사용을 가속화하려는 일본의 전략적 비전을 입증합니다.

일본은 AI 슈퍼컴퓨터 개발에 보조금을 지급함으로써 차세대 AI 기술 개발에 걸리는 시간과 비용을 줄이고, 글로벌 AI 분야의 선두주자로 자리매김하고자 합니다.

Share post:

Subscribe

Popular

More like this
Related

생성 AI 활용: 업계 리더를 위한 대담한 도전과 보상

조직이 AI의 잠재력을 계속 탐구함에 따라 Microsoft 고객은 워크플로를...

식품 안전 분야에서 AI의 필요성 증가

특히 광범위한 조류독감 발생의 영향이 농업 부문 전반에 걸쳐...

12월23일 정부지원사업 신규 공고 리스트 (12건) _ (파일 재가공/재배포 가능)

12월 23일 12건<12/23지원사업 신규 공고 목록> *전 영업일인 12/20에 올라온...

Waste Robotics와 Greyparrot가 분류 로봇을 강화하는 방법

Waste Robotics는 FANUC 로봇 팔을 사용하여 안정적이고 정확한 피킹을...