Microsoft와 NVIDIA는 차세대 AI 산업 혁신을 주도하기 위해 파트너십을 심화하고 있습니다. 수년 동안 우리 회사는 AI 혁명을 촉진하여 세계에서 가장 진보된 슈퍼컴퓨팅을 클라우드에 도입하고 획기적인 프론티어 모델을 지원하며 모든 조직이 AI에 더 쉽게 접근할 수 있도록 지원해 왔습니다. 오늘날 우리는 더 뛰어난 성능, 기능 및 유연성을 제공하는 새로운 발전을 통해 이러한 기반을 구축하고 있습니다.
추가 지원 포함 NVIDIA RTX PRO 6000 블랙웰 서버 에디션 ~에 Azure 로컬을 통해 고객은 클라우드에서 사용하는 원활한 조정 및 관리를 통해 AI 및 비주얼 컴퓨팅 워크로드를 분산 및 엣지 환경에 배포할 수 있습니다. 새로운 NVIDIA Nemotron 및 NVIDIA Cosmos 모델 Azure AI 파운드리 기업에 AI 애플리케이션과 에이전트를 구축, 배포, 확장할 수 있는 엔터프라이즈급 플랫폼을 제공합니다. Azure의 NVIDIA Run:ai를 통해 기업은 모든 GPU에서 더 많은 것을 얻어 운영을 간소화하고 AI를 가속화할 수 있습니다. 마지막으로 Microsoft는 세계 최초로 NVIDIA GB300 NVL72를 배포하여 AI 인프라를 재정의하고 있습니다.
오늘의 발표는 NVIDIA와의 풀 스택 AI 협업의 다음 장을 의미하며 고객이 미래를 더 빠르게 구축할 수 있도록 지원합니다.
GPU 지원을 Azure Local로 확장
Microsoft와 NVIDIA는 퍼블릭 및 프라이빗 클라우드, 엣지 및 소버린 환경을 포괄하는 혁신적인 솔루션을 제공하면서 인공 지능의 발전을 지속적으로 추진하고 있습니다.
에서 강조한 바와 같이 NVIDIA GTC에 대한 3월 블로그 게시물Microsoft는 Azure에서 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 제공할 예정입니다. 이제 Azure Local에서 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU의 가용성이 확장됨에 따라 조직은 위치에 관계없이 AI 워크로드를 최적화하여 고객에게 그 어느 때보다 뛰어난 유연성과 더 많은 옵션을 제공할 수 있습니다. Azure Local은 Azure Arc를 활용하여 조직이 클라우드의 관리 단순성을 유지하거나 완전히 연결되지 않은 환경에서 운영하면서 고급 AI 워크로드를 온-프레미스에서 실행할 수 있도록 지원합니다.
Microsoft는 먼저 Azure에서 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 제공하고 Azure Local에서 NVIDIA GPU의 가용성을 확대하고 있습니다. Azure Local은 Azure Arc를 활용하여 조직이 온프레미스에서 고급 AI 워크로드를 실행하는 동시에 클라우드의 관리 단순성을 유지하거나 완전히 연결되지 않은 환경에서 운영할 수 있도록 지원합니다. Azure Arc가 지원하는 Azure의 적응형 클라우드 접근 방식을 통해 고객은 그 어느 때보다 더 많은 옵션을 사용하여 AI 워크로드를 최적화할 수 있습니다.
NVIDIA RTX PRO 6000 Blackwell GPU는 에이전트 AI부터 광범위한 사용 사례를 가속화하는 데 필요한 성능과 유연성을 제공합니다. 물리적 AI과학 컴퓨팅부터 렌더링, 3D 그래픽, 디지털 트윈, 시뮬레이션, 비주얼 컴퓨팅까지. 이 확장된 GPU 지원은 의료, 소매, 제조, 정부, 국방 및 정보 고객을 위한 중요 인프라의 엄격한 요구 사항을 충족하는 다양한 엣지 사용 사례를 제공합니다. 여기에는 공공 안전을 위한 실시간 비디오 분석, 산업 환경의 예측 유지 관리, 신속한 의료 진단, 에너지 생산 및 중요 인프라와 같은 필수 서비스에 대한 안전하고 지연 시간이 짧은 추론이 포함될 수 있습니다. NVIDIA RTX PRO 6000 Blackwell은 다음을 활용하여 향상된 가상 데스크탑 지원을 제공합니다. 엔비디아 vGPU 기술 및 멀티 인스턴스 GPU(MIG) 기능을 제공합니다. 이는 더 높은 사용자 밀도를 수용할 수 있을 뿐만 아니라 AI로 강화된 그래픽 및 시각적 컴퓨팅 기능을 강화하여 까다로운 가상 환경에 효율적인 솔루션을 제공합니다.
올해 초 Microsoft는 NVIDIA 가속 컴퓨팅으로 더욱 강화된 다양한 엣지 AI 기능을 발표했습니다.
- 엣지 검색 증강 생성(RAG): 정부, 의료, 산업 자동화 전반에 걸쳐 미션 크리티컬 사용 사례를 지원하는 로컬 데이터에 대한 빠르고 안전하며 확장 가능한 추론을 통해 주권 AI 배포를 강화합니다.
- Azure Arc를 통해 지원되는 Azure AI Video Indexer: 연결이 끊긴 환경에서 실시간 및 녹화된 비디오 분석을 지원합니다. 공공 안전 및 중요 인프라 모니터링 또는 이벤트 후 분석에 이상적입니다.
와 함께 Azure 로컬고객은 NVIDIA가 제공하는 최신 AI 혁신을 활용하면서 엄격한 규제, 데이터 상주 및 개인 정보 보호 요구 사항을 충족할 수 있습니다.
비즈니스 연속성을 위해 매우 짧은 대기 시간이 필요한지, 강력한 로컬 추론이 필요한지, 업계 규정 준수가 필요한지, 우리는 데이터가 있는 모든 곳에서 최첨단 AI 성능을 제공하기 위해 최선을 다하고 있습니다. 이제 고객은 Dell AX-770, HPE ProLiant DL380 Gen12 및 레노버 씽크애자일 MX650a V4.
향후 출시 여부에 대해 자세히 알아보고 조기 주문에 등록하려면 다음을 방문하세요.
Azure AI Foundry의 새로운 모델을 통해 AI의 미래를 강화합니다.
Microsoft는 고객이 필요로 하는 곳 어디에서나 가장 발전된 AI 기능을 고객에게 제공하기 위해 최선을 다하고 있습니다. NVIDIA와의 파트너십을 통해 Azure AI 파운드리 이제 세계적 수준의 다중 모달 추론 모델을 기업에 직접 제공하고 안전하고 확장 가능한 NVIDIA NIM™ 마이크로서비스로 어디서나 배포할 수 있습니다. 포트폴리오는 다양한 사용 사례를 포괄합니다.
NVIDIA Nemotron 제품군: 에이전트 AI를 위한 고정밀 개방형 모델 및 데이터 세트
- Llama Nemotron Nano VL 8B는 현재 출시되어 있으며 다중 모드 비전 언어 작업, 문서 인텔리전스 및 이해, 모바일 및 엣지 AI 에이전트에 맞게 조정되었습니다.
- NVIDIA Nemotron Nano 9B는 현재 출시되어 있으며 엔터프라이즈 에이전트, 과학적 추론, 고급 수학, 소프트웨어 엔지니어링 및 도구 호출을 위한 코딩을 지원합니다.
- NVIDIA Llama 3.3 Nemotron Super 49B 1.5는 곧 출시될 예정이며 엔터프라이즈 에이전트, 과학적 추론, 고급 수학, 소프트웨어 엔지니어링 및 도구 호출을 위한 코딩을 위해 설계되었습니다.
NVIDIA Cosmos 제품군: 물리적 AI를 위한 오픈 월드 기반 모델
- Cosmos Reason-1 7B는 현재 출시되어 있으며 로봇 공학 계획 및 의사 결정, 자율 차량을 위한 교육 데이터 큐레이션 및 주석, 비디오 데이터에서 통찰력을 추출하고 근본 원인 분석을 수행하는 비디오 분석 AI 에이전트를 지원합니다.
- NVIDIA Cosmos Predict 2.5는 곧 출시될 예정이며 세계 상태 생성 및 예측을 위한 일반 모델입니다.
- NVIDIA Cosmos Transfer 2.5는 곧 출시될 예정이며 구조적 조건 조정 및 물리적 AI용으로 설계되었습니다.
Microsoft Research의 Microsoft TRELLIS: 고품질 3D 자산 생성
- Microsoft Research의 Microsoft TRELLIS는 현재 출시되어 있으며 간단한 프롬프트에서 정확한 3D 자산을 생성하고, AR 및 가상 체험을 위한 사실적인 제품 모델을 통한 몰입형 소매 경험을 생성하고, 창의적인 아이디어를 생산 가능한 3D 콘텐츠로 전환하여 게임 및 시뮬레이션 개발을 통해 디지털 트윈을 지원합니다.
이러한 개방형 모델은 Azure와 NVIDIA 파트너십의 깊이를 반영합니다. Microsoft의 적응형 클라우드와 NVIDIA의 가속 컴퓨팅 리더십을 결합하여 모든 산업을 위한 차세대 에이전트 AI를 지원합니다. 여기에서 모델에 대해 자세히 알아보세요..
Azure에서 NVIDIA Run:ai를 통해 엔터프라이즈 AI의 GPU 활용도 극대화
AI 워크로드 및 GPU 오케스트레이션 플랫폼인 NVIDIA Run:ai는 조직이 컴퓨팅 투자를 최대한 활용하고 AI 개발 주기를 가속화하며 새로운 통찰력과 기능을 위한 출시 기간을 단축할 수 있도록 지원합니다. 데려와서 NVIDIA Run:ai에서 Azure로우리는 기업이 팀과 워크로드 전반에 걸쳐 GPU 리소스를 동적으로 할당, 공유 및 관리할 수 있는 기능을 제공하여 모든 GPU에서 더 많은 것을 얻을 수 있도록 돕습니다.
Azure의 NVIDIA Run:ai는 Azure NC 및 ND 시리즈 인스턴스, AKS(Azure Kubernetes Service) 및 Azure ID 관리를 포함한 핵심 Azure 서비스와 원활하게 통합되며 통합된 엔터프라이즈 지원 AI 오케스트레이션을 위해 Azure Machine Learning 및 Azure AI Foundry와의 호환성을 제공합니다. 우리는 고객이 정적 인프라를 AI 혁신을 위한 유연한 공유 리소스로 전환할 수 있도록 하이브리드 규모를 실현하고 있습니다.
더 스마트한 오케스트레이션과 클라우드 지원 GPU 풀링을 통해 팀은 더 빠른 혁신을 추진하고, 비용을 절감하고, 자신 있게 조직 전체에서 AI의 힘을 발휘할 수 있습니다. Azure의 NVIDIA Run:ai GPU 인식 예약을 통해 AKS를 향상시켜 팀이 GPU 리소스를 보다 효율적으로 할당, 공유 및 우선 순위를 지정하도록 돕습니다. 원클릭 작업 제출, 자동화된 대기열 및 내장된 거버넌스를 통해 운영이 간소화됩니다. 이를 통해 팀은 인프라 관리에 소요되는 시간을 줄이고 다음 단계 구축에 더 많은 시간을 집중할 수 있습니다.
이러한 영향은 산업 전반에 걸쳐 기업 성장의 모든 단계에서 혁신적인 AI 워크로드를 뒷받침하는 인프라와 조정을 지원합니다.
- 의료 기관은 Azure에서 NVIDIA Run:ai를 사용하여 하이브리드 환경 전반에서 의료 영상 분석 및 약물 발견 워크로드를 향상시킬 수 있습니다.
- 금융 서비스 조직은 복잡한 위험 시뮬레이션 및 사기 탐지 모델을 위해 GPU 클러스터를 조정하고 확장할 수 있습니다.
- 제조업체는 공장의 품질 관리 및 예측 유지 관리 개선을 위해 컴퓨터 비전 교육 모델을 가속화할 수 있습니다.
- 소매업체는 효율적인 GPU 할당 및 확장을 통해 더욱 개인화된 경험을 제공하는 실시간 추천 시스템을 강화하여 궁극적으로 고객에게 더 나은 서비스를 제공할 수 있습니다.
Microsoft Azure와 NVIDIA를 기반으로 하는 Run:ai는 기업이 격리된 AI 실험에서 프로덕션 수준의 혁신으로 전환할 수 있도록 지원하기 위해 특별히 제작되었습니다.
대규모 AI 재구상: NVIDIA GB300 NVL72 슈퍼컴퓨팅 클러스터를 최초로 배포
Microsoft는 새로운 NDv6 GB300 VM 시리즈를 통해 AI 인프라를 재정의하고 있습니다. 대규모 생산 클러스터 4600개 이상의 NVIDIA GB300 NVL72 시스템 NVIDIA 블랙웰 울트라 GPU NVIDIA Quantum-X800 InfiniBand 네트워킹을 통해 연결됩니다. 각 NVIDIA GB300 NVL72 랙에는 72개의 NVIDIA Blackwell Ultra GPU와 36개의 NVIDIA Blackwell Ultra GPU가 통합되어 있습니다. NVIDIA Grace™ CPU단일 캐비닛에서 130TB/s 이상의 NVLink 대역폭과 최대 136kW의 컴퓨팅 성능을 제공합니다. 추론 모델, 에이전트 시스템, 멀티모달 AI 등 가장 까다로운 워크로드를 위해 설계된 GB300 NVL72는 초고밀도 컴퓨팅, 직접 액체 냉각 및 스마트 랙 규모 관리를 결합하여 표준 데이터 센터 공간 내에서 획기적인 효율성과 성능을 제공합니다.
Azure의 공동 엔지니어링 인프라는 가속화된 I/O를 위한 Azure Boost 및 엔터프라이즈급 보호를 위한 통합 HSM(하드웨어 보안 모듈)과 같은 기술을 통해 GB300 NVL72를 향상합니다. 각 랙은 사전 통합되고 자체 관리되어 제공되므로 Azure의 글로벌 제품군에 걸쳐 신속하고 반복 가능한 배포가 가능합니다. NVIDIA GB300 NVL72를 대규모로 배포한 최초의 클라우드 제공업체인 Microsoft는 AI 슈퍼컴퓨팅의 새로운 표준을 설정하여 조직이 그 어느 때보다 더 빠르고 효율적이며 안전하게 첨단 모델을 교육하고 배포할 수 있도록 지원하고 있습니다. Azure와 NVIDIA가 함께 AI의 미래를 주도하고 있습니다.
NVIDIA Dynamo로 ND GB200-v6 VM의 성능 극대화
NVIDIA와의 협력은 고객이 기존 AI 인프라 투자의 가치를 극대화할 수 있도록 컴퓨팅 스택의 모든 계층을 최적화하는 데 중점을 두고 있습니다.
컴퓨팅 집약적인 추론 모델을 위한 고성능 추론을 대규모로 제공하기 위해 우리는 오픈 소스를 결합한 솔루션을 통합하고 있습니다. 엔비디아 다이나모 프레임워크, ND GB200-v6 VM 엔비디아 GB200 NVL72 및 AKS(Azure Kubernetes Service). 우리는 프로덕션 준비가 완료된 관리형 AKS 클러스터에 배포된 초당 120만 개의 토큰을 처리하는 gpt-oss 120b 모델을 통해 이 결합된 솔루션이 대규모로 제공하는 성능을 입증했으며 개발자가 오늘 시작할 수 있는 배포 가이드를 게시했습니다.
Dynamo는 다중 노드 환경 및 랙 규모 가속 컴퓨팅 아키텍처를 위해 설계된 오픈 소스 분산 추론 프레임워크입니다. Dynamo는 분리된 서비스, LLM 인식 라우팅 및 KV 캐싱을 지원함으로써 Blackwell의 추론 모델 성능을 크게 향상시켜 이전 Hopper 세대에 비해 최대 15배 더 많은 처리량을 확보하고 AI 서비스 제공업체에 새로운 수익 기회를 열어줍니다.
이러한 노력을 통해 AKS 프로덕션 고객은 프론티어 추론 모델을 대규모로 배포할 때 NVIDIA Dynamo의 추론 최적화를 최대한 활용할 수 있습니다. 우리는 고객에게 최신 오픈 소스 소프트웨어 혁신을 제공하여 고객이 Azure에서 NVIDIA Blackwell 플랫폼의 잠재력을 완전히 실현할 수 있도록 돕기 위해 최선을 다하고 있습니다.
더 많은 AI 리소스 얻기
- 샌프란시스코에서 우리와 함께 하세요 마이크로소프트 이그나이트 11월에는 최신 엔터프라이즈 솔루션 및 혁신 소식을 듣게 됩니다.
- 탐구하다 Azure AI 파운드리 그리고 Azure 로컬.
게시물 함께 미래를 건설하세요: Microsoft와 NVIDIA가 GTC DC에서 AI 발전 발표 처음 등장한 Microsoft AI 블로그.