AI 뉴스허브

Google Cloud Next 2025 : 실리콘, 소프트웨어 및 오픈 에이전트 생태계로 AI를 두 배로 늘립니다.

Google Cloud Next 2025 : 실리콘, 소프트웨어 및 오픈 에이전트 생태계로 AI를 두 배로 늘립니다.

라스 베이거스는 호스트를하고 있습니다 Google Cloud 다음 2025기술 산업의 중요한 순간에 전개되는 이벤트. 인공 지능 클라우드 타이탄 사이에서 무기 경주 – Amazon Web Services (AWS), Microsoft Azure 및 Google Cloud -가 빠르게 증가하고 있습니다. Google은 종종 엄청난 기술력과 Deep AI Research Roots에도 불구하고 세 번째 경쟁자로 캐스팅 된 다음 단계에서 클라우드를 압수하여 Enterprise AI Market을 겨냥한 포괄적이고 공격적인 전략을 분명히 표현했습니다.

Google 클라우드 CEO Thomas Kurian이 제공하고 Google과 Alphabet CEO Sundar Pichai가 반향 한이 이야기는 AI 전환을 단순한 가능성에서 실질적인 현실로 옮기는 데 중점을 두었습니다. Google은 작년에 3,000 개가 넘는 제품 발전을 인용하여 25 배의 급증으로 주장 된 추진력을 강조했습니다. 정점 AI 플랫폼 이전 클라우드 다음 이벤트 이후 4 백만 명이 넘는 개발자가 적극적으로 구축 쌍둥이 자리 모델회의 중에 500 개가 넘는 고객 성공 사례를 선보입니다.

그러나 Google Cloud Next 2025는 증분 업데이트 또는 인상적인 메트릭의 쇼케이스 이상이었습니다. 또한 멀티 프롤링 공격을 공개했습니다. 강력한 추론에 최적화 된 커스텀 실리콘 (The 아이언 우드 TPU), 실용성 (Gemini 2.5 Flash)에 중점을 둔 플래그십 AI 모델 포트폴리오를 수정하여 기업에 광대 한 글로벌 네트워크 인프라를 열었습니다.클라우드 완), AI 에이전트 (Agent2Agent 프로토콜)에 대한 개방적이고 상호 운용 가능한 생태계에 대해 중요한 전략적 베팅을하는 Google은 Enterprise AI의 다음 진화 단계를 정의하기 위해 적극적으로 위치하고 있습니다.에이전트 시대.”

Ironwood, Gemini 및 네트워크 효과

Google의 AI 야망의 중심은 Custom Silicon에 대한 지속적인 투자입니다. 다음 2025 년 클라우드의 스타는 Google의 텐서 처리 장치 (TPU)의 7 세대 인 Ironwood였습니다. 비판적으로 Ironwood는 명시 적으로 설계된 최초의 TPU로 제공됩니다. 일체 포함 추론 -훈련 된 모델을 사용하여 실제 응용 프로그램에서 예측을하거나 출력을 생성하는 과정.

Ironwood의 성과 주장은 상당합니다. Google은 단일 포드 내에서 상호 연결된 9,216 개의 액체 냉각 칩까지 확장되는 Google 세부 구성입니다. 이 가장 큰 구성은 엄청난 42.5 엑사 플롭의 ​​컴퓨팅 전력을 제공한다고 주장됩니다. Google은 이것이 POD Compute Power의 24 배 이상을 나타내고 있다고 주장합니다. 선장현재 세계에서 가장 강력한 슈퍼 컴퓨터로 순위가 매겨졌습니다.

인상적이지만 이러한 비교에는 종종 다른 수준의 수치 정밀도가 포함되어 직접 동등성이 복잡해집니다. 그럼에도 불구하고 Google은 Ironwood를 이전의 고성능 TPU 생성보다 10 배 이상 개선 된 것으로 입장합니다.

RAW Compute 외에도 Ironwood는 전임자 인 Trillium (TPU V6)과 비교하여 메모리와 상호 연결성의 상당한 발전을 자랑합니다.

아마도 에너지 효율에 중점을 두는 것도 마찬가지로 중요합니다. Google은 Ironwood는 Trillium에 비해 와트 당 성능의 두 배를 제공하며 2018 년의 첫 번째 클라우드 TPU보다 전력 효율이 거의 30 배 더 높습니다. 이는 AI의 데이터 센터 스케일링에서 전력 가용성에 대한 증가하는 제약을 직접적으로 해결합니다.

Google TPU 생성 비교 : Ironwood (V7) vs. Trillium (V6)

특징 트릴 리움 (TPU V6) 아이언 우드 (TPU V7) 개선 요인
주요 초점 훈련 및 추론 추론 전문화
피크 컴퓨팅/칩 직접 비교할 수 없음 (Diff Gen) 4,614 TFLOPS (FP8 가능성)
HBM 용량/칩 32GB (6 배 청구에 근거한 추정) 192 GB 6x
HBM 대역폭/칩 ~ 1.6 tbps (4.5x 기준으로 추정) 7.2 tbps 4.5x
ICI 대역폭 (Bidir.) ~ 0.8 tbps (1.5x 기준으로 추정) 1.2 tbps 1.5 배
Perf/Watt vs. Prev Gen 비교를위한 기준선 2 배 대 삼중 리움 2x
Perf/Watt vs. TPU V1 (2018) ~ 15 배 (추정) 거의 30 배 ~ 2x 대 삼중 리움


참고 : 일부 트릴 리움 수치는 Ironwood에 대한 Google의 주장 된 개선 요인에 따라 추정됩니다. 피크 컴퓨팅 비교는 세대 차이와 정밀도 변화로 인해 복잡합니다.

Ironwood는 Google의 “AI HyperComputer”개념의 핵심 부분을 형성합니다. Nvidia의 Blackwell 그리고 다가오는 베라 루빈), 소프트웨어 (예 : Pathways Distributed ML 런타임), 스토리지 (HyperDisk Exapools, Managed Luster) 및 네트워킹을 요구하는 AI 워크로드를 해결합니다.

모델 전선에서 Google은 High End에 대한 전략적 대응점 인 Gemini 2.5 Flash를 도입했습니다. Gemini 2.5 Pro. Pro는 복잡한 추론의 최대 품질을 목표로하지만 Flash는 낮은 대기 시간 및 비용 효율성에 대해 명시 적으로 최적화되어 고객 서비스 상호 작용 또는 빠른 요약과 같은 대량의 실시간 응용 프로그램에 적합합니다.

Gemini 2.5 Flash는 쿼리 복잡성을 기반으로 처리를 조정하는 동적 “사고 예산”을 특징으로하므로 사용자는 속도, 비용 및 정확도 간의 균형을 조정할 수 있습니다. 고성능 추론 칩 (Ironwood)과 비용/대기 시간 최적화 모델 (Gemini Flash)에 대한 동시에 초점을 맞추면 Google이 실용적으로 추진하는 것을 강조합니다. 운영 AI의 생산에서 실행 모델의 비용과 효율성이 기업의 가장 큰 관심사가되고 있음을 인식하고 있습니다.

실리콘 및 모델 업데이트를 보완하는 것은 Cloud WAN의 출시입니다. Google은 2 백만 마일 이상의 섬유질에 걸친 대규모 내부 글로벌 네트워크를 효과적으로 생산하여 200 개 이상의 존재 포인트를 통해 42 개 지역을 연결하여 엔터프라이즈 고객이 직접 사용할 수있게 해줍니다.

Google 은이 서비스가 공개 인터넷에 비해 최대 40% 더 빠른 성능을 제공 할 수 있으며 99.99% 신뢰성 SLA로 뒷받침되는 자체 관리 WAN에 비해 총 소유 비용을 최대 40% 줄일 수 있다고 주장합니다. Cloud Wan은 데이터 센터 간의 고성능 연결성과 분기/캠퍼스 환경을 연결하는 고성능 연결을 주로 타겟팅하여 네트워크 연결 센터를 포함한 Google의 기존 인프라를 활용합니다.

Google은 Nestlé와 Citadel Securities를 얼리 어답터로 인용했지만이 움직임은 근본적으로 핵심 인프라 자산을 무기화합니다. 내부 운영 필요성을 경쟁력있는 차별화 요소 및 잠재적 수익원으로 전환하여 기존 통신 공급 업체와 AWS Cloud WAN 및 Azure Virtual WAN과 같은 라이벌 클라우드 플랫폼의 네트워킹 오퍼링에 직접 도전합니다.

(출처 : Google Deepmind)

에이전트 공격 : ADK 및 A2A로 다리 건물

인프라와 핵심 모델 외에도 Google Cloud Next 2025는 AI 요원 그리고 그들을 구축하고 연결하는 도구. 제시된 비전은 단순한 챗봇을 넘어 확장되어 자율 추론, 계획 및 복잡한 다중 단계 작업을 실행할 수있는 정교한 시스템을 구상합니다. 초점은 분명히 활성화로 이동하고 있습니다 다중 에이전트 시스템전문 에이전트가 협력하여 더 광범위한 목표를 달성합니다.

이 비전을 촉진하기 위해 Google은 다음을 도입했습니다 에이전트 개발 키트 (ADK). ADK는 처음에 Python으로 제공되는 오픈 소스 프레임 워크로 개별 에이전트 및 복잡한 다중 에이전트 시스템의 생성을 단순화하도록 설계되었습니다. Google은 개발자가 100 줄 미만의 코드로 기능 에이전트를 구축 할 수 있다고 주장합니다.

주요 기능에는 정확한 제어를위한 코드 우선 접근 방식, 다중 에이전트 아키텍처에 대한 기본 지원, 유연한 도구 통합 (에 대한 지원 포함)이 포함됩니다. 모델 컨텍스트 프로토콜또는 MCP), 내장 평가 기능 및 로컬 컨테이너에서 관리되는 Vertex AI 에이전트 엔진에 이르는 배포 옵션. ADK는 또한 더 자연스럽고 인간과 같은 상호 작용을 위해 양방향 오디오 및 비디오 스트리밍을 독특하게 지원합니다. 동반 된 “Agent Garden”은 즉시 사용 가능한 샘플과 100 개가 넘는 사전 제작 된 커넥터를 제공하여 점프 스타트 개발을 제공합니다.

그러나 Google 에이전트 전략의 진정한 중심은 다음과 같습니다. Agent2agent (A2A) 규약. A2A는 새로운 것입니다. 열려 있는 에이전트 상호 운용성을 위해 명시 적으로 설계된 표준. 기본 목표는 AI 에이전트 (ADK, Langgraph, Crewai 등) 또는이를 만든 공급 업체로 구축 한 프레임 워크에 관계없이 AI 에이전트를 허용하여 안전하게 의사 소통하고 정보를 교환하고 조정을 조정하는 것입니다. 이는 다른 작업이나 부서를 위해 구축 된 에이전트가 종종 상호 작용할 수없는 기업 내에서 Siled AI 시스템의 중요한 도전을 직접적으로 다루게됩니다.

열린 A2A 프로토콜에 대한 이러한 푸시는 중요한 전략적 도박을 나타냅니다. Google은 독점적 인 폐쇄 된 에이전트 생태계를 구축하는 대신 에이전트 커뮤니케이션을위한 사실상 표준을 설정하려고 시도하고 있습니다. 이 접근법은 장기적인 생태계 리더십의 전망을 위해 단기 잠금을 희생하고 결정적으로 복잡한 다중 에이전트 시스템의 엔터프라이즈 채택을 방해하는 마찰을 줄입니다.

Google은 개방성을 옹호함으로써 전체 에이전트 시장을 가속화하여 클라우드 플랫폼과 도구를 중앙 촉진자로 배치하는 것을 목표로합니다.

A2A 작동 방식 (출처 : Google)

클라우드 레이스 재 보정 : Google의 경쟁력있는 Gambit

이 발표는 진행중인 클라우드 전쟁의 맥락에서 정사각형으로 착륙합니다. Google Cloud는 AI 채택으로 자주 연료를 공급하는 인상적인 성장을 보여 주지만 여전히 AWS 및 Microsoft Azure를 추적하면서 시장 점유율에서 3 위를 차지하고 있습니다. Cloud Next 2025는 독특한 강점에 크게 기대어 인식 된 약점을 해결 함으로써이 레이스를 다시 교환하기위한 Google의 전략을 보여주었습니다.

Google의 주요 차별화 요소가 전체 표시되었습니다. 추론 중심의 Ironwood TPU에서 정점에 이르는 맞춤형 실리콘에 대한 장기 투자는 AWS의 Trainium/Pertentia 칩 및 Azure의 Maia Accelerator와 비교하여 독특한 하드웨어 이야기를 제공합니다. Google은 AI 에너지가 급증함에 따라 잠재적으로 중요한 요소 인 와트 당 성과를 지속적으로 강조합니다. Cloud WAN의 출시는 Google의 비교할 수없는 글로벌 네트워크 인프라를 무기화하여 독특한 네트워킹 이점을 제공합니다.

또한 Google은 AI 및 기계 학습 유산을 계속 활용하여 Deepmind의 연구 포괄적 인 Vertex AI 플랫폼에서 나타나 AI 및 데이터 분석의 리더로서의 시장 인식과 일치합니다.

동시에 Google은 역사적 기업 문제를 해결하려는 노력을 알렸다. 거대한 클라우드 보안 회사 Wiz의 32 억 달러 인수다음에 발표 된 다음 발표 된 것은 보안 자세를 강화하고 Enterprise Trust에 중요한 영역 인 보안 제품의 유용성과 경험을 향상시키려는 명확한 진술입니다.

업계 솔루션, 엔터프라이즈 준비 및 전략적 파트너십에 대한 지속적인 강조는 순수한 기술 제공 업체에서 신뢰할 수있는 엔터프라이즈 파트너로 시장 인식을 재구성하는 것을 목표로합니다.

Google의 전략은 전반적으로 AWS 및 Azure Service Service와 일치하는 데 중점을 둡니다. AI 리서치, 사용자 정의 하드웨어, 글로벌 네트워크 및 오픈 소스 친화력 (AI)의 다음 결정적인 파동에서 리더십을 확립하기 위해 AI 연구, 사용자 정의 하드웨어, 글로벌 네트워크 및 오픈 소스 친화력 (AI) : AI, 특히 효율적인 에이전트 시스템에 대한 리더십을 확립하기 위해 고유 한 자산을 활용하는 데 집중했습니다.

Google AI의 도로

Google Cloud Next 2025는 야망과 전략적 일관성에 대한 설득력있는 이야기를 발표했습니다. Google은 인공 지능을 두 배로 늘리고 있으며 추론에 최적화 된 맞춤형 실리콘을 통해 자원을 마샬링하고 있습니다. ERA (Ironwood), 균형 잡힌 실용적인 AI 모델 포트폴리오 (Gemini 2.5 Pro 및 Flash), 고유 한 글로벌 네트워크 인프라 (Cloud WAN) 및 AI 에이전트 (ADK 및 A2A)의 급증하는 세계에 대한 대담하고 열린 접근 방식.

궁극적으로,이 행사는 회사를 AI 시대를위한 포괄적이고 차별화 된 엔터프라이즈 제공으로 전환하기 위해 적극적으로 움직이는 회사를 선보였습니다. 하드웨어, 소프트웨어, 네트워킹 및 개방형 표준 인 통합 전략이 건전합니다. 그러나 앞으로의 길은 혁신 이상의 것이 필요합니다.

Google의 가장 중요한 과제는 기술에 덜 거주 할 수 있으며 엔터프라이즈 채택 관성을 극복하고 지속적인 신뢰를 구축 할 수 있습니다. 이러한 야심 찬 발표를 깊은 확고한 경쟁자들에 대한 지속적인 시장 점유율 이익으로 전환하는 것은 완벽한 실행, 명확한 시장 전략 전략, 그리고 Google 클라우드가 AI 중심 미래에 없어서는 안될 플랫폼임을 대규모 조직에 지속적으로 설득 할 수있는 능력을 요구합니다. 에이전트 미래의 Google 구상은 매력적이지만 라스 베이거스 스포트라이트가 어두워 지자 오랫동안 이러한 복잡한 시장 역학을 탐색하는 데 달려 있습니다.

게시물 Google Cloud Next 2025 : 실리콘, 소프트웨어 및 오픈 에이전트 생태계로 AI를 두 배로 늘립니다. 먼저 나타났습니다 Unite.ai.

Exit mobile version