AI 뉴스허브

구체화된 AI의 발전: Meta가 AI에 인간과 같은 터치와 민첩성을 가져오는 방법

구체화된 AI의 발전: Meta가 AI에 인간과 같은 터치와 민첩성을 가져오는 방법

구체화된 AI의 발전: Meta가 AI에 인간과 같은 터치와 민첩성을 가져오는 방법

AI는 시각적 인식과 언어 처리 분야에서 큰 발전을 이루었습니다. 그러나 이러한 능력은 물리적 세계와 상호 작용할 수 있는 시스템을 구축하기에는 충분하지 않습니다. 인간은 촉각을 이용해 물체를 다루거나 제어된 움직임을 만듭니다. 우리는 질감을 느끼고, 온도를 감지하고, 무게를 측정하여 각 행동을 정확하게 안내합니다. 이러한 촉각 피드백을 통해 우리는 깨지기 쉬운 물건을 조작하고, 제어 가능한 도구를 사용하고, 복잡한 작업을 원활하게 수행할 수 있습니다.

가상현실과 증강현실 분야로 잘 알려진 메타(Meta)는 이제 인간처럼 물리적 세계와 상호 작용할 수 있는 AI를 만드는 데 도전하고 있습니다. FAIR Robotics 이니셔티브를 통해 Meta는 로봇의 촉각과 물리적 민첩성을 향상시키는 오픈 소스 도구와 프레임워크를 개발하고 있습니다. 이러한 노력은 인간처럼 물체를 볼 뿐만 아니라 느끼고 조작할 수 있는 시스템인 구체화된 AI의 개발로 이어질 수 있습니다.

구체화된 AI란 무엇인가?

구체화된 AI 인공 지능과 물리적 상호 작용을 결합하여 기계가 주변 환경을 감지하고 반응하며 자연스럽게 참여할 수 있도록 합니다. 단순히 입력을 “보거나” “듣는” 것이 아니라 AI 시스템이 다음을 수행할 수 있게 해줍니다. 느끼다 그리고 행동하다 세계. 물체에 가해지는 압력을 감지하고 그립을 조정하며 민첩하게 움직일 수 있는 로봇을 생각해 보십시오. 구현된 AI는 AI를 화면과 스피커에서 실제 세계로 옮겨 사물을 조작하고 작업을 수행하며 사람들과 더욱 의미 있게 상호 작용할 수 있도록 합니다.

예를 들어, Embodied AI를 기반으로 구축된 로봇은 노인이 깨지기 쉬운 물건을 손상시키지 않고 집는 데 도움을 줄 수 있습니다. 의료 분야에서는 수술 중에 기구를 정확하게 잡아 의사를 도울 수 있습니다. 이러한 잠재력은 실험실의 로봇 팔이나 공장의 자동화 팔을 훨씬 뛰어넘는 것입니다. 물리적 환경을 실시간으로 이해하고 이에 반응하는 기계를 만드는 것입니다.

구체화된 AI를 향한 메타의 접근 방식

메타가 집중하고 있는 것은 세 가지 핵심 영역 구현된 AI를 인간과 같은 터치에 더 가깝게 만드는 것입니다. 첫째, 회사는 기계가 압력, 질감, 온도 등을 감지할 수 있도록 하는 고급 촉각 감지 기술을 개발하고 있습니다. 둘째, Meta는 AI가 이러한 신호를 이해하고 반응할 수 있도록 터치 인식 모델을 만들고 있습니다. 마지막으로 Meta는 여러 센서를 이러한 인식 모델과 통합하여 터치 지원 AI 구축을 위한 완벽한 시스템을 제공하는 촉각 개발 플랫폼을 구축하고 있습니다. Meta가 각 영역에서 구체화된 AI의 발전을 주도하는 방법은 다음과 같습니다.

Meta Digit 360: 인간 수준의 촉각 감지

메타가 소개한 숫자 360 손가락 끝구현된 AI에 인간과 같은 촉각을 제공하도록 설계된 촉각 감지 기술입니다. 18개 이상의 감지 기능을 통해 진동, 열은 물론 표면의 화학 물질까지 감지할 수 있습니다. AI 칩이 탑재된 손끝은 터치 데이터를 즉시 처리해 난로의 열기나 바늘의 날카로운 찌르기 같은 입력에 빠르게 반응할 수 있습니다. 이 기술은 구현된 AI 내에서 ‘말초신경계’ 역할을 하며 인간 반응과 유사한 반사 반응을 시뮬레이션합니다. Meta는 모든 각도에서 터치를 포착할 수 있는 800만 개 이상의 탁셀을 포함하는 독특한 광학 시스템을 갖춘 이 손가락 끝을 개발했습니다. 1밀리뉴턴만큼 작은 힘까지 작은 세부 사항을 감지하여 구현된 AI에 환경에 대해 세밀하게 조정된 감도를 제공합니다.

Meta Sparsh: 촉각 인식의 기초

Meta는 AI가 신체 감각을 이해하고 반응할 수 있도록 터치 인식 기능을 강화하고 있습니다. “접촉”을 의미하는 산스크리트어 단어의 이름을 따서 명명되었습니다. 스파시 구현된 AI를 위한 ‘터치 브레인’ 역할을 합니다. 이 모델을 통해 기계는 압력 및 그립과 같은 복잡한 촉각 신호를 해석할 수 있습니다.

Sparsh의 뛰어난 기능 중 하나는 다양성입니다. 기존의 촉각 시스템은 라벨이 지정된 데이터와 특정 센서에 크게 의존하여 각 작업에 대해 별도의 모델을 사용합니다. Sparsh는 이 접근 방식을 완전히 바꿉니다. 범용 모델로서 다양한 센서와 작업에 적응합니다. 다음을 사용하여 터치 패턴을 학습합니다. 자기 지도 학습(SSL) 레이블이 지정된 데이터가 필요 없이 460,000개 이상의 촉각 이미지로 구성된 대규모 데이터베이스에서

Meta는 또한 Sparsh의 능력을 평가하기 위한 6가지 터치 기반 작업이 포함된 새로운 벤치마크인 TacBench를 도입했습니다. Meta는 Sparsh가 특히 낮은 데이터 시나리오에서 기존 모델보다 95.1% 더 나은 성능을 발휘했다고 주장합니다. Meta의 I-JEPA 및 DINO 아키텍처를 기반으로 구축된 Sparsh 버전은 힘 추정, 미끄러짐 감지 및 복잡한 조작과 같은 작업에서 놀라운 능력을 보여주었습니다.

Meta Digit Plexus: 촉각 시스템 개발을 위한 플랫폼

Meta는 구체화된 AI 시스템을 만들기 위해 감지 기술과 촉각 인식 모델을 통합하기 위해 Digit Plexus를 도입했습니다. 이 플랫폼은 단일 로봇 손에 손가락 끝 센서와 손바닥 센서를 결합하여 더욱 조화로운 터치 반응을 가능하게 합니다. 이 설정을 통해 구체화된 AI는 감각 피드백을 처리하고 인간 손이 움직이고 반응하는 방식과 같은 동작을 실시간으로 조정할 수 있습니다.

손 전체의 터치 피드백을 표준화함으로써 손가락 신경총 구현된 AI의 정밀도와 제어력을 향상시킵니다. 이러한 개발은 특히 주의 깊은 취급이 필수적인 제조 및 의료 분야에서 매우 중요합니다. 플랫폼은 손가락 끝 및 ReSkin과 같은 센서를 제어 시스템에 연결하여 데이터 수집, 제어 및 분석을 모두 단일 케이블을 통해 간소화합니다.

Meta는 Digit Plexus의 소프트웨어 및 하드웨어 디자인을 오픈 소스 커뮤니티에 공개합니다. 목표는 구현된 AI에 대한 협업을 촉진하고 연구를 가속화하여 해당 분야의 혁신과 발전을 촉진하는 것입니다.

구현된 AI 연구 및 개발 촉진

Meta는 구현된 AI 연구 및 개발을 촉진하기 위해 기술뿐만 아니라 자원도 발전시키고 있습니다. 핵심 이니셔티브는 AI 모델을 평가하기 위한 벤치마크 개발입니다. 그러한 벤치마크 중 하나는 부품 번호 (humanN-Robot 협업의 계획 및 추론 작업)에서는 가사 작업 중에 AI 모델이 인간과 상호 작용하는 방식을 평가합니다. Habitat 3.0 시뮬레이터를 사용하여 PARTNR은 로봇이 청소 및 요리와 같은 작업을 지원하는 현실적인 환경을 제공합니다. 100,000개 이상의 언어 기반 작업을 통해 구체화된 AI의 발전을 가속화하는 것을 목표로 합니다.

내부 이니셔티브 외에도 Meta는 다음과 같은 조직과 협력하고 있습니다. 겔사이트(주) 그리고 원익로보틱스 촉각 감지 기술의 채택을 가속화합니다. GelSight는 Digit 360 센서를 배포하고 Wonik Robotics는 Digit Plexus 기술을 통합한 Allegro Hand를 제조합니다. Meta는 오픈 소스 플랫폼과 파트너십을 통해 이러한 기술을 사용할 수 있게 함으로써 의료, 제조 및 가사 지원 분야의 혁신으로 이어질 수 있는 생태계를 조성하는 데 도움을 주고 있습니다.

결론

Meta는 시각과 청각을 넘어 촉각까지 포함하는 구체화된 AI를 발전시키고 있습니다. Digit 360 및 Sparsh와 같은 혁신을 통해 AI 시스템은 주변 환경을 정확하게 느끼고 반응하는 능력을 확보하고 있습니다. 이러한 기술을 오픈 소스 커뮤니티와 공유하고 주요 조직과 협력함으로써 Meta는 촉각 감지 개발을 가속화하는 데 도움을 주고 있습니다. 이러한 발전은 의료, 제조, 가정 지원과 같은 분야에서 획기적인 발전을 가져올 수 있으며, 실제 작업에서 AI의 능력과 반응성을 더욱 향상시킬 수 있습니다.

게시물 구체화된 AI의 발전: Meta가 AI에 인간과 같은 터치와 민첩성을 가져오는 방법 처음 등장한 Unite.AI.

Exit mobile version