집에서 휴식을 취할 준비를하면서 스마트 폰에게 좋아하는 노래를 연주하거나 홈 어시스턴트에게 조명을 어둡게하도록 요청할 수 있습니다. 이러한 작업은 현재 일상 생활에 통합 된 인공 지능 (AI)에 의해 구동되기 때문에 단순하다고 느낍니다. 이러한 부드러운 상호 작용의 핵심은 다음과 같습니다 가장자리 ai– 스마트 폰, 웨어러블 및 IoT 기기와 같은 장치에서 직접 작동하여 즉각적이고 직관적 인 응답을 제공합니다.
Edge AI는 무엇입니까?
Edge AI는 중앙 클라우드 데이터 센터에 의존하지 않고 네트워크의 “Edge”의 장치에 AI 알고리즘을 직접 배포하는 것을 말합니다. 이 접근법은 랩톱, 스마트 폰, 스마트 워치 및 홈 어플라이언스와 같은 에지 장치의 처리 기능을 활용하여 로컬로 결정을 내립니다.
Edge AI는 중요한 장점을 제공합니다 은둔 보안 : 인터넷을 통해 민감한 데이터를 전송할 필요성을 최소화함으로써 Edge AI는 데이터 유출의 위험을 줄입니다. 또한 데이터 처리 및 의사 결정 속도를 향상시켜 의료 웨어러블, 산업 자동화, 증강 현실 및 게임과 같은 실시간 응용 프로그램에 중요합니다. Edge AI는 간헐적 인 연결성을 갖춘 환경에서 작동하여 유지 보수가 제한되어 자율성을 지원하고 데이터 전송 비용을 줄일 수 있습니다.
AI는 현재 많은 장치에 통합되어 있지만 일상적인 장치에서 강력한 AI 기능을 가능하게하는 것은 기술적으로 어려운 일입니다. Edge Devices는 처리 전원, 메모리 및 배터리 수명에 대한 엄격한 제약 내에서 작동하여 겸손한 하드웨어 사양 내에서 복잡한 작업을 실행합니다.
예를 들어, 스마트 폰이 정교한 안면 인식을 수행하려면 최첨단 최적화 알고리즘을 사용하여 이미지 및 기능을 밀리 초로 분석해야합니다. 이어 버드의 실시간 번역은 장기 배터리 수명을 보장하기 위해 낮은 에너지 사용을 유지해야합니다. 클라우드 기반 AI 모델은 광범위한 계산 전력을 가진 외부 서버에 의존 할 수 있지만 Edge 장치는 당면한 작업과 관련이 있어야합니다. Edge Processing으로의 이러한 전환은 AI 모델이 개발, 최적화 및 배포되는 방식을 근본적으로 변화시킵니다.
무대 뒤에서 : 가장자리에 대한 AI 최적화
Edge 장치에서 효율적으로 실행할 수있는 AI 모델은 비슷한 신뢰할 수있는 결과를 유지하면서 크기를 줄이고 크기를 크게 계산해야합니다. 종종 모델 압축이라고하는이 프로세스는 다음과 같은 고급 알고리즘을 포함합니다. 신경 건축 검색 (NAS), 전송 학습, 가지 치기 및 양자화.
모델 최적화는 장치의 하드웨어 기능에 특별히 적합한 모델 아키텍처를 선택하거나 설계 한 다음 특정 엣지 장치에서 효율적으로 실행되도록 정제하여 시작해야합니다. NAS 기술은 검색 알고리즘을 사용하여 가능한 많은 AI 모델을 탐색하고 Edge 장치에서 특정 작업에 가장 적합한 모델을 찾습니다. 전송 학습 기술은 이미 훈련 된 더 큰 모델 (교사)을 사용하여 훨씬 작은 모델 (학생)을 훈련시킵니다. 가지 치기에는 정확도에 크게 영향을 미치지 않는 중복 매개 변수를 제거하고 양자화는 모델을 변환하여 낮은 정밀 산술을 사용하여 계산 및 메모리 사용을 저장합니다.
최신 AI 모델을 Edge 장치에 가져 오면 기본 계산을 얼마나 효율적으로 수행 할 수 있는지에만 초점을 맞추고 싶어합니다. “곱하기 액량화”작업또는 Mac. 간단히 말해서 Mac Efficiency는 칩이 AI의 핵심에서 수학을 얼마나 빨리 수행 할 수 있는지를 측정합니다. 숫자를 곱하고 추가합니다. 모델 개발자는 그 지표에 중점을두고 다른 중요한 요소를 무시하는 “Mac 터널 비전”을 얻을 수 있습니다.
가장 인기있는 AI 모델과 같은 일부 Mobilenet,,, 효율적인 넷그리고 변압기 Vision Applications의 경우 – 이러한 계산에서 매우 효율적으로 설계되었습니다. 그러나 실제로이 모델은 전화 나 스마트 워치 내부의 AI 칩에서 항상 잘 작동하지는 않습니다. 실제 성능은 수학 속도 이상의 것에 달려 있기 때문에 데이터 내부에서 데이터가 얼마나 빨리 이동할 수 있는지에도 의존하기 때문입니다. 모델이 지속적으로 메모리에서 데이터를 가져와야하는 경우 계산이 아무리 빨라도 모든 것이 느려질 수 있습니다.
놀랍게도, 더 오래되고 부피가 큰 모델과 같은 것입니다 RESNET 때로는 오늘날의 장치에서 더 잘 작동합니다. 최신이거나 가장 간소화되지는 않지만 메모리와 처리 사이의 앞뒤는 AI 프로세서 사양에 훨씬 더 적합합니다. 실제 테스트에서 이러한 클래식 모델은 에지 장치에서 더 나은 속도와 정확도를 제공했습니다.
교훈? “최고의”AI 모델이 항상 새로운 디자인 또는 가장 높은 이론적 효율성을 가진 모델은 아닙니다. 에지 장치의 경우 가장 중요한 것은 모델이 실제로 실행중인 하드웨어에 얼마나 잘 맞는지입니다.
그리고 그 하드웨어도 빠르게 발전하고 있습니다. 현대 AI의 요구에 부응하기 위해 장치 제조업체는 스마트 폰, 스마트 워치, 웨어러블 등에 AI 가속기라는 특수 전용 칩을 포함 시켰습니다. 이 가속기는 AI 모델이 요구하는 계산 및 데이터 움직임의 종류를 처리하기 위해 특별히 구축되었습니다. 매년 건축, 제조 및 통합의 발전을 가져와 하드웨어가 AI 트렌드와 보조를 맞추도록합니다.
Edge ai를 향한 길
Edge 장치에 AI 모델을 배포하는 것은 생태계의 조각난 특성에 의해 더욱 복잡합니다. 많은 응용 프로그램에는 사용자 정의 모델과 특정 하드웨어가 필요하기 때문에 표준화가 부족합니다. 필요한 것은 Edge Applications의 기계 학습 라이프 사이클을 간소화하는 효율적인 개발 도구입니다. 이러한 도구를 사용하면 개발자가 실제 성능, 전력 소비 및 대기 시간을보다 쉽게 최적화 할 수 있어야합니다.
장치 제조업체와 AI 개발자 간의 협업은 엔지니어링과 사용자 상호 작용의 격차를 좁히고 있습니다. 새로운 트렌드는 상황 인식 및 적응 학습에 중점을 두어 장치가 사용자 요구를보다 자연스럽게 예측하고 대응할 수 있도록합니다. Edge AI는 환경 신호를 활용하고 사용자 습관을 관찰함으로써 직관적이고 개인적으로 느껴지는 응답을 제공 할 수 있습니다. 현지화되고 맞춤형 인텔리전스는 기술과 세계에 대한 우리의 경험을 변화시키기 위해 설정되었습니다.