소규모 추론 모델의 부상 : AI가 GPT 수준의 추론과 일치 할 수 있습니까?

Date:

최근 몇 년 동안 AI 필드는 LLMS (Large Language Models)의 성공으로 사로 잡혔습니다. 처음에 자연어 처리를 위해 설계된이 모델들은 인간과 같은 단계별 사고 과정에서 복잡한 문제를 해결할 수있는 강력한 추론 도구로 발전했습니다. 그러나 탁월한 추론 능력에도 불구하고 LLM은 높은 계산 비용과 느린 배포 속도를 포함하여 상당한 단점을 제공하여 모바일 장치 또는 에지 컴퓨팅과 같은 리소스 제약 환경에서 실제 사용에 실용적이지 않습니다. 이로 인해 비용과 자원 요구를 최소화하면서 유사한 추론 기능을 제공 할 수있는 더 작고 효율적인 모델을 개발하는 데 관심이 높아졌습니다. 이 기사는 이러한 작은 추론 모델의 상승, 그들의 잠재력, 도전 및 AI의 미래에 대한 영향을 탐구합니다.

관점의 변화

AI의 최근 역사의 대부분 에서이 분야는 “스케일링 법”의 원칙을 따랐으며, 이는 모델 성능이 데이터, 컴퓨팅 전력 및 모델 크기 증가로 예측 가능하게 향상 시킨다는 것을 시사합니다. 이 접근법은 강력한 모델을 산출했지만 높은 인프라 비용, 환경 영향 및 대기 시간 문제를 포함한 상당한 트레이드 오프가 발생했습니다. 모든 애플리케이션에 수백억 개의 매개 변수가있는 대규모 모델의 전체 기능이 필요한 것은 아닙니다. 기기 조교, 의료 및 교육과 같은 많은 실제적인 경우, 소모자 모델은 효과적으로 추론 할 수 있다면 비슷한 결과를 얻을 수 있습니다.

AI의 추론 이해

AI의 추론은 논리적 사슬을 따르고, 원인과 결과를 이해하고, 의미를 추론하고, 과정의 단계를 계획하고, 모순을 식별하는 모델의 능력을 말합니다. 언어 모델의 경우, 이는 종종 정보를 검색 할뿐만 아니라 체계적인 단계별 접근 방식을 통해 정보를 조작하고 추론하는 것을 의미합니다. 이 수준의 추론은 일반적으로 LLM을 미세 조정하여 답변에 도착하기 전에 다단계 추론을 수행합니다. 이 방법은 효과적이지만 상당한 계산 리소스를 요구하고 배치하는 데 속도가 느리고 비용이 많이들 수 있으므로 접근성 및 환경 영향에 대한 우려가 제기됩니다.

작은 추론 모델 이해

작은 추론 모델은 대규모 모델의 추론 능력을 복제하지만 계산 능력, 메모리 사용 및 대기 시간 측면에서 더 큰 효율성을 갖는 것을 목표로합니다. 이 모델들은 종종 불리는 기술을 사용합니다 지식 증류작은 모델 ( “학생”)이 더 크고 미리 훈련 된 모델 ( “교사”)에서 배우는 경우. 증류 프로세스는 추론 능력을 전송하는 것을 목표로 더 큰 데이터에 의해 생성 된 데이터에 대한 작은 모델을 훈련시키는 것이 포함됩니다. 그런 다음 학생 모델이 미세 조정되어 성능을 향상시킵니다. 어떤 경우에는 강화 학습 전문화 된 도메인 별 보상 기능은 작업 별 추론을 수행하는 모델의 능력을 더욱 향상시키기 위해 적용됩니다.

작은 추론 모델의 상승과 발전

소규모 추론 모델의 개발에서 주목할만한 이정표는 Deepseek-R1. DeepSeek-R1은 비교적 겸손한 클러스터에 대한 교육을 받았음에도 불구하고 MMLU 및 GSM-8K와 같은 벤치 마크에서 OpenAi의 O1과 같은 더 큰 모델과 비교할 수있는 성능을 달성했습니다. 이 성과는 전통적인 스케일링 접근법의 재검토로 이어졌으며, 이는 더 큰 모델이 본질적으로 우수하다고 가정했습니다.

DeepSeek-R1의 성공은 혁신적인 교육 프로세스에 기인 할 수 있으며, 이는 초기 단계에서 감독 된 미세 조정에 의존하지 않고 대규모 강화 학습을 결합했습니다. 이 혁신으로 인해 창설이 이루어졌습니다 Deepseek-R1-Zero큰 추론 모델과 비교하여 인상적인 추론 능력을 보여주는 모델. 콜드 스타트 ​​데이터 사용과 같은 추가 개선은 특히 수학 및 코드와 같은 영역에서 모델의 일관성 및 작업 실행을 향상 시켰습니다.

또한 증류 기술은 더 큰 모델에서 더 작고 효율적인 모델을 개발하는 데 결정적인 것으로 입증되었습니다. 예를 들어, DeepSeek은 증류 버전의 모델을 출시했으며, 크기는 15 억에서 70 억의 매개 변수입니다. 이러한 모델을 사용하여 연구원들은 훨씬 더 작은 모델을 비교적으로 훈련 시켰습니다. Deepseek-R1-Distill-Qwen-32b 성능이 우수했습니다 Openai의 O1-Mini 다양한 벤치 마크에서. 이 모델은 이제 표준 하드웨어로 배포 될 수 있으므로 광범위한 응용 프로그램을위한보다 실용적인 옵션을 제공합니다.

소규모 모델이 GPT 수준의 추론과 일치 할 수 있습니다

SRMS (Small Orady Model)가 GPT와 같은 대형 모델 (LRM)의 추론 능력과 일치 할 수 있는지 여부를 평가하려면 표준 벤치 마크에서 성능을 평가하는 것이 중요합니다. 예를 들어, DeepSeek-R1 모델 득점 약 0.844 MMLU 테스트O1과 같은 더 큰 모델과 비교할 수 있습니다. 에 GSM-8K DeepSeek-R1의 증류 모델 인 학년 수학에 중점을 둔 데이터 세트 달성 O1 및 O1-MINI를 능가하는 최상위 성능.

코딩 작업에서와 같은 작업 livecodebench 그리고 코드 포스DeepSeek-R1의 증류 모델 수행 O1-MINI 및 GPT-4O와 마찬가지로 프로그래밍에서 강력한 추론 기능을 보여줍니다. 그러나 더 큰 모델에는 여전히 an이 있습니다 가장자리 더 넓은 언어 이해를 요구하거나 긴 컨텍스트 Windows를 처리 해야하는 작업에서는 작은 모델이 더 많은 작업에 따라 다릅니다.

그들의 강점에도 불구하고, 소규모 모델은 연장 된 추론 과제와 함께 또는 배포되지 않은 데이터에 직면했을 때 어려움을 겪을 수 있습니다. 예를 들어, LLM 체스 시뮬레이션에서 DeepSeek-R1은 더 큰 모델보다 더 많은 실수를 저지르며 장기간 초점과 정확성을 유지하는 능력의 한계를 시사합니다.

트레이드 오프 및 실질적인 영향

SRM을 GPT 수준 LRMS와 비교할 때 모델 크기와 성능 간의 상충 관계가 중요합니다. 소규모 모델은 메모리와 계산 능력이 줄어들어 Edge 장치, 모바일 앱 또는 오프라인 추론이 필요한 상황에 이상적입니다. 이 효율성은 운영 비용이 낮아지고 DeepSeek-R1과 같은 모델은 최대 96%입니다. 저렴합니다 O1과 같은 더 큰 모델보다 실행됩니다.

그러나 이러한 효율성 이득에는 약간의 타협이 발생합니다. 소규모 모델은 일반적으로 특정 작업에 대해 미세 조정되어 있으며, 이는 대형 모델에 비해 다양성을 제한 할 수 있습니다. 예를 들어, DeepSeek-R1은 수학 및 코딩에서 탁월하지만 부족합니다 GPT-4O와 같은 더 큰 모델이 처리 할 수있는 이미지 해석 기능과 같은 멀티 모달 기능.

이러한 한계에도 불구하고 작은 추론 모델의 실제 적용은 방대합니다. 의료에서는 표준 병원 서버의 의료 데이터를 분석하는 진단 도구에 전원을 공급할 수 있습니다. 교육 분야에서 그들은 개인지도 시스템을 개발하고 학생들에게 단계별 피드백을 제공하는 데 사용될 수 있습니다. 과학적 연구에서 그들은 수학 및 물리와 같은 분야의 데이터 분석 및 가설 테스트를 지원할 수 있습니다. DeepSeek-R1과 같은 모델의 오픈 소스 특성은 또한 협업을 촉진하고 AI에 대한 액세스를 민주화하여 소규모 조직이 고급 기술의 혜택을받을 수있게합니다.

결론

소규모 추론 모델로의 언어 모델의 진화는 AI에서 중요한 발전입니다. 이러한 모델은 아직 대형 언어 모델의 광범위한 기능과 완전히 일치하지 않을 수 있지만 효율성, 비용 효율성 및 접근성의 주요 장점을 제공합니다. 추론 전력과 자원 효율성 사이의 균형을 유지함으로써 소규모 모델은 다양한 응용 분야에서 중요한 역할을 수행하여 AI가 실제 사용을 위해보다 실용적이고 지속 가능합니다.

게시물 소규모 추론 모델의 부상 : AI가 GPT 수준의 추론과 일치 할 수 있습니까? 먼저 나타났습니다 Unite.ai.

Share post:

Subscribe

Popular

More like this
Related

LG Electronics는 호텔 청소를위한 로봇 진공 청소, 계획 메리어트 조종사

LG 로봇 진공 청소기는 연회 공간 및 객실 복도와...

MIT의 덩굴 로봇은 잔해를 짜서 긴급 대응자를 도울 수 있습니다.

왼쪽에서 오른쪽으로 : 연구 인턴 Ankush Dhawan과 Lincoln 실험실...

현대인 보스턴 다이내믹 로봇의 ‘수만’구매

현대 모터 그룹은 Atlas Humanoid, Spot Quadruped 및 Stretch...

Notebooklm Review : 연구의 미래 잠금 해제

마감일이 다가오는 거대한 문서를 쳐다 본 적이 있습니까? 우리는...