AI 뉴스허브

LLM은 추론하지 않습니다. 그들은 계획에 정말 능숙합니다

LLM은 추론하지 않습니다. 그들은 계획에 정말 능숙합니다

LLM은 추론하지 않습니다. 그들은 계획에 정말 능숙합니다

대형 언어 모델 (LLM) Openai의 O3,,, Google의 Gemini 2.0그리고 Deepseek의 R1 복잡한 문제를 해결하고, 인간과 같은 텍스트를 생성하며, 심지어 정밀한 코드를 작성하는 데있어 놀라운 진전을 보여주었습니다. 이 고급 LLM은 종종 다음으로 표시됩니다 “추론 모델” 복잡한 문제를 분석하고 해결할 수있는 놀라운 능력. 그러나 실제로이 모델을 수행하십시오 이유또는 그들은 단지 예외적으로 능숙합니다 계획? 이 구별은 미묘하면서도 심오하며 LLM의 기능과 한계를 이해하는 방법에 큰 영향을 미칩니다.

이 차이점을 이해하려면 두 가지 시나리오를 비교해 봅시다.

두 프로세스 모두 여러 단계가 포함되지만 형사는 추론을하고 모순을 평가하며 일반적인 원칙을 특정 사례에 적용하기 위해 깊은 추론에 참여합니다. 반면에 체스 플레이어는 주로 계획에 관여하여 게임에서 이기기 위해 최적의 움직임 순서를 선택합니다. 우리가 볼 수 있듯이 LLM은 형사보다 체스 플레이어와 훨씬 더 기능합니다.

차이 이해 : 추론 대 계획

LLM이 추론보다는 계획에 능숙한 이유를 실현하려면 먼저 두 용어의 차이점을 먼저 이해하는 것이 중요합니다. 추론은 논리와 추론을 사용하여 주어진 구내에서 새로운 결론을 도출하는 과정입니다. 여기에는 불일치를 식별하고 수정하고, 단순히 정보를 제공하는 대신 새로운 통찰력을 생성하고, 모호한 상황에서 결정을 내리며,“만약이면? 시나리오.

반면에 계획은 특정 목표를 달성하기 위해 일련의 행동을 구성하는 데 중점을 둡니다. 알려진 문제 해결 전략에 따라 복잡한 작업을 작은 단계로 나누고, 이전에 배운 패턴을 유사한 문제에 적응시키고, 새로운 통찰력을 도출하지 않고 구조화 된 시퀀스를 실행하는 데 의존합니다. 추론과 계획에는 단계별 처리가 포함되지만 추론에는 더 깊은 추상화와 추론이 필요하지만 계획은 기본적으로 새로운 지식을 생성하지 않고 확립 된 절차를 따릅니다.

LLMS가 “추론”에 접근하는 방법

OpenAI의 O3 및 DeepSeek-R1과 같은 최신 LLM에는 다음과 같은 기술이 장착되어 있습니다. 생각의 사슬 (COT) 문제 해결 능력을 향상시키기위한 추론. 이 방법은 모델이 문제를 중간 단계로 나누고 인간이 논리적으로 문제를 생각하는 방식을 모방하도록 권장합니다. 그것이 어떻게 작동하는지 보려면 간단한 수학 문제를 고려하십시오.

상점이 사과를 각각 $ 2에 판매하지만 사과 5 개 이상을 사면 사과당 $ 1의 할인을 제공하는 경우 7 사과 비용은 얼마입니까?

COT 프롬프트를 사용하는 일반적인 LLM은 다음과 같이 해결할 수 있습니다.

  1. 정가를 결정하십시오 : 7 * $ 2 = $ 14.
  2. 할인이 적용되는 것을 식별하십시오 (7> 5 이후).
  3. 할인 계산 : 7 * $ 1 = $ 7.
  4. 총계에서 할인을 빼십시오 : $ 14 – $ 7 = $ 7.

일련의 단계를 명시 적으로 배치함으로써 모델은 한 번에 답을 예측하려고 시도하여 발생하는 오류의 가능성을 최소화합니다. 이 단계별 분석은 LLM을 추론처럼 보이게하지만, 단계별 레시피를 따르는 것과 매우 유사한 구조화 된 문제 해결의 형태입니다. 반면에 진정한 추론 과정은 일반적인 규칙을 인식 할 수 있습니다. 할인이 사과 5 개 이상으로 적용되면 모든 사과는 $ 1입니다.. 인간은 그러한 규칙을 즉시 추론 할 수 있지만, LLM은 단순히 구조화 된 계산 순서를 따를 수는 없습니다.

추론이 아닌 사슬의 사슬이 계획하는 이유

하는 동안 생각의 사슬 (COT) 수학 단어 문제 및 코딩 문제와 같은 논리 지향 작업에 대한 LLMS의 성능을 향상 시켰으므로 진정한 논리적 추론이 포함되지 않습니다. COT는 절차 적 지식을 따르고 새로운 통찰력을 생성하기보다는 구조화 된 단계에 의존하기 때문입니다. 인과 관계와 추상적 관계에 대한 진정한 이해가 부족합니다. 즉, 모델이 반 사실적 사고에 관여하지 않거나 보이는 데이터를 넘어서 직관이 필요한 가상 상황을 고려하지 않습니다. 또한 COT는 교육을받은 패턴을 넘어 접근 방식을 근본적으로 변경할 수 없으며, 창의적으로 추론하거나 익숙하지 않은 시나리오에 적응할 수있는 능력을 제한합니다.

LLM이 진정한 추론 기계가 되려면 무엇이 필요합니까?

그렇다면 LLM은 진정으로 인간처럼 추론해야합니까? 다음은이를 달성하기 위해 개선 및 잠재적 접근 방식이 필요한 몇 가지 주요 영역입니다.

  1. 상징적 이해: 추상적 상징과 관계를 조작하여 인간의 이유. 그러나 LLM에는 진정한 상징적 추론 메커니즘이 부족합니다. 신경 네트워크와 공식 논리 시스템을 결합한 기호 AI 또는 하이브리드 모델을 통합하면 진정한 추론에 참여하는 능력을 향상시킬 수 있습니다.
  2. 인과 추론: 진정한 추론은 통계적 상관 관계뿐만 아니라 원인과 결과를 이해해야합니다. 이유는 단순히 다음 토큰을 예측하기보다는 데이터에서 근본적인 원칙을 추론해야합니다. 인과 관계 AI에 대한 연구는 원인과 영향 관계를 명시 적으로 모델링하면 LLM이 계획에서 추론으로 전환하는 데 도움이 될 수 있습니다.
  3. 자기 반성 그리고 메타인지: 인간은 끊임없이 자신의 사고 과정을 요청하여 “이 결론은 의미가 있습니까?” 반면에 LLM에는 자기 반성 메커니즘이 없습니다. 자신의 출력을 비판적으로 평가할 수있는 모델을 구축하는 것은 진정한 추론을 향한 단계입니다.
  4. 상식과 직관 : LLM은 방대한 양의 지식에 접근 할 수 있지만 종종 기본적인 상식 추론으로 어려움을 겪고 있습니다. 이것은 직관을 형성 할 실제 경험이 없기 때문에 발생하며, 인간이 즉시 픽업 할 부조리를 쉽게 인식 할 수 없습니다. 또한 실제 역학을 의사 결정에 가져올 방법이 없습니다. 이를 향상시키는 한 가지 방법은 일반적인 감각 엔진으로 모델을 구축하는 것일 수 있으며, 이는 실제 감각 입력을 통합하거나 지식 그래프를 사용하여 모델이 인간이하는 방식을 세상을 더 잘 이해하는 데 도움이 될 수 있습니다.
  5. 반 사실적인 사고: 인간의 추론에는 종종“일이 다르다면 어떨까요?” LLM은 이러한 종류의 “만약”시나리오로 어려움을 겪고 있습니다. 이러한 상황에서 모델이 인간처럼 생각하기 위해서는 가상 시나리오를 시뮬레이션하고 변수의 변화가 결과에 어떤 영향을 줄 수 있는지 이해해야합니다. 또한 이미 본 것을 기반으로 예측하는 것이 아니라 다른 가능성을 테스트하고 새로운 통찰력을내는 방법이 필요합니다. 이러한 능력이 없으면 LLM은 대체 미래를 진정으로 상상할 수 없습니다. 그들은 그들이 배운 것만으로 만 일할 수 있습니다.

결론

LLM은 이유가있을 수 있지만 실제로 복잡한 문제를 해결하기위한 계획 기술에 의존하고 있습니다. 수학 문제를 해결하든 논리적 공제에 관여하든, 그들은 주로 그 뒤에있는 원리를 깊이 이해하기보다는 알려진 패턴을 구조화 된 방식으로 구성하고 있습니다. 이 차이는 AI 연구에서 중요합니다. 진정한 추론에 대한 정교한 계획을 착각하면 AI의 진정한 능력을 과대 평가할 위험이 있기 때문입니다.

진정한 추론 AI로가는 길에는 토큰 예측 및 확률 계획 외에 근본적인 발전이 필요합니다. 그것은 상징적 인 논리, 인과 적 이해 및 메타인지에 혁신을 요구할 것이다. 그때까지 LLM은 구조화 된 문제 해결을위한 강력한 도구로 남아 있지만 인간이하는 방식에 대해 진정으로 생각하지는 않습니다.

게시물 LLM은 추론하지 않습니다. 그들은 계획에 정말 능숙합니다 먼저 나타났습니다 Unite.ai.

Exit mobile version