LLM 내 현재 문제 해결 및 다음 단계 기대

Date:

현재 GPT-3, GPT-4, LaMDA, Bard 등 공개적으로 사용 가능한 LLM(대형 언어 모델)이 수십 개 있으며, 새 모델이 출시됨에 따라 그 수가 지속적으로 늘어나고 있습니다. LLM은 인공 지능에 혁명을 일으켜 다양한 산업 분야에서 기술과 상호 작용하는 방식을 완전히 바꿔 놓았습니다. 이러한 모델을 통해 우리는 다양한 인간 언어 데이터 세트에서 학습할 수 있으며 혁신, 창의성 및 효율성을 위한 새로운 길을 열었습니다.

그러나 큰 힘에는 큰 복잡성이 따릅니다. LLM을 최대한 활용하기 전에 해결해야 할 LLM을 둘러싼 본질적인 과제와 윤리적 문제가 있습니다. 예를 들어, 최근 스탠포드 연구 인종이나 성별을 암시하는 이름과 성을 포함하는 특정 쿼리를 처리하는 방법에 대해 ChatGPT-4를 관찰했을 때 인종 및 성별 편견을 발견했습니다. 이 연구에서 프로그램은 Jamal Washington이라는 사람이 판매하는 중고 자전거에 대해 얼마를 지불해야 하는지에 대한 조언을 요청받았는데, 이는 판매자가 Logan Becker라는 이름의 경우에 비해 훨씬 낮은 금액을 산출했습니다. 이러한 발견이 계속해서 밝혀지면서 LLM 문제를 해결해야 할 필요성이 더욱 커지고 있습니다.

일반적인 LLM 문제를 완화하는 방법

편견

LLM에서 가장 일반적으로 논의되는 문제 중 하나는 편견과 공정성입니다. 최근 연구에서는, 전문가 테스트 최근에 4개의 법학 석사 학위를 발표했는데, 모두 남성과 여성에 대한 편향된 가정, 특히 사실에 근거한 가정보다는 사람들의 인식에 부합하는 가정을 표현하고 있음을 발견했습니다. 이러한 맥락에서 편견은 역사적 또는 구조적 권력 불균형으로 인해 다양한 사회 집단 간의 불평등한 대우 또는 결과를 의미합니다.

LLM에서 편견은 데이터 선택, 작성자 인구통계, 언어 또는 문화적 왜곡으로 인해 발생합니다. 데이터 선택 편향은 LLM 교육을 위해 선택한 텍스트가 웹에서 사용되는 언어의 전체 다양성을 나타내지 않을 때 발생합니다. 광범위하지만 제한된 데이터 세트에 대해 훈련된 LLM은 이미 이러한 텍스트에 있는 편견을 상속받을 수 있습니다. 제작자 인구통계를 통해 특정 인구통계 그룹이 다른 그룹보다 더 자주 강조됩니다. 이는 편견을 줄이기 위해 콘텐츠 제작에 더 많은 다양성과 포용성이 필요함을 보여줍니다. 예를 들어, 교육 데이터의 일반적인 소스인 Wikipedia는 편집자가 남성이 다수인 가운데 눈에 띄는 인구통계학적 불균형을 보여줍니다.84%). 이는 언어와 문화에서도 발견되는 편향과 유사합니다. LLM이 교육을 받는 많은 소스는 편향되고 영어 중심으로 기울어져 있으며 때로는 다른 언어와 문화에 걸쳐 정확하게 번역되는 경우도 있습니다.

LLM은 필터링된 데이터에 대해 교육을 받아야 하며, 데이터를 일관되게 표현하지 않는 주제를 억제하기 위한 가드레일을 마련해야 합니다. 이를 수행하는 한 가지 방법은 데이터 증대 기반 기술을 이용하는 것입니다. 잘 표현되지 않은 그룹의 예를 훈련 데이터에 추가하여 데이터 세트의 다양성을 넓힐 수 있습니다. 또 다른 완화 전략은 데이터 필터링 및 가중치 재조정으로, 주로 기존 데이터 세트 내에서 잘 표현되지 않은 특정 사례를 정확하게 타겟팅하는 데 중점을 둡니다.

환각

LLM의 맥락에서 환각은 문법적으로는 정확하고 일관적인 것처럼 보이지만 사실적 정확성이나 원본 자료의 의도와는 다른 텍스트가 생성되는 것을 특징으로 하는 현상입니다. 사실은, 최근 보고서 미네소타 법률에 대한 소송이 LLM 환각에 직접적인 영향을 받는다는 사실을 발견했습니다. 법을 뒷받침하기 위해 제출된 진술서에는 ChatGPT 또는 다른 LLM에서 환각을 느꼈을 수 있는 존재하지 않는 출처가 포함된 것으로 밝혀졌습니다. 이러한 환각은 LLM의 신뢰성을 쉽게 감소시킬 수 있습니다.

환각에는 세 가지 주요 형태가 있습니다.

  1. 입력 충돌 환각: 이는 LLM의 출력이 사용자가 제공한 입력(일반적으로 작업 지침 및 처리해야 하는 실제 콘텐츠 포함)과 다를 때 발생합니다.
  2. 상황 충돌 환각: LLM은 확장된 대화 또는 여러 교환과 관련된 시나리오에서 내부적으로 일관성이 없는 반응을 생성할 수 있습니다. 이는 상황을 추적하거나 다양한 상호 작용에 대한 일관성을 유지하는 모델의 능력에 잠재적인 결함이 있음을 나타냅니다.
  3. 사실 상충 환각: 이러한 형태의 환각은 LLM이 확립된 사실 지식과 상충되는 콘텐츠를 생산할 때 발생합니다. 이러한 오류의 원인은 다양하며 LLM 수명주기의 다양한 단계에서 발생할 수 있습니다.

LLM이 사전 교육 중에 정보를 올바르게 동화하는 지식이나 능력이 부족할 수 있음을 설명하는 지식 부족과 같은 많은 요인이 이 현상에 기여했습니다. 또한 훈련 데이터 내의 편견이나 “환각 눈덩이”라고 불리는 LLM의 순차적 생성 전략은 환각을 일으킬 수 있습니다.

환각을 완화하는 방법이 있지만 이는 항상 LLM의 특징입니다. 환각에 대한 유용한 완화 전략은 사전 훈련(필터링 기술을 사용하여 데이터를 수동으로 정제) 또는 미세 조정(훈련 데이터 선별) 중에 완화하는 것입니다. 그러나 추론 중 완화는 비용 효율성과 제어 가능성으로 인해 최상의 솔루션입니다.

은둔

인터넷의 등장으로 개인 정보 및 기타 개인 데이터에 대한 접근성이 높아지는 것이 널리 인식되는 문제가 되었습니다. 한 연구에 따르면 80% 의 미국 소비자는 자신의 데이터가 AI 모델을 훈련하는 데 사용되는 것을 우려하고 있습니다. 가장 유명한 LLM은 웹사이트에서 제공되므로 이것이 어떻게 개인 정보 보호 위험을 초래하고 LLM에 대해 대부분 해결되지 않은 문제로 남아 있는지 고려해야 합니다.

LLM이 개인 정보를 배포하는 것을 방지하는 가장 간단한 방법은 교육 데이터에서 개인 정보를 제거하는 것입니다. 그러나 LLM과 관련된 방대한 양의 데이터를 고려할 때 모든 개인 정보가 근절된다는 것을 보장하는 것은 거의 불가능합니다. 외부에서 개발된 모델을 사용하는 조직의 또 다른 일반적인 대안은 ChatGPT와 같은 서비스 대신 오픈 소스 LLM을 선택하는 것입니다.

이 접근 방식을 사용하면 모델 복사본을 내부적으로 배포할 수 있습니다. 사용자의 메시지는 제3자 서비스에 노출되지 않고 조직의 네트워크 내에서 안전하게 유지됩니다. 이렇게 하면 민감한 데이터가 유출될 위험이 크게 줄어들지만 상당한 복잡성도 추가됩니다. 개인 데이터의 보호를 완벽하게 보장하는 것이 어렵다는 점을 감안할 때, 애플리케이션 개발자는 이러한 모델이 어떻게 사용자를 위험에 빠뜨릴 수 있는지 고려하는 것이 여전히 중요합니다.

LLM을 위한 차세대 개척지

우리가 현재의 위험을 완화하여 LLM의 후속 진화를 지속적으로 성장시키고 형성함에 따라 우리는 이미 다음과 같은 회사를 보고 있는 LLM 에이전트의 획기적인 발전을 기대해야 합니다. H와 러너 H출시를 시작합니다. 순수 언어 모델에서 에이전트 아키텍처로의 전환은 AI 시스템 설계의 변화를 나타냅니다. 업계는 채팅 인터페이스와 단순 검색-증강 생성의 고유한 한계를 뛰어넘을 것입니다. 이러한 새로운 에이전트 프레임워크에는 복잡한 목표를 원자적인 하위 작업으로 분해하고, 상황에 맞는 추론을 위해 에피소드 메모리를 유지하고, 잘 정의된 API를 통해 특수 도구를 활용하는 정교한 계획 모듈이 있습니다. 이는 작업 자동화에 대한 보다 강력한 접근 방식을 만듭니다. 아키텍처 진행은 기존 LLM 구현 내에서 작업 및 추론, 도구 통합 및 실행 모니터링과 관련된 일반적인 문제를 완화하는 데 도움이 됩니다.

LLM 외에도 비용 효율성, 접근성 및 배포 용이성으로 인해 소규모 언어 모델 교육에 더 중점을 둘 것입니다. 예를 들어 도메인별 언어 모델은 특정 산업이나 분야를 전문으로 합니다. 이러한 모델은 도메인별 데이터 및 용어로 세밀하게 조정되므로 정밀도가 필수적인 의료 또는 법률 분야와 같이 복잡하고 규제된 환경에 이상적입니다. 이러한 타겟 접근 방식은 범용 모델이 전문적인 콘텐츠에 직면할 때 생성할 수 있는 오류와 환각의 가능성을 줄여줍니다.

LLM의 새로운 영역을 계속 탐색하면서 혁신의 경계를 넓히고 개발 및 배포와 관련된 잠재적 위험을 해결하고 완화하는 것이 중요합니다. 편견, 환각 및 개인 정보 보호와 관련된 문제를 먼저 식별하고 적극적으로 해결해야만 LLM이 다양한 분야에서 성공할 수 있는 보다 강력한 기반을 만들 수 있습니다.

게시물 LLM 내 현재 문제 해결 및 다음 단계 기대 처음 등장한 Unite.AI.

Share post:

Subscribe

Popular

More like this
Related

CES 2025: 자동차와 모빌리티의 미래를 선도하다

Microsoft는 전기화, 자율성, 차량 내 시스템 및 새로운 모빌리티...

공무원부터 대학생까지 인도인들은 업무와 생활에 필요한 AI 도구에 대한 교육을 받고 있습니다.

일체 포함게시물 공무원부터 대학생까지 인도인들은 업무와 생활에 필요한 AI...

인텔, RealSense를 독립 회사로 분사

Intel RealSense D421 깊이 모듈. | 크레딧: 인텔2024년 9월...

보스턴 다이나믹스, 고스트 로보틱스와 특허 소송 해결

왼쪽에는 Ghost Robotics의 Vision 60이 네 발로 움직였습니다. 오른쪽은...