옳은 소리. 옳아 보입니다. 잘못되었습니다. 그것은 환각에 대한 당신의 AI입니다. 문제는 오늘날의 생성 AI 모델만이 아닙니다 환각. 우리가 충분한 가드 레일을 만들고, 미세 조정하고, 그것을 헝겊으로 만들고, 어떻게 든 길들인다면 엔터프라이즈 규모로 채택 할 수 있습니다.
공부하다 | 도메인 | 환각율 | 주요 결과 |
---|---|---|---|
Stanford Hai & Reglab (2024 년 1 월) | 합법적인 | 69%–88% | LLMS는 법적 질문에 응답 할 때 높은 환각율을 보였으며, 종종 오류에 대한 자기 인식이 부족하고 잘못된 법적 가정을 강화했습니다. |
JMAR 연구 (2024) | 학문적 참조 | GPT-3.5 : 90.6%, GPT-4 : 86.6%, 바드 : 100% | LLM 생성 참고 문헌은 종종 이용 가능한 문헌에 의해 관련이 없거나 부정확하거나 지원되지 않았습니다. |
AI 생성 콘텐츠에 대한 영국 연구 (2025 년 2 월) | 재원 | 지정되지 않았습니다 | AI 생성 불이익 정보는 은행 운영의 위험을 증가 시켰으며, AI 생성 가짜 콘텐츠를 본 후 은행 고객의 상당 부분이 돈을 옮기는 것을 고려하고 있습니다. |
세계 경제 포럼 글로벌 위험 보고서 (2025) | 글로벌 위험 평가 | 지정되지 않았습니다 | AI에 의해 증폭 된 잘못된 정보 및 정보는 2 년 전망에서 최고의 글로벌 위험으로 순위를 매겼습니다. |
Vectara 환각 리더 보드 (2025) | AI 모델 평가 | GPT-4.5- 프리뷰 : 1.2%, Google Gemini-2.0-Pro-EXP : 0.8%, Vectara Mockingbird-2-Echo : 0.9% | 다양한 LLM에 걸쳐 환각율을 평가하여 성능과 정확도에 상당한 차이가 나타납니다. |
사실 환각에 관한 ARXIV 연구 (2024) | AI 연구 | 지정되지 않았습니다 | 사실적인 부정확성에 중점을 둔 LLM의 환각을 체계적으로 연구하고 탐지하기 위해 Halueval 2.0을 도입했습니다. |
환각율은 0.8%에서 88%로
예, 모델, 도메인, 사용 사례 및 컨텍스트에 따라 다르지만 그 확산은 모든 엔터프라이즈 의사 결정자를 덜어야합니다. 이들은 에지 케이스 오류가 아닙니다. 그들은 체계적입니다. 기업에서 AI 채택과 관련하여 올바른 전화를 어떻게합니까? 어디서, 어떻게, 얼마나 깊고, 얼마나 넓습니까?
그리고 이것의 실제 결과의 예는 매일 당신의 뉴스 피드를 만날 수 있습니다. G20의 금융 안정성위원회는 생성 AI를 정보를 벡터로 표시했습니다. 이로 인해 시장 위기, 정치적 불안정성 및 악화 – 급격한 충돌, 가짜 뉴스 및 사기가 발생할 수 있습니다. 최근에보고 된 또 다른 이야기에서 법률 회사 인 Morgan & Morgan은 모든 변호사에게 긴급 메모를 발표했습니다. 확인없이 AI 생성 신고서를 제출하지 마십시오. 가짜 판례법은 “화재”범죄입니다.
이것은 조만간 환각율에 대해 농장을 베팅하기에 가장 좋은시기가 아닐 수도 있습니다. 특히 법률, 생명 과학, 자본 시장 또는 기타 기관과 같은 규제 된 산업에서는 고등 교육 출판을 포함하여 실수 비용이 높아질 수 있습니다.
환각은 반올림 오류가 아닙니다
이것은 때때로 잘못된 대답에 관한 것이 아닙니다. 쯤이고 있습니다 위험: 평판, 법적, 운영.
생성 AI는 추론 엔진이 아닙니다. 통계 피니셔, 확률 앵무새입니다. 교육 데이터를 기반으로 가장 가능성이 높은 방식으로 프롬프트를 완료합니다. 심지어 진정한 사운드 부분 추측입니다. 우리는 가장 터무니없는 조각을“환각”이라고 부르지 만 전체 출력은 환각입니다. 잘 정화 된 하나. 그럼에도 불구하고 그것은 마술처럼 잘 작동합니다.
인프라로서 AI
그럼에도 하부 구조마법이 좋아하지 않습니다. 필요한 경우 투명하고 설명 가능하며 추적 가능해야합니다. 그렇지 않다면 간단하지 않다면 해당 사용 사례에 대한 기업 전반의 채택 할 준비가되지 않습니다. AI가 결정을 내리는 경우 보드의 레이더에 있어야합니다.
EU의 AI 법은 여기서 청구를 주도하고 있습니다. 정의, 의료 및 인프라와 같은 고위험 영역은 미션 크리티컬 시스템과 같이 규제됩니다. 문서화, 테스트 및 설명은 필수적입니다.
엔터프라이즈 안전 AI 모델이하는 일
Enterprise-SAFE AI 모델을 구축하는 전문 회사는 AI를 다르게 구축하기로 결정한 의식적인 결정을 내립니다. 대안 AI 아키텍처에서 언어 모델은 데이터에 대한 교육을받지 않으므로 편견, IP 침해 또는 추측 또는 환각에 대한 성향과 같은 데이터에서 바람직하지 않은 것으로 “오염되지 않습니다”.
그러한 모델은“당신의 생각을 완성”하지 않습니다 – 그들은 사용자의 이유입니다. 콘텐츠. 그들의 지식 기반. 그들의 문서. 그들의 데이터. 대답이 없다면이 모델은 그렇게 말합니다. 그것이 그러한 AI 모델을 설명 할 수 있고 추적 가능하며 결정 론적이며 환각을 받아 들일 수없는 곳에서 좋은 선택을합니다.
AI 책임을위한 5 단계 플레이 북
- AI 풍경을 매핑하십시오 – AI는 귀하의 비즈니스에서 어디에 사용됩니까? 그들은 어떤 결정에 영향을 미치고 있습니까? 신뢰할 수있는 소스 자료에 대한 투명한 분석으로 이러한 결정을 추적 할 수있는 프리미엄은 무엇입니까?
- 조직을 정렬하십시오 – AI 배포 범위에 따라 재무 또는 사이버 보안 위험에 대한 역할,위원회, 프로세스 및 감사 관행을 설정합니다.
- AI를 보드 수준 위험으로 가져옵니다 – AI가 고객 또는 규제 기관과 대화하는 경우 위험 보고서에 속합니다. 거버넌스는 사이드 쇼가 아닙니다.
- 공동 부도와 같은 공급 업체를 대하십시오 – 공급 업체의 AI가 일을하면 여전히 낙진을 소유하고 있습니다. AI 책임 원칙을 확장하십시오. 설명 및 환각 률에 대한 수요 문서, 감사 권한 및 SLA.
- 회의론을 훈련시킵니다 – 팀은 AI를 주니어 분석가처럼 취급해야합니다. 누군가 환각을 식별 할 때 축하하십시오. 신뢰를 얻어야합니다.
기업에서 AI의 미래 더 큰 모델이 아닙니다. 필요한 것은 더 정밀도, 투명성, 더 많은 신뢰 및 더 많은 책임입니다.
게시물 AI가 사실을 발명 할 때 : 기업 위험은 리더가 무시할 수 없습니다. 먼저 나타났습니다 Unite.ai.