AI 뉴스허브

이야기가 회전하는 것을 막는 AI 중지 : 환각 방지에 대한 가이드

이야기가 회전하는 것을 막는 AI 중지 : 환각 방지에 대한 가이드

AI는 거의 모든 산업이 운영하는 방식을 혁신하고 있습니다. 그것은 우리를보다 효율적이고 생산적이며, 올바르게 구현할 때 – 전반적으로 일자리를 더 잘 만들고 있습니다. 그러나이 새로운 기술에 대한 우리의 의존도가 빠르게 증가함에 따라, 우리는 하나의 간단한 사실을 상기시켜야합니다. 인간과 마찬가지로 AI가 실수를 할 수 있기 때문에 생산량은 액면가로 취해서는 안됩니다.

우리는 이러한 실수를“AI 환각”이라고 부릅니다. 그러한 사고는 a 수학 문제가 잘못되었습니다 제공합니다 부정확 한 정보 정부 정책에. 고도로 규제 된 산업에서 환각은 불만족스러운 고객은 말할 것도없이 비용이 많이 드는 벌금과 법적 문제로 이어질 수 있습니다.

따라서 AI 환각의 빈도는 우려의 원인이어야합니다. 추정됩니다 현대적인 대형 언어 모델 (LLMS)은 시간의 1%에서 30%까지 환각됩니다. 이로 인해 매일 수백 가지의 허위 답변이 생성됩니다. 즉, 구현할 도구를 선택할 때이 기술을 활용하려는 비즈니스가 힘들어야합니다.

AI 환각이 발생하는 이유, 위험에 처해 있고 어떻게 식별하고 수정할 수 있는지 살펴 보겠습니다.

쓰레기, 쓰레기

어린 시절 “전화”게임을 기억하십니까? 선수에서 플레이어로 전달되면서 시작구가 어떻게 뒤틀리게되었을 때, 원을 돌아 다니면서 완전히 다른 진술을 초래할 수 있습니까?

AI가 입력에서 배우는 방식은 비슷합니다. LLM이 생성하는 응답은 그들이 공급 한 정보만큼이나 우수하며, 이는 잘못된 상황이 허위 정보의 생성 및 보급으로 이어질 수 있음을 의미합니다. AI 시스템이 부정확하거나 현재 구식 또는 바이어스 된 데이터를 기반으로하는 경우 출력이이를 반영합니다.

따라서 LLM은 특히 인간의 개입이나 감독이 부족한 경우 입력만큼 우수합니다. 보다 자율적 인 AI 솔루션이 확산됨에 따라 환각을 유발하지 않도록 올바른 데이터 컨텍스트를 제공하는 것이 중요합니다. 우리는이 데이터에 대한 엄격한 교육 및/또는 그들이 응답하는 방식으로 LLM을 안내하는 능력이 필요합니다. 오직 인터넷의 어느 곳에서나 정보를 가져 오기보다는 제공되는 맥락에서.

환각이 중요한 이유는 무엇입니까?

고객을 향한 비즈니스의 경우 정확도가 전부입니다. 직원이 고객 데이터 합성 또는 고객 쿼리에 응답하는 것과 같은 작업에 AI에 의존하는 경우 그러한 도구가 생성하는 응답이 정확하다는 것을 신뢰해야합니다.

그렇지 않으면, 비즈니스는 위험에 처해 있습니다 그들의 명성과 고객 충성도에. 고객이 챗봇에 의해 불충분하거나 잘못된 답변을 받거나 직원이 챗봇의 출력을 사실 확인하는 동안 기다리고있는 경우 다른 곳에서 사업을 할 수 있습니다. 사람들은 상호 작용하는 비즈니스가 잘못된 정보를 제공하는지 여부에 대해 걱정할 필요가 없습니다. 그들은 신속하고 신뢰할 수있는 지원을 원합니다. 즉, 이러한 상호 작용을 올바르게 얻는 것이 가장 중요합니다.

비즈니스 리더는 직원에게 적합한 AI 도구를 선택할 때 실사를해야합니다. AI는 직원이 고가의 작업에 집중할 수 있도록 시간과 에너지를 확보해야합니다. 끊임없는 인간 조사가 필요한 챗봇에 투자하면 입양의 전체 목적을 무너 뜨립니다. 그러나 환각의 존재가 실제로 두드러 지거나, 우리가 틀린 것으로 가정하는 모든 응답으로 식별하기 위해 단순히 과도하게 사용 되는가?

AI 환각과의 싸움

고려하십시오 : 역동적 인 의미 이론 (DMT),이 경우 사용자와 AI 사이의 이해가 교환되고 있다는 개념입니다. 그러나, 언어의 한계와 주제에 대한 지식은 반응의 해석에서 오정렬을 일으킨다.

AI 생성 응답의 경우, 기본 알고리즘이 우리가 인간으로서 기대하는 기대와 일치하는 방식으로 텍스트를 정확하게 해석하거나 생성 할 수 있도록 아직 완전히 장착되지 않았을 수 있습니다. 이 불일치는 표면에서 정확해 보일 수 있지만 궁극적으로 진정한 이해에 필요한 깊이 나 뉘앙스가 부족한 응답으로 이어질 수 있습니다.

또한 대부분의 일반 목적 LLM은 인터넷에서 공개적으로 제공되는 콘텐츠에서만 정보를 가져옵니다. AI의 엔터프라이즈 애플리케이션은 개별 산업 및 비즈니스에 특정한 데이터 및 정책으로 정보를 얻을 때 더 잘 수행합니다. 직접적인 인간 피드백, 특히 톤 및 구문에 응답하도록 설계된 에이전트 솔루션으로 모델을 개선 할 수 있습니다.

이러한 도구는 소비자가되기 전에 엄격하게 테스트해야합니다. 이것은 AI 환각을 예방하는 데 중요한 부분입니다. 전체 흐름은 LLM이 페르소나의 역할을 수행하는 턴 기반 대화를 사용하여 테스트해야합니다. 이를 통해 기업은 AI 모델과의 대화의 일반적인 성공을 더 잘 가정하기 전에 세계로 공개 할 수 있습니다.

AI 기술의 개발자와 사용자 모두가받는 응답의 역동적 인 의미 이론과 입력에 사용되는 언어의 역학을 계속 알고 있어야합니다. 컨텍스트가 핵심이라는 것을 기억하십시오. 그리고 인간으로서, 우리의 맥락의 대부분은 신체 언어, 사회적 트렌드, 심지어 우리의 어조를 통해서도 무언의 수단을 통해 이해됩니다. 인간으로서, 우리는 질문에 대한 응답으로 환각 할 가능성이 있습니다. 그러나 현재 AI의 반복에서 인간-인간의 이해는 쉽게 맥락화되지 않으므로 서면으로 제공하는 맥락에 더 비판적이어야합니다.

말하면 충분합니다 – 모든 AI 모델이 동일하게 생성되는 것은 아닙니다. 기술이 점점 더 복잡한 작업을 완료하기 위해 발전함에 따라 비즈니스가 구현을 시끄럽게하는 것이 중요합니다.

온유는 솔루션 제공 업체에 대한 것이 아니라 환각이 발생할 수있는 기회를 최소화하기 위해 자신의 힘으로 모든 것을 수행했는지 확인합니다. 잠재적 인 구매자도 역할을 수행 할 수 있습니다. 엄격하게 훈련 및 테스트하고 인터넷의 모든 것 대신 독점 데이터에서 배울 수있는 솔루션을 우선시함으로써 비즈니스는 AI 투자를 최대한 활용하여 직원과 고객을 성공적으로 설정할 수 있습니다.

게시물 이야기가 회전하는 것을 막는 AI 중지 : 환각 방지에 대한 가이드 먼저 나타났습니다 Unite.ai.

Exit mobile version