OpenAI의 ChatGPT, Meta의 Llama, Anthropic의 Claude와 같은 LLM의 확산으로 모든 상황에 맞는 챗봇이 생겨났습니다. 진로상담당신이 할 수 있는 채팅봇 미래의 자신에게 말해보세요그리고 심지어 치킨 챗봇 요리에 대한 조언을 해줍니다.
하지만 10년 전의 챗봇은 아닙니다. 그 당시에는 좁게 사전 설정된 엄격한 “대화”로 제한되었으며, 종종 다중 선택 또는 동등한 응답이 있는 대규모 흐름도를 기반으로 했습니다. 본질적으로 인터넷 이전의 IVR 전화 메뉴보다 약간 더 정교했을 뿐입니다.
반면 오늘날의 “챗봇”은 훨씬 더 광범위한 기능과 사용 사례를 갖춘 도구인 대화형 AI를 지칭하는 경우가 더 많습니다. 그리고 우리는 이제 생성형 AI 과대 광고 주기의 한가운데에 있기 때문에 이 세 가지 용어가 모두 서로 바꿔 사용되고 있습니다. 불행히도 그 결과 기업 리더, 특히 엄격하게 규제되는 산업 금융과 같은.
그래서 저는 “챗봇”을 둘러싼 몇 가지 흔한 오해에 대해 바로잡고 싶습니다. 우리가 실제로 논의하고 있는 것은 대화형 AI입니다.
신화 1: 고객은 챗봇을 싫어한다
소비자들은 지난 10년 동안 인간 상담원이냐 챗봇이냐 중 어느 것을 선호하는지 질문을 받아왔습니다. 이는 누군가에게 전문 마사지를 받고 싶은지, 쇼핑몰 마사지 의자에 앉아 있고 싶은지 묻는 것과 같습니다.
하지만 2022년 ChatGPT의 데뷔(그리고 그것에서 파생된 모든 도구)는 챗봇의 기능에 대한 우리의 인식을 완전히 뒤집어 놓았습니다. 위에서 언급했듯이, 이전의 챗봇은 스크립트로 작동했기 때문에 지정된 경로에서 벗어나면 종종 혼란과 비효율적인 응답으로 이어졌습니다. 맥락과 사용자 의도를 이해할 수 없었기 때문에 제공된 답변은 종종 일반적이고 도움이 되지 않았으며 정보를 수집, 저장 및 전달하는 용량이 제한되었습니다.
대조적으로 대화형 AI는 인간 말을 모방한 자연스러운 대화에 사람들을 참여시켜 더 유연하고 직관적인 교환을 가능하게 합니다. 예상치 못한 결과에 대한 놀라운 유연성과 적응력을 보여줍니다. 사용자 의도를 둘러싼 맥락을 이해하고, 감정을 감지하고, 공감적으로 대응할 수 있습니다.
이러한 더 깊은 수준의 이해를 통해 오늘날의 AI는 사용자를 논리적인 경로로 효과적으로 안내하여 목표를 달성할 수 있습니다. 여기에는 필요한 경우 고객을 인간 조수에게 신속하게 넘기는 것도 포함됩니다. 게다가 대화형 AI는 고급 정보 필터, 검색 메커니즘 및 관련 데이터를 보관하는 기능을 사용하여 문제 해결 능력을 크게 향상시켜 더 나은 사용자 경험을 제공합니다.
따라서 고객이 챗봇을 맹목적으로 싫어하는 것이 아니라, 그들이 싫어하는 것은 나쁜 서비스이며, 이전 버전의 챗봇은 확실히 이를 제공한 데에 책임이 있습니다. 오늘날의 대화형 에이전트는 훨씬 더 정교해서 소비자의 4분의 1 이상 인간과 AI 에이전트를 구별하는 능력에 자신감이 없으며 일부는 심지어 AI 챗봇을 인식하다 장차 ~ 가 되는 더 나은 선택된 작업에 있어서 인간보다 더 나은 성과를 보입니다.
시험 운영에서 저희 회사는 AI 에이전트가 리드 전환율을 3배나 높이는 것을 보았습니다. 이는 봇인지 아닌지가 중요한 것이 아니라 작업의 질이 중요하다는 것을 보여주는 강력한 증거입니다.
신화 2: 챗봇은 너무 위험하다
AI에 대한 기업 리더와의 논의에서 종종 환각, 데이터 보호, 그리고 잠재적으로 규제 위반으로 이어질 수 있는 편견에 대한 우려가 제기됩니다. 합법적인 위험이지만, 미세 조정, 검색 증강 생성(RAG), 신속한 엔지니어링 등 몇 가지 다른 접근 방식을 통해 모두 완화할 수 있습니다.
모든 LLM에서 사용할 수 있는 것은 아니지만, 미세 조정은 사전 훈련된 모델을 특정 작업이나 도메인에 맞게 특화하여 AI가 특정 요구 사항에 더 적합하게 만들 수 있습니다. 예를 들어, 의료 회사는 모델을 미세 조정하여 의료 문의를 더 잘 이해하고 이에 대응할 수 있습니다.
RAG는 외부 지식을 동적으로 통합하여 챗봇 정확도를 높입니다. 이를 통해 챗봇은 외부 데이터베이스에서 최신 정보를 검색할 수 있습니다. 예를 들어, 금융 서비스 챗봇은 RAG를 사용하여 주가에 대한 실시간 답변을 제공할 수 있습니다.
마지막으로, 프롬프트 엔지니어링은 챗봇이 더 정확하거나 상황에 맞는 응답을 생성하도록 안내하는 프롬프트를 제작하여 LLM을 최적화합니다. 예를 들어, 전자 상거래 플랫폼은 맞춤형 프롬프트를 사용하여 챗봇이 고객 선호도와 검색 기록에 따라 개인화된 제품 추천을 제공하도록 도울 수 있습니다.
이러한 접근 방식 중 하나 이상을 사용하는 것 외에도 대화형 AI의 창의성 “온도”를 제어하여 환각을 예방할 수도 있습니다. API 호출 내에서 더 낮은 온도를 설정하면 AI가 더 결정적이고 일관된 응답을 제공하는 데 제한이 걸리며, 특히 AI가 지정된 신뢰할 수 있는 데이터 세트에서 데이터를 가져오도록 보장하는 지식 기반과 결합할 때 더욱 그렇습니다. 위험을 더욱 완화하려면 편견이나 잘못된 정보로 인해 법적 문제가 발생할 수 있는 의사 결정 역할에 AI를 배치하지 마십시오.
데이터 개인정보 보호와 관련해 외부 AI 공급업체가 규정을 준수하는지 확인하거나 자체 인프라에 오픈소스 모델을 배포하여 GDPR 준수에 필수적인 데이터에 대한 완벽한 제어권을 유지하세요.
마지막으로, 소송 시도와 같은 예상치 못한 상황에서 기업을 보호하여 추가적인 보호를 제공할 수 있는 전문적 책임 보험에 투자하는 것이 항상 현명합니다. 이러한 조치를 통해 기업은 브랜드와 고객 안전을 유지하면서도 자신 있게 AI를 활용할 수 있습니다.
신화 3: 챗봇은 복잡한 작업에 적합하지 않다
대형 기술 회사들이 겪고 있는 문제를 본 후 가지고있다 AI 도구를 배포하는 경우 중소기업이 더 쉽게 시간을 보낼 수 있을 것이라고 생각하는 것은 순진하게 느껴질 수 있습니다. 하지만 AI는 현재 “모든 분야의 잭이지만 아무것도 잘하지 못한다”는 표현이 그다지 부정확하지 않은 단계에 있습니다. 이는 주로 이러한 도구가 아직 효과적인 AI 배포를 위해 설계되지 않은 환경에서 너무 많은 다른 작업을 수행하도록 요청받고 있기 때문입니다. 다시 말해, 도구가 능력이 없는 것이 아니라 얇고 깨진 얼음으로 가득 찬 연못에서 피겨 스케이팅을 하도록 요청받고 있다는 것입니다.
예를 들어, 사일로화되거나 무질서한 데이터가 가득한 조직은 AI가 오래되고 부정확하거나 상충되는 정보를 표면화할 가능성이 더 큽니다. 아이러니하게도 이는 복잡성의 결과입니다! 이전의 챗봇은 단순히 기본 정보를 선형적으로 되뇌었지만 대화형 AI는 강력한 데이터 세트를 분석하여 여러 영향력 있는 요소를 한 번에 고려하여 가장 적절한 경로를 계획할 수 있습니다.
결과적으로 대화형 AI의 성공은 엄격한 매개변수와 데이터 소스 및 작업에 대한 매우 명확한 경계에 달려 있습니다. 적절한 교육 데이터와 전문적으로 설계된 프롬프트를 사용하면 대화형 AI의 기능은 간단한 챗봇의 범위를 훨씬 넘어 확장될 수 있습니다. 예를 들어, 고객 대화에서 데이터를 수집하고 필터링하여 CRM을 자동으로 업데이트하는 데 사용할 수 있습니다. 이를 통해 관리 작업을 간소화할 뿐만 아니라 고객 정보가 지속적으로 정확하고 최신 상태인지 확인할 수 있습니다. 이러한 작업을 자동화함으로써 기업은 관리 부담보다는 전략적 활동에 더 집중할 수 있습니다.
“챗봇”이라는 용어를 계속 사용하려면 최첨단 대화형 AI를 통합하는 플랫폼과 어제의 제한된 도구를 제공하는 플랫폼을 구별하는 것이 필수적입니다. 오늘날 “전화”라는 단어가 나선형 유선 전화보다 터치스크린 스마트폰의 이미지를 더 자주 불러일으키는 것과 같은 방식으로, 저는 “챗봇”이 어색한 객관식 아바타가 아닌 고급 AI 에이전트라는 아이디어로 대체되는 데 그리 멀지 않다고 생각합니다.
게시물 ‘챗봇’이 더러운 단어일 때: 비즈니스 리더들이 대화형 AI에 대해 가지고 있는 3가지 오해 처음 등장 유나이트.AI.