인간은 늘 실수를 합니다. 우리 모두는 매일 새로운 작업과 일상적인 작업을 수행합니다. 우리의 실수 중 일부는 사소하고 일부는 치명적입니다. 실수는 친구들과의 신뢰를 깨뜨릴 수 있고, 상사의 신뢰를 잃을 수 있으며, 때로는 생사를 가를 수도 있습니다.
수천년에 걸쳐 우리는 인간이 흔히 저지르는 일종의 실수를 처리하기 위해 보안 시스템을 만들었습니다. 요즘 카지노에서는 딜러를 정기적으로 교체합니다. 동일한 작업을 너무 오랫동안 수행하면 실수를 하기 때문입니다. 병원 관계자는 의사가 올바른 신체 부위를 수술할 수 있도록 수술 전에 팔다리에 글을 쓰고, 수술 도구의 수를 세어 몸 안에 남은 것이 없는지 확인합니다. 복사 편집부터 복식 장부 작성, 항소 법원에 이르기까지 우리 인간은 인간의 실수를 수정하는 데 정말 능숙해졌습니다.
인류는 이제 완전히 다른 종류의 실수를 저지르는 AI를 사회에 빠르게 통합하고 있습니다. 다음과 같은 기술 대규모 언어 모델 (LLM)은 전통적으로 인간이 수행했던 많은 인지 작업을 수행할 수 있지만 실수도 많이 합니다. 것 같다 말도 안 되는 챗봇이 돌을 먹거나 피자에 접착제를 추가하라고 말할 때. 그러나 인간의 실수와 AI 시스템의 실수를 구별하는 것은 AI 시스템의 실수 빈도나 심각도가 아닙니다. 그들의 이상함입니다. AI 시스템은 인간과 같은 방식으로 실수를 하지 않습니다.
AI 사용과 관련된 많은 마찰과 위험은 이러한 차이에서 발생합니다. 우리는 새로운 것을 발명해야 한다 보안 이러한 차이에 적응하고 AI 실수로 인한 피해를 방지하는 시스템입니다.
인간의 실수와 AI의 실수
삶의 경험을 통해 우리 각자는 인간이 언제 어디서 실수를 할지 추측하기가 매우 쉽습니다. 인적 오류는 누군가의 지식 가장자리에서 발생하는 경향이 있습니다. 우리 대부분은 미적분 문제를 해결하는 데 실수를 할 것입니다. 우리는 인간의 실수가 클러스터링될 것으로 예상합니다. 단일 미적분 실수는 다른 실수를 동반할 가능성이 높습니다. 우리는 피로나 산만함과 같은 요인에 따라 실수가 점점 줄어들고 줄어들 것이라고 예상합니다. 그리고 실수는 종종 무지를 동반합니다. 미적분학 실수를 하는 사람은 미적분학 관련 질문에 “모르겠어요”라고 대답할 가능성도 높습니다.
AI 시스템이 인간과 유사한 실수를 저지르는 정도까지 우리는 모든 실수 수정 시스템을 활용하여 결과를 뒷받침할 수 있습니다. 그러나 현재의 AI 모델, 특히 LLM은 실수를 다르게 합니다.
AI 오류는 특정 주제를 중심으로 군집되지 않고 무작위로 발생하는 것처럼 보입니다. LLM 실수는 지식 공간 전체에 더욱 고르게 분포되는 경향이 있습니다. 모델은 다음과 같이 제안하는 것과 마찬가지로 미적분학 문제에서도 실수할 가능성이 높습니다. 양배추 염소를 먹어라.
그리고 AI 실수에는 무지가 동반되지 않습니다. LLM은 다음과 같습니다. 마찬가지로 자신감이 넘친다 뭔가 완전히 잘못된 말을 할 때(인간에게도 분명히 그렇습니다), 진실을 말할 때와 마찬가지입니다. 겉보기에 무작위인 것 같은 불일치 LLM의 경우 복잡하고 다단계 문제에 대한 추론을 신뢰하기 어렵습니다. AI 모델을 사용하여 비즈니스 문제를 해결하려는 경우 제품의 수익성을 높이는 요인이 무엇인지 이해하는 것만으로는 충분하지 않습니다. 돈이 무엇인지 잊지 않도록 해야 합니다.
AI 실수를 처리하는 방법
이 상황은 두 가지 가능한 연구 영역을 나타냅니다. 첫 번째는 인간과 유사한 실수를 저지르는 LLM을 설계하는 것입니다. 두 번째는 LLM이 저지르기 쉬운 특정 종류의 실수를 처리하는 새로운 실수 수정 시스템을 구축하는 것입니다.
우리는 LLM이 보다 인간적인 방식으로 행동하도록 유도하는 몇 가지 도구를 이미 보유하고 있습니다. 이들 중 다수는 “조정” 모델을 만드는 것을 목표로 하는 연구 그에 따라 행동하다 인간 개발자의 목표와 동기를 가지고 있습니다. 한 가지 예는 다음과 같은 기술입니다. 틀림없이 ChatGPT의 획기적인 성공을 책임지는 사람: 인간 피드백을 통한 강화 학습. 이 방법에서 AI 모델은 인간 평가자로부터 엄지손가락을 치켜세우는 응답을 생성한 것에 대해 (비유적으로) 보상을 받습니다. 유사한 접근 방식을 사용하여 AI 시스템이 보다 인간과 유사한 실수를 하도록 유도할 수 있습니다. 특히 이해하기 어려운 실수에 대해 더 많은 처벌을 가함으로써 더욱 그렇습니다.
AI 실수를 포착하는 데 있어서 인간의 실수를 방지하기 위해 사용하는 일부 시스템이 도움이 될 것입니다. 어느 정도 LLM을 강제로 다시 확인하다 자신의 작업을 통해 오류를 예방할 수 있습니다. 그러나 LLM은 또한 조립하다 겉으로는 그럴듯해 보이지만 정말 우스꽝스러운 설명은 그들의 이성으로부터의 도피에 대한 설명입니다.
AI를 위한 다른 실수 완화 시스템은 우리가 인간에게 사용하는 시스템과 다릅니다. 기계는 인간처럼 피로하거나 좌절감을 느낄 수 없기 때문에 LLM에게 약간 다른 방식으로 동일한 질문을 반복적으로 묻는 것이 도움이 될 수 있습니다. 합성하다 여러 응답. 인간은 그런 짜증나는 반복을 참지 못하지만 기계는 참을 것입니다.
유사점과 차이점 이해
연구자들은 LLM 실수가 인간의 실수와 다른 점을 이해하기 위해 여전히 고심하고 있습니다. AI의 이상한 점 중 일부는 실제로 처음 나타난 것보다 더 인간과 유사합니다. LLM에 대한 쿼리를 조금만 변경하면 응답이 크게 달라질 수 있습니다. 이 문제는 즉각적인 민감성. 그러나 모든 조사 연구원이 여러분에게 말할 수 있듯이 인간도 이런 식으로 행동합니다. 여론조사에서 질문을 표현하는 것은 극단적인 결과를 가져올 수 있습니다. 영향 답변에.
LLM은 또한 편견을 가지고 있는 것 같습니다. 반복 훈련 데이터에서 가장 흔한 단어; 예를 들어, 더 이국적인 장소에 대해 질문을 받았을 때에도 “미국”과 같은 친숙한 장소 이름을 추측합니다. 아마도 이것은 인간의 예일 것이다.가용성 휴리스틱” LLM에서는 기계가 질문을 통해 추론하기보다는 가장 먼저 떠오르는 것을 뱉어내는 방식으로 나타납니다. 그리고 인간처럼 아마도 일부 LLM도 다음과 같은 결과를 얻는 것 같습니다. 빗나간 긴 문서 중간에; 그들은 처음과 끝의 사실을 더 잘 기억할 수 있습니다. 연구자들은 LLM이 더 많은 예 긴 텍스트에서 정보를 검색하는 것이 정보를 균일하게 검색하는 데 더 효과적인 것 같습니다.
어떤 경우에는 LLM의 기괴한 점은 그들이 우리가 생각하는 것보다 더 인간처럼 행동한다는 것입니다. 예를 들어 일부 연구자들은 다음을 테스트했습니다. 가설 LLM은 현금 보상을 제공하거나 죽음의 위협을 받을 때 더 나은 성과를 냅니다. 또한 “탈옥” LLM(제작자의 명시적인 지시에 불복종하도록 유도)은 인간이 서로에게 사용하는 일종의 사회 공학적 속임수와 매우 비슷해 보입니다. 예를 들어 다른 사람인 척하거나 요청이 단지 농담이라고 말하는 것입니다. 그러나 다른 효과적인 탈옥 기술은 인간이 결코 빠지지 않을 것입니다. 한 그룹 설립하다 만약 그들이 사용했다면 ASCII 아트 (단어나 그림처럼 보이는 기호의 구성) 폭탄을 만드는 방법과 같은 위험한 질문을 제기하는 경우 LLM은 기꺼이 대답합니다.
인간은 때때로 겉보기에 무작위적이고, 이해할 수 없고, 일관되지 않은 실수를 저지를 수 있지만, 그러한 경우는 드물며 종종 더 심각한 문제를 나타냅니다. 우리는 또한 이러한 행동을 보이는 사람들을 의사 결정 위치에 두지 않는 경향이 있습니다. 마찬가지로 AI 의사결정 시스템을 실제 능력에 맞는 애플리케이션으로 제한하는 동시에 실수로 인해 발생할 수 있는 잠재적 결과를 염두에 두어야 합니다.