의견 허구 속의 누구도 스타워즈 우주는 AI를 진지하게 받아들입니다. 조지 루카스(George Lucas)의 47년 된 과학 판타지 프랜차이즈의 역사적인 인간 타임라인에는 특이점의 위협과 기계 학습 의식이 없으며 AI는 자율 이동 로봇에 국한됩니다(‘드로이드’) – 주인공은 습관적으로 단순한 ‘기계’로 무시합니다.
그래도 대부분의 스타워즈 로봇은 고도로 의인화되어 있으며, 사람들과 소통하고, ‘유기적’ 문화에 참여하고, 감정 상태의 시뮬라크르를 사용하여 사람들과 유대감을 형성하도록 명확하게 설계되었습니다. 이러한 능력은 분명히 그들이 스스로 이익을 얻도록 돕거나 심지어 자신의 생존을 보장하기 위해 고안되었습니다.
‘진짜’ 사람들은 스타워즈 이러한 전술에 푹 빠진 것 같습니다. 로마제국과 미국 초기의 다양한 노예제도 시대에서 영감을 받은 냉소적인 문화 모델에서 루크 스카이워커는 노예의 맥락에서 로봇을 구입하고 제지하는 데 주저하지 않습니다. 아이 Anakin Skywalker는 사랑받지 못하는 장난감처럼 반쯤 완성된 C3PO 프로젝트를 포기합니다. 그리고 데스 스타 공격 중 피해를 입어 거의 죽을 뻔한 ‘용감한’ R2D2는 루크로부터 부상당한 애완동물과 거의 같은 관심을 받습니다.
이것은 인공 지능*에 대한 1970년대의 해석입니다. 그러나 향수와 정경에 따라 1977-83년 원작 3부작은 후속 속편, 속편, TV 쇼의 템플릿으로 남아 있기 때문에 AI에 대한 인간의 무감각함은 성장하는 상황에도 불구하고 프랜차이즈의 탄력적인 관통선이 되었습니다. TV 프로그램 및 영화 목록(예: 그녀의 그리고 엑스 마키나) AI와의 의인화 된 관계로의 하강을 묘사합니다.
현실을 유지하세요
유기농을 하세요 스타워즈 캐릭터는 실제로 올바른 태도를 가지고 있습니까? 일반적으로 현실 세계의 시각적 또는 텍스트 시뮬레이션이나 대형 언어 모델(LLM)과 같은 인간과 유사한 대화형 시스템에 대한 바이러스 시연을 통해 투자자와의 최대 참여가 어려운 비즈니스 환경에서 현재로서는 대중적인 생각이 아닙니다. ).
그럼에도 불구하고 새롭고 간단한 종이 Stanford, Carnegie Mellon 및 Microsoft Research의 연구진은 AI의 의인화에 대한 무관심을 목표로 합니다.
저자는 여러 가지 이유로 인간과 인공 통신 사이의 인지된 ‘교차 수분’을 긴급하게 완화해야 할 잠재적 피해로 특성화합니다. †:
‘[We] 바람직하지 않은 것으로 간주되는 시스템 동작을 측정하고 완화하는 것을 포함하여 의인화된 동작을 더 잘 처리하기 위한 노하우와 도구를 개발하기 위해 더 많은 작업을 수행해야 한다고 믿습니다.
‘다른 많은 우려 중에서도 AI 시스템이 감정, 이해, 자유 의지 또는 근본적인 자아 감각을 가지고 있다고 주장하는 콘텐츠를 생성하면 사람들의 정신을 약화시킬 수 있기 때문에 그렇게 하는 것이 중요합니다. 대리인의식결과적으로 사람들은 도덕적 책임을 귀인하게 될 수 있습니다. 시스템에, 과대평가하다 시스템 기능에 문제가 있거나 부정확한 경우에도 이러한 시스템에 지나치게 의존합니다.’
기여자들은 그들이 다음과 같은 시스템을 논의하고 있음을 분명히 합니다. 인지된 인간과 같아지고 잠재력을 중심으로 의지 기계 시스템에서 의인화를 촉진하는 개발자.
짧은 논문의 핵심은 사람들이 AI 기반 시스템에 정서적 의존성을 키울 수 있다는 것입니다. 2022년 연구 Gen AI 챗봇 플랫폼에서 레플리카) – 관용어가 풍부한 인간 의사소통의 팩시밀리를 적극적으로 제공합니다.
Replika와 같은 시스템은 저자의 신중한 조사 대상이며 향후 2022년이 될 것이라고 언급합니다. 종이 Replika에서 다음과 같이 주장했습니다.
‘[U]고통스럽고 인간적인 동료애가 부족한 상황에서 개인은 정서적 지원, 격려 및 심리적 안정을 제공하는 챗봇의 반응을 인식하면 소셜 챗봇에 대한 애착을 개발할 수 있습니다.
‘이러한 연구 결과는 소셜 챗봇이 정신 건강 및 치료 목적으로 사용될 수 있지만 중독을 유발하고 실제 친밀한 관계에 해를 끼칠 가능성이 있음을 시사합니다.’
의인화되지 않은 언어?
새로운 연구는 생성 AI의 의인화 가능성은 현재까지 그러한 시스템의 사회적 영향을 연구하지 않고서는 확립될 수 없으며 이는 문헌에서 소홀히 추구되고 있다고 주장합니다.
문제의 일부는 의인화를 정의하기 어렵다는 것입니다. 왜냐하면 의인화는 인간의 기능인 언어에 가장 중요하게 초점을 맞추기 때문입니다. 그러므로 도전은 ‘비인간’ 언어가 정확히 어떤 소리를 내거나 어떻게 생겼는지 정의하는 데 있습니다.
아이러니하게도 논문에서는 다루지 않았지만 AI에 대한 대중의 불신이 점점 더 커지고 있습니다. AI 생성 텍스트 콘텐츠 거부 그것은 그럴듯하게 인간처럼 보일 수도 있고 심지어 거부하기까지 할 수도 있습니다. 의도적으로 AI로 잘못 분류된 인간 콘텐츠.
따라서 ‘비인간화된’ 콘텐츠는 더 이상 ‘계산하지 않음’ 밈여기서 언어는 기계에 의해 서투르게 구성되고 명확하게 생성됩니다.
오히려 정의는 다음과 같습니다. 끊임없이 진화하다 AI 탐지 장면에서 (현재는 적어도) 지나치게 명확한 언어 또는 특정 단어의 사용 (와 같은 ‘동굴’)은 AI 생성 텍스트와 연관될 수 있습니다.
‘[L]GenAI 시스템의 다른 대상과 마찬가지로 언어는 본질적으로 인간이며 오랫동안 인간에 의해, 인간을 위해 생산되었으며 종종 인간에 관한 것이기도 합니다. 이는 적절한 대안(덜 인간적이지 않은) 행동과 위험을 지정하는 것을 어렵게 만들 수 있습니다. 예를 들어, 무엇과 누구의 언어가 어느 정도 인간적인 것으로 간주되는지에 대한 유해한 개념을 구체화하는 것과 같습니다.’
그러나 저자들은 인간에게만 가능한 적성이나 경험을 주장함으로써 자신을 노골적으로 왜곡하는 시스템에 대해 명확한 경계선이 제시되어야 한다고 주장합니다.
그들은 LLM과 같은 사례를 인용합니다. ‘피자를 좋아한다’고 주장; 주장하다 인간의 경험 Facebook과 같은 플랫폼에서; 그리고 사랑을 선언하다 최종 사용자에게.
경고 신호
이 논문은 다음의 사용에 대해 의심을 제기합니다. 포괄적 공개 머신러닝을 통해 의사소통이 촉진되는지 여부에 대해 알아봅니다. 저자는 출력 자체가 계속해서 인간의 특성을 나타내는 경우 그러한 경고를 체계화하는 것은 AI 플랫폼의 의인화 효과를 적절하게 맥락화하지 못한다고 주장합니다.†:
예를 들어, 일반적으로 권장되는 개입은 AI 시스템의 출력에 출력이 AI에 의해 생성된다는 공개를 포함하는 것입니다. [system]. 실제로 그러한 개입을 어떻게 운영화할 것인지, 그리고 그 개입만으로 효과적일 수 있는지 여부가 항상 명확하지 않을 수도 있습니다.
‘예를 들어, 예제는 “[f]아니면 나 같은 AI라도 행복은 같지 않아 [당신같은인간은[you]”공개를 포함하더라도 여전히 정체성과 자기 평가 능력(인간의 공통 특성)을 암시할 수 있습니다.’
시스템 동작에 대한 인간의 반응을 평가하는 것과 관련하여 저자는 다음과 같이 주장합니다. 인간 피드백을 통한 강화 학습 (RLHF)는 인간과 AI에 대한 적절한 반응의 차이를 고려하지 않습니다.†.
‘[A] 인간 화자가 우호적이거나 진실해 보이는 진술이 AI 시스템에서 발생한다면 바람직하지 않을 수 있습니다. 왜냐하면 후자는 진술 뒤에 의미 있는 헌신이나 의도가 부족하여 그 진술을 공허하고 기만적으로 만들기 때문입니다.’
의인화 현상이 사람들이 AI 시스템이 ‘감성’을 얻었습니다또는 다른 인간의 특성.
아마도 새 연구의 가장 야심차고 마지막 부분은 연구 개발 커뮤니티가 ‘적절하고’ ‘정확한’ 용어를 개발하고, 의인화된 AI 시스템을 정의하는 매개변수를 설정하고, AI 시스템과 구별하는 것을 목표로 한다는 저자의 주장일 것입니다. 현실 세계의 인간 담론.
AI 개발의 많은 추세 영역과 마찬가지로 이러한 종류의 분류는 심리학, 언어학 및 인류학의 문헌 흐름으로 넘어갑니다. 현재 어떤 권위자가 실제로 이러한 유형의 정의를 공식화할 수 있는지 알기는 어렵고, 새 논문의 연구자들은 이 문제에 대해 어떠한 설명도 하지 않습니다.
이 주제에 대해 상업적, 학문적 관성이 있다면 이는 부분적으로 이것이 인공 지능 연구에서 새로운 논의 주제와 거리가 멀다는 사실에 기인할 수 있습니다. 논문에 따르면 1985년 고 네덜란드 컴퓨터 과학자 Edsger Wybe Dijkstra는 다음과 같이 말했습니다. 설명 시스템 개발의 ‘해로운’ 경향으로서의 의인화.
‘[A]신인동형적 사고는 도움이 되지 않는다는 점에서 좋지 않습니다. 하지만 그것도 나쁜 걸까요? 예, 그렇습니다. 비록 우리가 인간과 사물 사이의 어떤 유사점을 지적할 수 있다 하더라도 그 유사점은 차이점에 비해 항상 무시할 수 있기 때문입니다. 그리고 우리가 비유의 유혹에 빠져 사물을 의인화한 용어로 설명하기 때문입니다. , 우리는 어떤 인간적 의미를 그림에 끌어들이는지에 대한 통제력을 즉시 상실합니다.
‘…하지만 흐려짐 [between man and machine] 당신이 생각하는 것보다 훨씬 더 광범위한 영향을 미칩니다. [It] “기계가 생각할 수 있는가?”라는 질문만이 아닙니다. 정기적으로 제기됩니다. 우리는 이 문제가 “잠수함도 수영할 수 있습니까?”라는 똑같이 중요한 질문과 마찬가지로 관련이 있다는 점을 지적함으로써 이를 처리할 수 있고, 처리해야 합니다.
그러나 논쟁은 오래되었지만 최근에야 매우 관련성이 높아졌습니다. Dijkstra의 기여는 순전히 이론적이고 역사적 발전을 기다리고 있는 우주 여행에 대한 빅토리아 시대의 추측과 동일하다고 주장할 수 있습니다.
따라서 이러한 잘 정립된 논쟁은 향후 2~5년 내에 상당한 사회적 관련성이 있을 가능성에도 불구하고 주제에 피로감을 줄 수 있습니다.
결론
AI 시스템을 유기적 시스템과 마찬가지로 무시하는 방식으로 생각한다면 스타워즈 캐릭터가 자신의 로봇을 이동 가능한 검색 엔진 또는 단순한 기계적 기능 전달자로 취급한다면 우리는 이러한 사회적으로 바람직하지 않은 특성을 인간 상호 작용에 습관화할 위험이 거의 없을 것입니다. 인간이 아닌 맥락.
실제로, 인간의 언어와 인간 행동의 얽힘은 일단 쿼리가 Google 검색어의 미니멀리즘에서 대화의 풍부한 맥락으로 확장되면 불가능하지는 않더라도 이를 어렵게 만듭니다.
또한 상업 부문(광고 부문도 포함)은 다음과 같습니다. 동기가 강한 고객 유지 및 성장을 위해 중독성이 있거나 필수적인 커뮤니케이션 플랫폼을 만듭니다.
어쨌든 AI 시스템이 진짜라면 정중한 질문에 더 잘 응답 심문을 없애는 것보다 그 이유 때문에 맥락이 우리에게 강요될 수도 있습니다.
* 1983년에도 원작의 마지막 항목이 등장한 해 스타워즈 출시되자 머신러닝의 성장에 대한 두려움으로 인해 종말론적 상황이 발생했습니다. 전쟁 게임그리고 임박한 터미네이터 독점 판매권.
† 필요한 경우 저자의 인라인 인용을 하이퍼링크로 전환했으며 어떤 경우에는 가독성을 위해 일부 인용을 생략했습니다.
최초 게재 2024년 10월 14일 월요일
게시물 AI 플랫폼의 온건한 의인화에 대한 요청 처음 등장한 Unite.AI.