AI 연구원들이 고급 AI의 위험에 대해 이야기 할 때, 그들은 일반적으로 즉각적인 위험에 대해 이야기하고 있습니다. 알고리즘 바이어스 그리고 잘못된 정보, 또는 실존 위험수퍼 인텔리전트 AI가 상승하여 인간 종을 끝낼 위험과 마찬가지로.
철학자 조나단 버치런던 경제 학교 교수, 다른 위험을 본다. 그는 우리가 걱정됩니다 “이러한 시스템을 도구로 계속 간주하십시오 그리고 그들이 감각적이 된 후 오랫동안 놀이를하고,”지각력으로 지각있는 AI에 해를 끼친다. 그는 또한 사람들이 곧 조건을 모방하는 데 능숙한 chatgpt와 같은 챗봇에 대한 감정을 곧 고용 할 것이라고 우려합니다. 그리고 그는 우리가 AI의 감정을 안정적으로 평가하기위한 테스트가 부족하다고 지적했다.
버치는 그의 책에서 이러한 우려를 제시합니다 감상의 가장자리 : 인간, 다른 동물 및 AI의 위험과 예방 조치작년에 출판 옥스포드 대학 출판부. 이 책은 곤충, 태아 및 식물 상태에있는 사람들을 포함한 다양한 가장자리 케이스를 살펴 보지만 IEEE 스펙트럼 마지막 섹션에 대해 그에게 말을했는데,이 섹션은“인공적인 감정”의 가능성을 다루고 있습니다.
조나단 버치 on …
사람들이 미래 AI에 대해 이야기 할 때, 그들은 종종 감각과 의식과 같은 단어를 사용하고 초 지성 상호 교환 적으로. 당신이 감상하다는 의미를 설명 할 수 있습니까?
조나단 버치 : 나는 그것이 최선이라고 생각합니다 ~ 아니다 상호 교환 적으로 사용되었습니다. 확실히, 우리는 지능에서 느끼는 감정을 구별하기 위해 매우주의해야합니다. 또한 의식이 다층적인 것으로 생각하기 때문에 의식과 의식과 구별되는 것이 도움이된다는 것을 알게됩니다. 허버트 페이 글1950 년대에 철학자 글을 쓰는 것은 세 가지 층이있는 것에 대해 이야기했다. 제 시간에 존재하는 우리 자신의 감각. 많은 동물에서, 당신은 sapience 나 이기심없이 감정의 기본 층을 얻을 수 있습니다. 그리고 흥미롭게도, AI와 함께 우리는 그 변신, 그 능력을 반영하는 능력을 많이 얻을 수 있으며 심지어 어떤 감정도 없이도 이기적인 형태를 얻을 수도 있습니다.
감각적 경험과 고통과 즐거움과 그와 같은 감각에 관한 것이라면 AI가 상대적으로 낮은 막대라고 생각하십니까? AI 시스템은 센서를 가질 수 있고 즐거움과 유사 할 수있는 보상 메커니즘을 가지고 있기 때문입니다.
자작 나무 : 나는 그것이 흥미롭지 않다는 의미에서 그것이 낮은 막대라고 말하지 않을 것입니다. 반대로, AI가 인류 역사상 가장 특별한 사건이 될 것입니다. 우리는 새로운 종류의 지각적인 존재를 만들 것입니다. 그러나 달성하기가 얼마나 어려운지에 관해서는, 우리는 정말로 모릅니다. 그리고 나는 우리가 그렇게했다는 것을 깨닫기 오래 전에 실수로 지각있는 AI를 달성 할 수있는 가능성에 대해 걱정합니다.
감각과 지능의 차이점에 대해 이야기하려면 :이 책에서, 당신은 뉴런에 의해 신경이 구성된 합성 벌레 뇌가 큰 언어 모델 chatgpt처럼. 이 관점을 설명 할 수 있습니까?
자작 나무 : 글쎄, 지각있는 AI에 대한 가능한 경로에 대해 생각할 때, 가장 분명한 것은 동물 신경계의 에뮬레이션을 통한 것입니다. 그리고라는 프로젝트가 있습니다 개방 된 벌 그것은 컴퓨터 소프트웨어에서 선충 벌레의 전체 신경계를 모방하는 것을 목표로합니다. 그리고 그 프로젝트가 성공적이라면 그들은 마우스를 열고 마우스를 열게 될 것이라고 상상할 수 있습니다. 그리고 열린 마우스로, 당신은 생물학적 사례에서 감정을 달성하는 뇌의 에뮬레이션을 받았습니다. 그래서 나는 동일한 계산을 모두 재현함으로써 에뮬레이션이 감상의 형태를 달성 할 가능성을 심각하게 받아 들여야한다고 생각합니다.
당신은 그것을 제안하고 있습니다 에뮬레이션 된 두뇌 생물학적 상대와 동일한 행동을 생성하면 지각 할 수 있습니다. 큰 언어 모델에 대한 귀하의 견해와 충돌 하는가?
자작 나무 : 나는 증거가 현재 존재하지 않기 때문에 그들이 감상적인 후보자라고 생각하지 않습니다. 우리는 큰 언어 모델 에서이 큰 문제에 직면합니다. 즉, 그들이 우리의 기준을 게임한다는 것입니다. 동물을 공부할 때, 당신이 감정을 암시하는 행동을 보면, 그 행동에 대한 가장 좋은 설명은 실제로 서신이 있다는 것입니다. 마우스가 인간이 설득력있는 것을 찾는 것에 대해 알아야 할 모든 것을 알고 있는지 걱정할 필요가 없습니다. 큰 언어 모델을 사용하면 정확히 걱정해야 할 것입니다. 설득력이 필요한 모든 것을 교육 데이터에 얻을 가능성이 있습니다.
따라서 우리는이 게임 문제가있어 LLM의 행동에서 감상의 마커를 괴롭히는 것이 거의 불가능합니다. 당신은 우리가 표면 거동 아래에있는 깊은 계산 마커를 찾아야한다고 주장합니다. 우리가 찾아야 할 것에 대해 이야기 할 수 있습니까?
자작 나무 : 나는이 문제에 대한 해결책이 있다고 말하지 않을 것입니다. 그러나 나는 a의 일부였다 작업 그룹 2022 년에서 2023 년에 19 명 중 매우 선임 AI 사람들을 포함하여 여호수아 벤 오오AI의 소위 대부인 중 한 명은“앞으로 나아갈 길에 대한이 큰 불확실성의 상태에서 무엇을 말할 수 있습니까?”라고 말했습니다. 이 보고서에서 우리의 제안은 우리가 인간의 경우의 의식 이론을보고 있다는 것입니다. 글로벌 작업 공간 이론예를 들어, AI에서 해당 이론과 관련된 계산 기능을 찾을 수 있는지 여부를 확인하십시오.
글로벌 작업 공간이 무엇인지 설명 할 수 있습니까?
자작 나무 : 그것은 관련된 이론입니다 Bernard Baars 그리고 Stan Dehaene 의식은 모든 것이 작업 공간에서 함께 모이는 것과 관련이 있습니다. 따라서 뇌의 다른 영역의 내용은이 작업 공간에 액세스하기 위해 경쟁하여 입력 시스템에 통합 및 방송 및 계획 및 의사 결정 및 모터 제어 시스템으로 다시 방송됩니다. 그리고 그것은 매우 계산 이론입니다. 그러면 우리는“AI 시스템이 그 이론의 조건을 충족합니까?”라고 물을 수 있습니다. 보고서에서 우리의 견해는 현재 그들이 그렇지 않다는 것입니다. 그러나 이러한 시스템 내부에서 무슨 일이 일어나고 있는지에 대한 많은 불확실성이 있습니다.
이러한 AI 시스템이 어떻게 작동하는지 더 잘 이해하여 가능한 감정을 더 잘 이해할 수 있도록 도덕적 의무가 있다고 생각하십니까?
자작 나무 : 나는 지각 AI가 우리가 두려워해야 할 것이기 때문에 시급한 명령이 있다고 생각합니다. 우리는 우리가 모호하게 감각적 인 AI를 가지고있는 상당히 큰 문제를 겪고 있다고 생각합니다. 즉, 우리는 이러한 AI 시스템, 이러한 동반자,이 조수 및 일부 사용자가 자신이 감각적이라고 확신하고 그들과 밀접한 감정적 유대를 형성한다고 확신합니다. 그러므로 그들은 이러한 시스템이 권리를 가져야한다고 생각합니다. 그리고 당신은 이것이 말도 안되고 이러한 시스템이 아무것도 느끼고 있다고 생각하지 않는 사회의 또 다른 섹션을 가질 것입니다. 그리고이 두 그룹이 갈등을 겪으면서 매우 중요한 사회적 파열이있을 수 있습니다.
당신은 인간을 피하기를 원한다고 지각있는 AI에 무서운 고통을 일으키고 싶다고 썼습니다. 그러나 대부분의 사람들이 고급 AI의 위험에 대해 이야기 할 때 AI가 인간에게 할 수있는 해에 대해 더 걱정합니다.
자작 나무 : 글쎄, 나는 둘 다 걱정한다. 그러나 AI 시스템 자체가 어려움을 겪을 가능성을 잊지 않는 것이 중요합니다. 미래를 상상한다면 일부 사람들이 AI 동반자가 감각적이라고 확신하고, 아마도 그들을 잘 대우하고, 다른 사람들이 그것들을 사용하고 학대 할 수있는 도구로 생각하고, 그리고 첫 번째 그룹이라는 가정을 추가한다면. 맞습니다. 두 번째 그룹에 의해 끔찍한 피해를 입을 수 있기 때문에 끔찍한 미래가됩니다.
Sentient AI가 할 수 있다고 생각하십니까?
자작 나무 : 그것이 우리의 감정을 달성하는 과정을 재현하여 감상을 달성한다면, 지루함과 고문과 같이 우리가 고통받을 수있는 것과 같은 것들로 어려움을 겪을 수 있습니다. 그러나 물론, 여기에는 또 다른 가능성이 있습니다. 즉, 인간의 감정과 달리 완전히 다른 요구와 우선 순위를 가진 인간의 감정과 달리 완전히 이해할 수없는 형태의 감정을 얻는 것입니다.
당신은 처음에 우리가 LLM이 감정없이 지식과 자원을 달성 할 수있는이 이상한 상황에 있다고 말했습니다. 당신의 견해로는, 그것이 그들을 잘 대하는 데 대한 도덕적 명령을 만들어 낼까요?
자작 나무 : 내 자신의 개인적인 견해는 감각이 매우 중요하다는 것입니다. 만약 당신이 자아의 감각을 불러 일으키는 이러한 과정을 가지고 있다면, 그 자아는 절대적으로 아무것도 느끼지 않습니다. 즐거움, 고통, 지루함, 흥분, 아무것도 없습니다. 나는 개인적으로 시스템이 권리를 가지고 있다고 생각하지 않거나 주제가 있다고 생각하지 않습니다. 도덕적 관심사. 그러나 그것은 논란의 여지가있는 견해입니다. 어떤 사람들은 다른 방식으로 가서 단독만으로도 충분할 수 있다고 말합니다.
당신은 지각 AI를 다루는 규정이 기술 개발 전에 이루어져야한다고 주장합니다. 지금이 규정을 수행해야합니까?
자작 나무 : 우리는 기술에 의해 추월되는 순간에 진짜 위험에 처해 있으며 규제는 다가오는 일에 대한 준비가되어 있지 않습니다. 그리고 우리는 모호한 지각 AI의 부상으로 인해 중요한 사회 분열의 미래를 준비해야합니다. 이제 최악의 결과를 멈추기 위해 미래를 준비하기 시작할 때가되었습니다.
어떤 종류의 규정이나 감독 메커니즘이 유용 할 것이라고 생각하십니까?
자작 나무 : 철학자처럼 일부 Thomas MetzingerAI에 대한 모라토리엄을 완전히 요구했습니다. 이 시점에서 상상할 수 없을 정도로 달성하기 어려운 것처럼 보입니다. 그러나 이것이 우리가 아무것도 할 수 없다는 것을 의미하지는 않습니다. 동물에 대한 연구는 동물에 대한 과학적 연구를위한 감독 시스템이 있다는 점에서 영감의 원천이 될 수 있습니다. 라이센스가 부여되어야하며, 해당 범위와 혜택으로 보는 것을 규제 기관에 기꺼이 공개해야합니다.