오늘날 정치적으로 양극화된 세계에서 복잡한 사회적, 정치적 문제에 대한 공통 기반을 찾는 것이 점점 더 어려워지고 있습니다. 사회가 더욱 다양해지면서 기후 변화, 이민, 경제 정책과 같은 중요한 문제에 대한 의견 차이는 더욱 확대되었습니다. 복잡한 문제에 대한 합의를 찾기 위해 사람들을 모으려면 시간, 자원, 그리고 모든 목소리를 들을 수 있는 공평한 경쟁의 장이 필요합니다.
최근 인공 지능의 발전으로 인해 분열을 일으키는 주제에 대한 복잡한 대화를 촉진하는 데 도움이 되는 기술의 새로운 가능성이 생겼습니다. 예를 들어, AI 기반의 대규모 언어 처리(NLP) 모델은 복잡한 언어를 해석하고 감정과 관점의 차이를 식별할 수 있을 만큼 정교해졌습니다. 또한 AI 시스템은 실시간 감정 분석, 편향 탐지, 적응형 피드백과 같은 기능으로 설계되고 있습니다. 이러한 능력은 공정하고 균형 잡힌 토론을 촉진하는 데 특히 적합합니다.
이러한 잠재력은 시민 담론을 촉진하는 데 있어 AI의 가능성을 탐구하려는 Google DeepMind 연구원들의 관심을 끌었습니다. 다음에서 영감을 얻었습니다. 아이디어 철학자의 위르겐 하버마스그들은 ‘하버마스 기계” (HM)은 시민 담론을 지원하고 집단이 공유된 가치를 발견하도록 돕는 도구입니다. 기사에서는 다음 질문을 검토합니다. AI가 실제로 공통점을 찾는 데 도움이 될 수 있습니까? 또한 하버마스 머신(HM)이 어떻게 민주적 심의를 촉진할 수 있는지 살펴봅니다.
하버마스 머신
하버마스 머신(Habermas Machine)은 개인의 의견을 분석하고 통일된 그룹 성명을 작성하도록 설계된 AI 도구입니다. 기계는 “간부 중재”처럼 작동합니다. 참가자들은 자신의 생각을 공유하는 것으로 시작합니다. 그런 다음 AI는 이를 결합하여 성명 초안을 작성합니다. 다음으로 참가자들은 이 초안을 검토하고 비평을 제공합니다. AI는 입력을 사용하여 다수의 견해와 소수의 비판을 모두 포착하여 더 광범위한 동의를 얻으려는 수정된 성명을 생성합니다.
이 기계는 이 작업을 위해 두 개의 전문 LLM을 사용합니다. 첫 번째는 그룹의 다양한 견해를 반영하는 진술을 작성하는 생성 모델입니다. 두 번째는 각 참가자가 해당 진술에 동의할 가능성을 기준으로 이러한 진술을 평가하는 개인화된 보상 모델입니다. 생성 모델은 감독된 미세 조정을 사용하여 개선되고, 보상 모델은 보상 신호를 기반으로 반복적으로 향상됩니다.
이 기계는 영국 전역에서 5,000명 이상의 참가자를 대상으로 테스트되었습니다. 일부는 크라우드소싱 플랫폼을 통해 합류했고, 다른 일부는 시민 집회를 조직하는 비영리 단체인 Sortition Foundation을 통해 모집되었습니다. 참가자들은 그룹으로 나누어졌고 테스트는 두 단계로 진행되었습니다. 먼저 기계는 집단의견을 요약했다. 그런 다음 공통 기반을 식별하는 데 도움이 되도록 그룹 간 중재를 수행했습니다.
민주적 대화의 공통점을 찾는 데 있어서 AI의 약속
이 연구는 민주적 대화에서 공통점을 찾을 수 있는 AI의 잠재력을 강조합니다. 한 가지 주요 발견은 AI 중재 토론으로 참가자들이 공유된 견해로 전환했다는 것입니다. 종종 기존 신념을 강화하는 중재되지 않은 토론과 달리 AI는 참가자들이 자신의 입장을 재고하여 중간 지점에 더 가까워지도록 도왔습니다. 정렬을 장려하는 이러한 능력은 AI가 복잡하고 분열적인 문제를 처리하는 데 유용한 도구가 될 수 있음을 보여줍니다.
이 연구는 또한 참가자와 독립 판사 모두 AI가 생성한 진술을 인간 중재자가 작성한 진술보다 더 호의적으로 평가한 것으로 나타났습니다. 그들은 AI의 진술이 더 정확하고, 더 유익하며, 더 공정하다는 것을 발견했습니다. 중요한 것은 AI가 단순히 다수의 의견을 증폭시킨 것이 아니라는 점입니다. 그것은 또한 소수의 관점에 무게를 두었습니다. 이 기능은 “다수의 폭정”을 방지하는 데 도움이 되었으며 반대 의견이 반영되도록 했습니다. 공정한 표현은 오해를 방지하고 균형 잡힌 토론을 장려하는 데 도움이 되기 때문에 이러한 반대 의견을 포함시키는 것은 특히 민감한 토론에서 매우 중요합니다.
심의 민주주의에서 AI의 실제 적용
AI 중재 심의의 의미는 실제 시나리오에 중요합니다. 예를 들어 AI는 정책 토론, 갈등 해결, 계약 협상, 시민 집회를 향상시킬 수 있습니다. 균형 잡힌 대화를 촉진하는 능력은 다양한 이해관계자가 관련된 복잡한 문제를 해결하려는 정부, 조직 및 지역 사회에 귀중한 도구가 됩니다.
실제 환경에서 모델의 효과를 테스트하기 위해 연구자들은 영국 거주자의 대표 표본을 대상으로 가상 시민 집회를 조직했습니다. 이번 회의에서는 이민 정책, 기후 행동 등 분열을 불러일으키는 주제에 초점을 맞췄습니다. AI가 중재한 토론 이후 참가자들은 자신의 의견에 영향을 미치는 AI 편견 없이 합의 방향으로 눈에 띄는 변화를 보였습니다. 이러한 연구 결과는 AI 중재가 편견을 최소화하면서 중요한 사회 문제에 대한 집단적 의사 결정을 잠재적으로 안내할 수 있는 방법을 강조합니다.
한계 및 윤리적 고려사항
AI 중재는 큰 가능성을 보여주지만 주목할만한 점은 다음과 같습니다. 한계. 예를 들어, 이 연구에 사용된 AI 모델에는 사실 확인 기능이 부족합니다. 즉, 참가자의 입력 품질에 크게 의존합니다. 더욱이 AI 지원 심의에는 해롭거나 비생산적인 담론을 피하기 위해 신중한 설계가 필요합니다. 또 다른 중요한 고려 사항은 민주적 프로세스에서 AI의 윤리적 역할입니다. 일부 개인은 알고리즘이 의도치 않게 결과에 영향을 미칠 수 있다는 두려움 때문에 정치적 토론에서 AI를 사용하는 것을 조심할 수 있습니다. 따라서 AI가 민주적 가치를 존중하는 방식으로 사용되도록 보장하려면 지속적인 감독과 명확한 윤리적 프레임워크가 필수적입니다.
결론
Google DeepMind의 연구원들은 AI가 민주적 대화를 변화시킬 수 있는 잠재력을 가지고 있다고 강조했습니다. 그들은 Habermas Machine과 같은 AI 도구가 개인이 복잡한 문제에 대한 공통점을 찾는 데 도움이 될 수 있다고 제안합니다. AI는 대화의 접근성을 높이고 포용성을 높일 수 있지만, 민주적 가치를 보호하려면 AI를 책임감 있게 사용하는 것이 중요합니다.
신중하게 개발된다면 AI는 집단적 이해를 촉진하는 데 중요한 역할을 할 수 있습니다. 다양한 관점에서 공통점을 찾아 긴급한 사회 문제를 해결하는 데 도움이 될 수 있습니다. AI 기술이 발전함에 따라 하버마스 머신(Habermas Machine)과 같은 모델은 현대 민주주의의 과제를 해결하고 보다 광범위하고 다양한 그룹을 위한 심의 프로세스를 단순화 및 확장하는 데 필수적이 될 수 있습니다.
게시물 AI가 민주적 대화의 미래를 형성하는 방법 처음 등장한 Unite.AI.