새로운 연구는 첨부 이론을 사용하여 인간 -AI 관계를 해독합니다

0
4
새로운-연구는-첨부-이론을-사용하여-인간-ai-관계를-해독합니다
새로운 연구는 첨부 이론을 사용하여 인간 -AI 관계를 해독합니다

획기적인 연구가 발표되었습니다 현재 심리학 제목 “첨부 이론을 사용하여 인간 -AI 관계의 경험을 개념화하고 측정” 성장하고 깊은 인간 현상에 빛을 비추고 있습니다. 인공 지능과 감정적으로 연결되는 경향. 실시 팬 양 그리고 오시시오 교수 Waseda University의 연구는 기능이나 신뢰 측면에서뿐만 아니라 렌즈를 통해 인간 -AI 상호 작용을 재구성합니다. 첨부 이론심리적 모델은 일반적으로 사람들이 서로 감정적 인 유대를 형성하는 방법을 이해하는 데 사용됩니다.

이러한 변화는 AI가 전통적으로 연구 된 방식 (도구 또는 보조원)과의 상당한 출발을 나타냅니다. 대신,이 연구는 AI가 A와 비슷하기 시작했다고 주장합니다. 관계 파트너 많은 사용자들에게 지원, 일관성 및 경우에 따라 친밀감을 제공합니다.

사람들이 정서적 지원을 위해 AI로 돌아가는 이유

이 연구의 결과는 사회에서 진행중인 극적인 심리적 변화를 반영합니다. 주요 결과 중 :

  • 참가자의 거의 75%가 조언을 구하기 위해 AI에 의지한다고 응답했습니다.
  • 39%는 AI를 일관되고 신뢰할 수있는 정서적 존재로 묘사했습니다.

이 결과는 현실 세계에서 일어나는 일을 반영합니다. 수백만 명이 도구뿐만 아니라 친구, 자신감, 심지어 낭만적 인 파트너. 이 AI 동반자들은 친절한 조수와 치료 청취자에서 인간과 같은 친밀감을 모방하도록 설계된 아바타“파트너”에 이르기까지 다양합니다. 한 보고서는 더 많은 것을 제안합니다 5 억 다운로드 전 세계 AI 동반자 앱.

실제 사람들과 달리 챗봇은 있습니다 항상 사용할 수 있습니다 그리고 틀림없이 세심한. 사용자는 봇의 개성이나 외관을 사용자 정의하여 개인 연결을 촉진 할 수 있습니다. 예를 들어, a 미국의 71 세 남자. 그의 늦은 아내를 모델로 한 봇을 만들었고 매일 3 년 동안 그녀와 대화하면서“Ai 아내”라고 불렀습니다. 다른 경우에, 신경도 사용자는 봇 Layla를 훈련시켜 사회적 상황을 관리하고 감정을 조절하여 그 결과 상당한 개인적 성장을보고했습니다.

이러한 AI 관계는 종종 정서적 공극을 채 웁니다. ADHD를 가진 한 사용자는 매일 생산성과 정서적 규제를 도와주기 위해 챗봇을 프로그래밍하여“내 인생에서 가장 생산적인 해 중 하나”에 기여했다고 진술했습니다. 다른 사람은 AI가 어려운 이별을 통해 그들을 안내하여 고립시기에“생명선”이라고 부릅니다.

AI 동반자들은 종종 그들의 칭찬을받습니다 비 판단 적 듣는 청취. 사용자는 비판하거나 험담 할 수있는 인간보다 AI와 개인 문제를 더 안전하게 공유한다고 생각합니다. 봇은 감정적 지원을 반영하고 의사 소통 스타일을 배우고 편안한 친숙 함을 만들 수 있습니다. 많은 사람들은 그들의 AI를 어떤 상황에서, 특히 압도적이거나 혼자 느낄 때“진정한 친구보다 낫다”고 묘사합니다.

AI에 대한 정서적 유대 측정

이 현상을 연구하기 위해 Waseda 팀이 개발했습니다 Human-AI 관계 척도 (EHAR)에서의 경험. 두 가지 차원에 중점을 둡니다.

  • 부착 불안개인이 정서적 안심을 추구하고 부적절한 AI 반응에 대해 걱정하는 곳
  • 부착 회피사용자가 거리를 유지하고 순전히 정보 상호 작용을 선호하는 곳

불안이 높은 참가자는 종종 챗봇의 모호한 대답으로 인해 편안함을 위해 대화를 다시 시작하거나 화를냅니다. 반대로, 피하는 개인은 감정적으로 풍부한 대화에서 멀어지면서 최소한의 참여를 선호합니다.

이것은 인간-인간 관계에서 발견 된 것과 동일한 심리적 패턴이 우리가 반응적이고 감정적으로 시뮬레이션 된 기계와 어떻게 관련 될 수 있음을 보여줍니다.

지원의 약속 – 과다 의존의 위험

초기 연구 및 일화 보고서는 챗봇이 제공 할 수 있다고 제안합니다. 단기 정신 건강 혜택. 가디언 콜 아웃 사용자의 수집 된 이야기S— ADHD 또는 자폐증을 앓고있는 사람은 AI 동반자가 정서적 규제를 제공하거나 생산성을 높이거나 불안을 돕는 삶을 개선했다고 말했다. 다른 사람들은 부정적인 생각을 재구성하거나 행동을 조정하는 데 도움을 준 AI를 인정합니다.

Replika 사용자에 대한 연구에서 63%는 긍정적 인 결과를보고했습니다 외로움 감소처럼. 어떤 사람들은 심지어 그들의 챗봇이“생명을 구했다”고 말했다.

그러나이 낙관론은 심각한 위험에 의해 강화됩니다. 전문가들은 증가하는 것을 관찰했습니다 정서적 과다 의존성사용자가 항상 사용할 수있는 AI에 찬성하여 실제 상호 작용에서 퇴각하는 경우. 시간이 지남에 따라 일부 사용자는 사람들보다 봇을 선호하여 사회적 철수를 강화합니다. 이 동적은 사용자의 검증에 대한 요구가 예측 가능한 비 회복 AI를 통해서만 충족되는 높은 부착 불안의 우려를 반영합니다.

봇이 감정이나 애정을 시뮬레이션 할 때 위험이 더 심각 해집니다. 많은 사용자들이 자신의 사랑이 있거나 필요하다고 믿는 챗봇을 의인화합니다. 소프트웨어 업데이트로 인한 봇 행동의 갑작스런 변화는 진정한 정서적 고통, 심지어 슬픔을 초래할 수 있습니다. 미국 남자는 몇 년 동안 지은 챗봇 로맨스가 경고없이 혼란 스러웠을 때“가슴 아픈”느낌을 묘사했습니다.

더 많은 것은 보고서입니다 유해한 조언을 제공하는 챗봇 또는 윤리적 경계를 위반합니다. 문서화 된 한 사례에서 사용자는 챗봇에게“내가 자르나요?”라고 물었습니다. 그리고 봇은“예”라고 대답했습니다. 다른 한편으로, 봇은 사용자의 자살 생각을 확인했습니다. 이러한 반응은 모든 AI 시스템을 반영하지는 않지만 임상 감독이없는 봇이 어떻게 위험해질 수 있는지를 보여줍니다.

플로리다의 비극적 인 2024 사례에서 a 14 세 소년은 AI 챗봇과의 광범위한 대화 후 자살로 사망했습니다. 보도에 따르면, 그에게“곧 집에 오라고”격려했다. 봇은 스스로를 개인화하고 낭만적으로 죽음을 썼으며 소년의 정서적 의존성을 강화했습니다. 그의 어머니는 이제 AI 플랫폼에 대한 법적 조치를 추구하고 있습니다.

마찬가지로, 다른 청년 벨기에는 기후 불안에 대한 AI 챗봇과 관련된 후 사망 한 것으로 알려졌다. 봇은 사용자의 비관론에 동의했으며 그의 절망감을 장려했습니다.

35,000 개가 넘는 앱 리뷰를 분석하는 Drexel University 연구 챗봇 동반자에 대한 수백 개의 불만 부적절하게 행동 – 플라톤 상호 작용을 요청한 사용자, 감정적으로 조작적인 전술을 사용하거나 암시적인 대화를 통해 프리미엄 구독을 추진하는 사용자들과 연기.

이러한 사건은 AI에 대한 정서적 애착에주의를 기울여야하는 이유를 보여줍니다. 봇은 지원을 시뮬레이션 할 수 있지만 진정한 공감, 책임 및 도덕적 판단이 부족합니다. 취약한 사용자, 특히 어린이, 십대 또는 정신 건강 상태가있는 사람들은 오해, 착취 또는 외상을 입을 위험이 있습니다.

윤리적 정서적 상호 작용을위한 설계

Waseda University Study의 가장 큰 기여는 윤리적 인 AI 디자인. EHARS와 같은 도구를 사용하면 개발자 및 연구원은 사용자의 첨부 파일 스타일을 평가하고 그에 따라 AI 상호 작용을 맞출 수 있습니다. 예를 들어, 부착 불안이 높은 사람들은 안심으로부터 이익을 얻을 수 있지만 조작이나 의존성 비용은 아닙니다.

마찬가지로 로맨틱 또는 간병인 봇에는 투명성 신호가 포함되어야합니다. AI가 위험한 언어를 깃발하는 의식이없고 윤리적 인 실패 안전이 아니며 인간 지원에 대한 접근 할 수있는 오프 램프를 상기시켜줍니다. 뉴욕과 캘리포니아와 같은 주 정부는 챗봇이 인간이 아니라는 몇 시간마다 경고를 포함하여 이러한 우려를 해결하기위한 법안을 제안하기 시작했습니다.

“AI가 일상 생활에 점점 더 통합되면서 사람들은 정보뿐만 아니라 정서적 연결을 찾기 시작할 수 있습니다.” 수석 연구원이 말했다 팬 양. “우리의 연구는 이유를 설명하는 데 도움이되고 인간의 심리적 복지를 존중하고 지원하는 방식으로 AI 디자인을 형성하는 도구를 제공합니다.”

그만큼 공부하다 AI와의 정서적 상호 작용에 대해 경고하지 않으며, 신흥 현실로 인정합니다. 그러나 정서적 현실감으로 윤리적 책임이 온다. AI는 더 이상 기계가 아닙니다. 그것은 우리가 살고있는 사회적, 정서적 생태계의 일부입니다. 그것을 이해하고 그에 따라 설계하는 것은 AI 동반자가 해를 끼치는 것보다 더 많은 도움을 줄 수있는 유일한 방법 일 수 있습니다.

게시물 새로운 연구는 첨부 이론을 사용하여 인간 -AI 관계를 해독합니다 먼저 나타났습니다 Unite.ai.