1942년 전설적인 공상 과학 소설 작가 아이작 아시모프 단편 소설 ‘런어라운드(Runaround)’에서 로봇 공학의 3가지 법칙을 소개했습니다. 이 법칙은 나중에 그의 중요한 이야기 모음집에서 대중화되었습니다. 나, 로봇.
- 제1법칙: 로봇은 인간에게 부상을 입힐 수 없으며, 아무런 조치도 취하지 않음으로써 인간이 해를 입도록 허용해서는 안 됩니다.
- 제2법칙: 로봇은 제1법칙과 충돌하는 명령이 있는 경우를 제외하고는 인간이 내린 명령에 복종해야 합니다.
- 제3법칙: 로봇은 제1법칙이나 제2법칙에 위배되지 않는 한 자신의 존재를 보호해야 합니다.
소설 작품에서 가져온 이 법률은 수십 년 동안 로봇 윤리에 대한 논의를 형성해 왔습니다. 그리고 가상 로봇으로 간주될 수 있는 AI 시스템이 더욱 정교해지고 널리 보급됨에 따라 일부 기술자들은 Asimov의 프레임워크가 인간과 상호 작용하는 AI에 필요한 잠재적 보호 장치를 고려하는 데 유용하다는 사실을 발견했습니다.
하지만 기존의 세 가지 법률로는 충분하지 않습니다. 오늘날 우리는 아시모프가 상상조차 하지 못했던 유례없는 인간-AI 협업 시대를 맞이하고 있습니다. 급속한 발전 생성 AI 특히 언어 및 이미지 생성 분야의 능력은 신체적 손상 및 복종에 대한 Asimov의 원래 우려를 넘어서는 도전을 만들어냈습니다.
딥페이크, 잘못된 정보, 사기
AI를 활용한 속임수의 확산은 특히 우려스럽습니다. FBI의 2024년 보고서에 따르면 인터넷 범죄 신고디지털 조작 및 사회 공학과 관련된 사이버 범죄로 인해 미화 103억 달러가 넘는 손실이 발생했습니다. 유럽연합 사이버보안청의 2023년 위협 환경 특별히 강조된 딥페이크— 진짜처럼 보이는 합성 미디어 — 디지털 정체성과 신뢰에 대한 새로운 위협입니다.
소셜 미디어 오보 들불처럼 퍼지고 있습니다. 팬데믹 중에 공부했어요 널리 생성 AI 도구의 확산으로 인해 탐지가 점점 더 어려워지고 있다고 말할 수 있습니다. 설상가상으로 AI가 생성한 기사도 마찬가지로 설득력이 있거나 더욱 설득력이 있다 전통적인 선전보다 AI를 사용하여 설득력 있는 콘텐츠를 만들려면 매우 약간의 노력.
딥페이크가 사회 전반에 걸쳐 증가하고 있습니다. 봇넷은 AI가 생성한 텍스트, 음성 및 비디오를 사용하여 모든 정치적 문제에 대한 광범위한 지지에 대한 잘못된 인식을 만들 수 있습니다. 이제 봇은 전화를 걸고 받을 수 있습니다. 사람을 사칭하는 것. 익숙한 목소리를 흉내내는 AI 사기전화가 늘고 있다. 흔한그리고 이제 AI 렌더링 오버레이 아바타를 기반으로 한 화상 통화 사기가 급증할 것으로 예상됩니다. 이를 통해 사기꾼은 사랑하는 사람을 사칭하고 가장 취약한 인구를 표적으로 삼을 수 있습니다. 일화로, 나의 아버지는 나의 비디오를 보고 놀랐다. 유창한 스페인어를 구사하는왜냐하면 그는 내가 이 언어의 자랑스러운 초보자라는 것을 알았기 때문입니다(듀오링고에서 400일 동안 강했습니다!). 영상이 AI로 편집됐다고만 말하면 충분합니다.
더욱 놀랍게도 어린이와 청소년은 AI 에이전트에 정서적 애착을 형성하고 있으며 때로는 온라인에서 실제 친구와 봇과의 상호 작용을 구별하지 못합니다. 이미, 있었습니다. 자살로 인한 원인 AI 챗봇과의 상호 작용.
그의 2019년 저서에는 인간과 호환 가능저명한 컴퓨터 과학자 스튜어트 러셀 인간을 속이는 AI 시스템의 능력은 사회적 신뢰에 대한 근본적인 도전을 의미한다고 주장합니다. 이러한 우려는 최근의 정책 계획, 특히 유럽연합의 AI법여기에는 AI 상호 작용의 투명성과 AI 생성 콘텐츠의 투명한 공개를 요구하는 조항이 포함됩니다. Asimov 시대에 사람들은 인공 에이전트가 어떻게 온라인 커뮤니케이션 도구와 아바타를 사용하여 인간을 속일 수 있는지 상상할 수 없었습니다.
그러므로 우리는 아시모프의 법칙을 추가해야 합니다.
- 네 번째 법칙: 로봇이나 AI는 인간을 사칭하여 인간을 속여서는 안 됩니다.
신뢰할 수 있는 AI를 향한 길
우리에게는 명확한 경계가 필요합니다. 인간-AI 협업은 건설적일 수 있지만 AI 속임수는 신뢰를 약화시키고 시간 낭비, 정서적 고통, 자원 오용을 초래합니다. 인공 에이전트와의 상호 작용이 투명하고 생산적이 되도록 하려면 자신을 식별해야 합니다. AI 생성 콘텐츠는 사람이 크게 편집하고 적용한 경우를 제외하고 명확하게 표시되어야 합니다.
이 제4법칙을 이행하려면 다음이 필요합니다.
- 직접적인 상호 작용에서 의무적인 AI 공개,
- AI 생성 콘텐츠의 명확한 라벨링,
- AI 식별 기술 표준,
- 집행을 위한 법적 틀,
- AI 활용 능력을 향상하기 위한 교육 이니셔티브.
물론 이 모든 것이 말처럼 쉽지는 않습니다. AI 생성을 워터마킹하거나 감지하는 신뢰할 수 있는 방법을 찾기 위한 엄청난 연구가 이미 진행 중입니다. 텍스트, 오디오, 이미지, 비디오. 내가 요구하는 투명성을 창출하는 것은 해결된 문제와는 거리가 멀습니다.
그러나 인간-AI 협업의 미래는 인간과 인공 에이전트 간의 명확한 구분을 유지하는 데 달려 있습니다. IEEE의 2022에서 언급한 바와 같이 “윤리적으로 정렬된 디자인“ 프레임워크와 AI 시스템의 투명성은 대중의 신뢰를 구축하고 책임 있는 인공 지능 개발을 보장하는 데 필수적입니다.
Asimov의 복잡한 이야기는 규칙을 따르려고 노력하는 로봇조차도 자신의 행동으로 인해 의도하지 않은 결과를 발견하는 경우가 많다는 것을 보여줍니다. 그럼에도 불구하고 Asimov의 윤리 지침을 따르려고 노력하는 AI 시스템을 보유하는 것은 매우 좋은 시작이 될 것입니다.