지난 몇 년 동안 규제 기관은 기술 회사들이 더욱 진보된 AI 모델을 출시하기 위해 경쟁함에 따라 계속해서 방심하고 있었습니다. 실험실에서 새로운 규제적 과제를 제기하는 또 다른 라운드의 모델을 출시하기까지는 시간 문제일 뿐입니다. 예를 들어, OpenAI가 ChatGPT-5를 출시하기까지 몇 주밖에 남지 않았습니다. 이 제품은 그 어느 때보다 AI 기능을 더욱 발전시킬 것을 약속합니다. 현재로서는 과도한 위험을 초래하는 모델의 출시를 지연시키거나 방지하기 위해 할 수 있는 일이 거의 없는 듯합니다.
AI 모델을 출시하기 전에 테스트하는 것은 특정 위험을 완화하는 일반적인 접근 방식이며, 규제 기관이 비용과 이점을 평가하는 데 도움이 될 수 있으며, 모델이 너무 위험하다고 판단되면 출시를 차단할 수도 있습니다. 그러나 이러한 테스트의 정확성과 포괄성은 크게 부족합니다. AI 모델은 평가를 “샌드백”하다—안전 문제를 제기하지 않기 위해 일부 역량을 숨깁니다. 평가는 또한 어떤 한 모델이 제기하는 모든 위험을 확실하게 발견하지 못할 수도 있습니다. 평가는 또한 범위가 제한되어 있습니다. 현재 테스트는 추가 조사를 필요로 하는 모든 위험을 발견하지 못할 가능성이 높습니다. 또한 평가를 수행하는 사람과 그들의 편견이 테스트 노력에 어떤 영향을 미칠 수 있는지에 대한 의문도 있습니다. 이러한 이유로 평가는 다른 거버넌스 도구와 함께 사용되어야 합니다.
그러한 도구 중 하나는 연구실 내의 내부 보고 메커니즘일 수 있습니다. 이상적으로는 직원들이 동료와 AI 안전에 대한 우려 사항을 정기적으로 그리고 충분히 공유할 수 있는 권한을 부여받아야 하며, 그런 다음 동료가 우려 사항에 대해 조치를 취할 것이라고 믿을 수 있어야 합니다. 그러나 AI 연구실에서 공개 비판이 장려되기는커녕 점점 더 드물어지고 있다는 증거가 늘어나고 있습니다. 불과 3개월 전, OpenAI와 다른 연구실의 전직 및 현직 직원 13명이 공개 서한을 썼다 법을 어기지 않는 범위 내에서 의심스러운 기업 행동을 폭로하려고 하면 보복받을 수 있다는 두려움을 표현합니다.
경보를 울리는 방법
이론상 외부 고발자 보호는 AI 위험 탐지에 중요한 역할을 할 수 있습니다. 이는 기업 행동을 공개한 혐의로 해고된 직원을 보호할 수 있으며, 부적절한 내부 보고 메커니즘을 보완하는 데 도움이 될 수 있습니다. 거의 모든 주에는 공공 정책 예외가 있습니다 자의적 고용 종료에 대한 규정—다시 말해, 해고된 직원은 안전하지 않거나 불법적인 기업 관행을 지적한 것에 대해 보복을 받았다면 고용주를 상대로 구제책을 모색할 수 있습니다. 그러나 실제로 이 예외는 직원에게 거의 보장을 제공하지 않습니다. 판사들은 경향이 있습니다 고발자 사건에서 고용주에게 유리하게 하기 위해. AI 연구실이 그러한 소송에서 살아남을 가능성은 사회가 아직 안전하지 않은 AI 개발 및 배포에 대한 어떤 종류의 합의에 도달하지 못했다는 점을 감안할 때 특히 높아 보입니다.
이러한 단점과 기타 단점은 다음과 같은 이유를 설명합니다. 앞서 언급한 13명의 AI 근로자전 OpenAI 직원인 윌리엄 손더스를 포함하여, 새로운 “경고할 권리”를 요구했습니다. 회사는 직원들에게 연구소 이사회, 규제 기관 및 주제 전문가로 구성된 독립적인 제3 기관에 위험 관련 우려 사항을 공개할 수 있는 익명의 절차를 제공해야 합니다. 이 절차의 내부 사정은 아직 파악되지 않았지만 아마도 공식적이고 관료적인 메커니즘일 것입니다. 이사회, 규제 기관 및 제3자는 모두 공개에 대한 기록을 작성해야 합니다. 각 기관은 그런 다음 어떤 종류의 조사를 시작할 가능성이 높습니다. 후속 회의와 청문회도 절차의 필수적인 부분으로 보입니다. 그러나 손더스의 말을 그대로 받아들이려면 AI 근로자가 정말 원하는 것은 다른 것이다.
샌더스가 갔을 때 빅 테크놀로지 팟캐스트 에게 그의 이상적인 프로세스를 개략적으로 설명하다 안전 우려 사항을 공유하기 위해 그는 확립된 위험을 보고하기 위한 공식적인 수단에 초점을 맞추지 않았습니다. 대신 그는 중간적이고 비공식적인 단계를 원한다고 밝혔습니다. 그는 안전 우려가 경고권 시스템과 같은 “위험이 큰” 절차를 거칠 만큼 충분히 중대한지 여부에 대한 중립적이고 전문적인 피드백을 받을 기회를 원합니다. Saunders가 말했듯이 현재 정부 규제 기관은 그 역할을 할 수 없습니다.
우선, 그들은 AI 근로자가 안전 문제를 생각하도록 도울 전문성이 부족할 가능성이 높습니다. 게다가, 상대방이 정부 공무원이라는 것을 알고 있으면 전화를 받는 근로자는 거의 없습니다. 그런 종류의 전화는 샌더스가 팟캐스트에서 말했듯이 “매우 위압적”일 수 있습니다. 대신 그는 전문가에게 전화하여 우려 사항을 논의할 수 있기를 기대합니다. 이상적인 시나리오에서는 문제의 위험이 그렇게 심각하지 않거나 실현될 가능성이 없다고 말하여 더 안심하고 하던 일로 돌아갈 수 있습니다.
스테이크를 낮추다
Saunders가 이 팟캐스트에서 요구하는 것은 경고할 권리가 아닙니다. 경고할 권리는 직원이 이미 안전하지 않거나 불법적인 활동이 진행 중이라고 확신하고 있음을 시사하기 때문입니다. 그가 실제로 요구하는 것은 직감적 확인입니다. 즉, 안전하지 않거나 불법적인 행동에 대한 의심이 타당한지 확인할 수 있는 기회입니다. 위험이 훨씬 낮아 규제 대응이 더 가벼울 수 있습니다. 이러한 직감적 확인을 평가하는 제3자는 훨씬 더 비공식적일 수 있습니다. 예를 들어, AI 박사 과정 학생, 은퇴한 AI 산업 종사자 및 AI 전문 지식이 있는 다른 개인은 AI 안전 핫라인에 자원할 수 있습니다. 그들은 기밀 및 익명의 전화 대화를 통해 직원과 안전 문제를 빠르고 전문적으로 논의하는 업무를 맡을 수 있습니다. 핫라인 자원 봉사자는 주요 안전 관행에 익숙할 뿐만 아니라 직원이 사용할 수 있는 경고 권리 메커니즘과 같은 옵션에 대한 광범위한 지식을 갖추고 있습니다.
샌더스가 지적했듯이, 안전에 대한 우려를 동료에서 이사회 또는 정부 기관에 직접 제기하는 것을 원하는 직원은 거의 없을 것입니다. 중재적이고 비공식적인 단계가 가능하다면 문제를 제기할 가능성이 훨씬 더 높습니다.
다른 곳에서 예를 연구하다
AI 안전 핫라인이 정확히 어떻게 작동할지에 대한 세부 사항은 AI 커뮤니티 구성원, 규제 기관 및 시민 사회에서 더 많은 토론을 필요로 합니다. 예를 들어 핫라인이 그 잠재력을 최대한 발휘하려면 가장 시급하고 검증된 보고를 적절한 당국에 보고할 방법이 필요할 수 있습니다. 핫라인 대화의 기밀성을 보장하는 방법은 철저한 조사가 필요한 또 다른 문제입니다. 자원봉사자를 모집하고 유지하는 방법도 또 다른 핵심 질문입니다. 주요 전문가들이 AI 위험에 대해 광범위하게 우려하고 있기 때문에 일부는 단순히 도움을 주고 싶어서 참여할 의향이 있을 수 있습니다. 나서는 사람이 너무 적으면 다른 인센티브가 필요할 수 있습니다. 그러나 필수적인 첫 번째 단계는 AI 안전 규제 퍼즐에서 이 빠진 조각을 인정하는 것입니다. 다음 단계는 첫 번째 AI 핫라인을 구축하는 데 모방할 모델을 찾는 것입니다.
시작할 수 있는 한 가지 장소는 옴부즈맨입니다. 다른 산업에서는 직원 우려 사항의 심각성을 평가하기 위한 리소스로서 이러한 중립적이고 독립적인 개인을 식별하는 것의 가치를 인식했습니다. 학계에는 옴부즈맨이 존재한다비영리 단체 및 민간 부문. 이러한 것들의 구별되는 속성 개인과 직원은 중립을 지킵니다.—그들은 어느 한 쪽을 선호할 인센티브가 없으므로 모든 사람에게 더 신뢰받을 가능성이 높습니다. 연방 정부에서 옴부즈맨을 활용하는 것을 살펴보면 그들이 이용 가능할 때 문제가 제기되고 그렇지 않을 때보다 더 빨리 해결될 수 있음을 알 수 있습니다.
이 개념은 비교적 새로운 것입니다. 미국 상무부 최초의 연방 옴부즈먼을 설립했습니다. 1971년에 이 사무실은 시민들이 기관과의 분쟁을 해결하고 기관의 조치를 조사하도록 돕는 임무를 맡았습니다. 사회보장청과 국세청을 포함한 다른 기관들도 곧 뒤를 따랐습니다. 회고적 검토 이러한 초기 노력 중 효과적인 옴부즈맨은 시민-정부 관계를 의미 있게 개선할 수 있다는 결론이 나왔습니다. 전반적으로 옴부즈맨은 규정에 대한 자발적인 준수와 정부와의 협력이 증가하는 것과 관련이 있었습니다.
AI 옴부즈맨이나 안전 핫라인은 연방 기관의 옴부즈맨과는 확실히 다른 업무와 직원을 가질 것입니다. 그럼에도 불구하고, 일반적인 개념은 AI 산업에서 보호 조치를 옹호하는 사람들이 연구할 가치가 있습니다.
경고할 권리는 AI 안전에 대한 우려를 표명하는 데 역할을 할 수 있지만, 우리는 더 중간적이고 비공식적인 단계도 설정해야 합니다. AI 안전 핫라인은 규제 측면에서 손쉬운 성과입니다. 자원봉사자로 구성된 파일럿은 비교적 짧은 시간 내에 조직될 수 있으며, 손더스처럼 단순히 의견을 나눌 상대를 원하는 사람들에게 즉각적인 출구를 제공할 수 있습니다.
케빈 프레이저는 세인트 토마스 대학교 법학대학의 조교수이며, 오스틴 텍사스 대학교의 헌법학 연구 프로그램의 수석 연구원입니다.