1년 전인 2023년 7월 21일, Amazon, Anthropic, Google, Inflection, Meta, Microsoft 등 7대 AI 기업이 그리고 OpenAI는 백악관과 협력하여 안전하고 신뢰할 수 있는 방식으로 AI를 개발하는 방법에 대한 8가지 자발적 약속을 체결했습니다.
여기에는 AI 시스템에 대한 테스트와 투명성을 개선하고, 잠재적인 위험과 피해에 대한 정보를 공유하겠다는 약속이 포함되었습니다.
자발적인 약속의 1주년을 맞이하여, MIT 기술 리뷰 약속에 서명한 AI 회사에 지금까지의 작업에 대한 세부 정보를 물었습니다. 그들의 답변은 기술 부문이 큰 단서와 함께 환영할 만한 진전을 이루었음을 보여줍니다.
자발적인 약속은 생성적 AI 열풍이 가장 거세던 시기에 이루어졌으며, 회사들은 자체 모델을 출시하고 경쟁사보다 더 크고 더 좋게 만들기 위해 경쟁했습니다. 동시에 우리는 다음을 둘러싼 싸움과 같은 발전을 보게 되었습니다. 저작권 그리고 딥페이크. 영향력 있는 기술 플레이어들의 보컬 로비, 예를 들어 제프리 힌튼또한 AI가 인류에게 실존적 위험을 초래할 수 있다는 우려를 제기했습니다. 갑자기 모든 사람이 AI를 만들 긴급한 필요성에 대해 이야기했습니다. 안전한그리고 전 세계의 규제 기관은 이에 대해 뭔가를 해야 한다는 압박을 받았습니다.
아주 최근까지 AI 개발은 무법지대였습니다. 전통적으로 미국은 기술 대기업을 규제하는 것을 꺼려했고, 대신 그들이 스스로를 규제하도록 의존했습니다. 자발적 약속은 그 좋은 예입니다. 이는 미국 AI 부문에 대한 최초의 처방 규칙 중 일부였지만 여전히 자발적이고 시행할 수 없습니다. 백악관은 그 이후로 행정 명령이는 약속을 확대하고 다른 기술 회사와 정부 부서에도 적용되는 내용입니다.
“1년이 지나면서 우리는 자체 제품에 대한 몇 가지 좋은 사례를 확인했지만 [they’re] AI 및 디지털 정책 센터의 사장 겸 연구 책임자인 Merve Hickok은 “우리가 원하는 수준의 선의의 거버넌스나 광범위한 권리 보호에 있어서 그들이 있어야 할 수준에는 전혀 미치지 못한다”고 말했습니다. 그는 요청에 따라 회사들의 답변을 검토했습니다. MIT 기술 리뷰. 이러한 회사 중 다수는 자사 제품에 대한 입증되지 않은 주장을 계속하고 있습니다. 예를 들어, 자사 제품이 인간의 지능과 능력을 대체할 수 있다고 말하는 것입니다. Hickok이 덧붙였습니다.
기술 회사의 답변에서 나타난 한 가지 추세는 회사가 레드팀(인간이 AI 모델의 결함을 조사하는 것) 및 AI가 생성한 콘텐츠에 대한 워터마크와 같은 기술적 해결책을 추구하기 위해 더 많은 노력을 기울이고 있다는 것입니다.
그러나 스탠포드 재단 모델 연구 센터의 사회 책임자이자 응답을 검토한 Rishi Bommasani는 약속이 어떻게 바뀌었는지, 그리고 회사들이 이러한 조치를 어쨌든 시행했을지 여부는 명확하지 않다고 말했습니다. MIT 기술 리뷰.
AI에서 1년은 긴 시간입니다. 자발적인 약속이 체결된 이후, Inflection AI 창립자 무스타파 술레이만 회사를 떠나 Microsoft에 합류하여 회사의 AI 노력을 이끌었습니다. Inflection은 논평을 거부했습니다.
백악관 대변인인 로빈 패터슨은 “우리는 선도 기업들이 행정 명령에서 요구하는 것 외에도 자발적 약속을 이행하기 위해 이룬 진전에 감사드린다”고 말했습니다. 그러나 패터슨은 대통령이 의회에 AI에 대한 양당 간 법안을 통과시킬 것을 계속 촉구하고 있다고 덧붙였습니다.
캘리포니아 대학교 버클리 캠퍼스 CITRIS 정책 연구소 소장인 브랜디 노네케는 포괄적인 연방 법률이 없는 한 미국이 지금 할 수 있는 최선은 기업들에게 이러한 자발적 약속을 따르라고 요구하는 것이라고 말했습니다.
하지만 “이 회사들은 여전히 본질적으로 자신들을 평가하는 시험을 쓰고 있다”는 점을 염두에 두는 것이 좋습니다. “그래서 우리는 그들이 진정으로 엄격한 방식으로 자신을 검증하고 있는지 아닌지에 대해 신중하게 생각해야 합니다.”
지난 1년 동안 AI 회사들이 이룬 진전에 대한 우리의 평가는 다음과 같습니다.
약속 1
이 회사들은 출시 전에 AI 시스템에 대한 내부 및 외부 보안 테스트를 실시합니다. 독립적인 전문가가 부분적으로 수행하는 이 테스트는 생물 보안 및 사이버 보안과 같은 가장 중요한 AI 위험의 원천과 더 광범위한 사회적 영향을 보호합니다.
모든 회사(Inflection 제외, Inflection은 코멘트를 하지 않기로 결정)는 내부 및 외부 테스터가 모델의 결함과 위험을 조사하도록 하는 레드팀 연습을 실시한다고 말합니다. OpenAI는 별도의 준비팀 사이버 보안, 화학, 생물학, 방사선 및 핵 위협에 대한 모델을 테스트하고 정교한 AI 모델이 사람에게 해를 끼칠 수 있는 일을 하거나 하도록 설득할 수 있는 상황을 테스트합니다. Anthropic과 OpenAI는 또한 새로운 모델을 출시하기 전에 외부 전문가와 함께 이러한 테스트를 수행한다고 말합니다. 예를 들어, Anthropic의 최신 모델인 Claude 3.5를 출시하기 위해 회사는 사전 배포 테스트 영국의 AI 안전 연구소의 전문가들과 함께. Anthropic은 또한 허용했습니다. 미터비영리 연구 기관에서 Claude 3.5의 자율성 기능에 대한 “초기 탐색”을 수행합니다. Google은 또한 모델 Gemini의 경계를 테스트하기 위해 내부 레드팀을 수행한다고 말합니다. 선거 관련 콘텐츠사회적 위험, 국가 안보 문제. Microsoft는 저널리즘적 성실성을 증진하는 조직인 NewsGuard의 제3자 평가자와 협력하여 Microsoft의 텍스트-이미지 도구에서 악의적인 딥페이크의 위험을 평가하고 완화했다고 말합니다. Meta는 레드팀 구성 외에도 최신 모델인 Llama 3를 평가하여 무기, 사이버 공격, 아동 착취와 같은 일련의 위험 영역에서의 성능을 파악했다고 말합니다.
하지만 Bommasani는 테스트에 관해서는 회사가 조치를 취하고 있다는 것을 보고하는 것만으로는 충분하지 않다고 말합니다. 예를 들어 Amazon과 Anthropic은 비영리 단체 Thorn과 협력하여 AI로 인한 아동 안전 위험에 대처했다고 말했습니다. Bommasani는 회사가 시행하는 개입이 실제로 어떻게 위험을 줄이는지에 대한 구체적인 내용을 보고 싶어했을 것입니다.
Bommasani는 “회사들이 무언가를 하는 것뿐만 아니라 그 일들이 원하는 효과를 낸다는 것이 우리에게 분명해져야 합니다.”라고 말합니다.
결과: 좋습니다. 레드팀 구성과 광범위한 위험에 대한 테스트 추진은 좋고 중요합니다. 그러나 Hickok은 독립 연구자들이 회사 모델에 더 광범위하게 접근할 수 있기를 바랐습니다.
약속 2
이 회사들은 AI 위험 관리에 대한 정보를 업계 전반과 정부, 시민 사회, 학계와 공유하기로 약속했습니다. 여기에는 안전에 대한 모범 사례, 보호 조치를 우회하려는 시도에 대한 정보, 기술 협업이 포함됩니다.
Anthropic, Google, Microsoft, OpenAI는 약속에 서명한 후 AI 안전과 책임에 대한 논의와 행동을 촉진하는 것을 목표로 하는 비영리 단체인 Frontier Model Forum을 설립했습니다. Amazon과 Meta도 가입했습니다.
Bommasani는 AI 회사가 스스로 자금을 조달한 비영리 단체와 교류하는 것은 자발적인 약속의 정신에 어긋날 수 있다고 말합니다. 그러나 Frontier Model Forum은 이러한 회사가 서로 협력하고 안전에 대한 정보를 전달하는 방법이 될 수 있으며, 이는 일반적으로 경쟁자로서는 할 수 없는 일이라고 그는 덧붙입니다.
Bommasani는 “대중에게 투명하지 않더라도 적어도 집단적으로 위험을 실제로 줄일 수 있는 완화책을 찾아내는 것이 좋을 것”이라고 말했습니다.
7개 서명자는 모두 인공지능 안전 연구소 컨소시엄(Artificial Intelligence Safety Institute Consortium)의 일원이기도 합니다.AISIC), AI 정책 및 AI 성능 평가에 대한 지침과 표준을 개발하는 미국 국립표준기술원(NIST)에서 설립한 단체입니다. 공공 및 민간 부문 참여자가 섞인 대규모 컨소시엄입니다. Google, Microsoft, OpenAI도 유엔에 대표를 두고 있습니다. 인공지능에 대한 고위자문기구.
많은 연구실은 또한 학계와의 연구 협업을 강조했습니다. 예를 들어, Google은 MLCommons의 일부로, 학계와 협력하여 산업 간 AI 안전 벤치마크Google은 또한 National Science Foundation의 프로젝트와 같은 프로젝트에 컴퓨팅 크레딧과 같은 도구와 리소스를 적극적으로 기여한다고 말합니다. 국가 AI 연구 자원 파일럿미국에서 AI 연구를 민주화하는 것을 목표로 합니다.
또한 많은 회사가 Amazon, Facebook, Google, DeepMind, Microsoft, IBM 등이 설립한 또 다른 비영리 단체인 AI 파트너십이 기초 모델을 구축하는 데 대한 지침에도 기여했습니다.
결과: 더 많은 작업이 필요합니다. 업계가 AI 시스템을 안전하고 신뢰할 수 있도록 공동으로 노력함에 따라 더 많은 정보 공유가 환영할 만한 조치입니다. 그러나 광고된 노력 중 얼마나 많은 부분이 실제로 의미 있는 변화로 이어질지, 얼마나 많은 부분이 겉치레일지는 불분명합니다.
약속 3
이 회사들은 독점적이고 공개되지 않은 모델 가중치를 보호하기 위해 사이버 보안 및 내부자 위협 보호에 투자하기로 약속했습니다. 이러한 모델 가중치는 AI 시스템의 가장 필수적인 부분이며, 이 회사들은 의도한 대로, 보안 위험이 고려될 때만 모델 가중치를 공개하는 것이 중요하다는 데 동의합니다.
많은 회사들이 작년에 새로운 사이버 보안 조치를 시행했습니다. 예를 들어, Microsoft는 안전한 미래 이니셔티브 사이버 공격의 규모가 커지는 것을 해결하기 위해. 이 회사는 모델 가중치가 암호화되어 모델 도난의 잠재적 위험을 완화하고, 매우 유능한 독점 모델을 배포할 때 강력한 ID 및 액세스 제어를 적용한다고 말합니다.
Google도 출시했습니다 AI 사이버 방어 이니셔티브. 5월 OpenAI 공유 암호화 보호를 AI 하드웨어로 확장하는 것과 같이 기존 사이버 보안 관행을 보완하기 위해 개발 중인 6가지 새로운 조치도 있습니다. 또한 사이버 보안 보조금 프로그램연구자들이 사이버 방어를 구축할 수 있도록 해당 모델에 접근할 수 있도록 하는 것입니다.
아마존 말하는 또한 데이터 오염과 같은 생성 AI에 특화된 공격에 대해서도 특정 조치를 취했다고 밝혔습니다. 신속한 주입언어 모델이 이전 지시와 안전 가드를 무시하도록 지시하는 프롬프트를 사용하는 경우입니다.
Anthropic은 약속에 서명한 지 불과 며칠 만에 보호에 대한 세부 정보를 공개했습니다. 여기에는 다음이 포함됩니다. 일반적인 사이버 보안 관행 모델 및 모델 가중치와 같은 민감한 자산에 누가 접근할 수 있는지 제어하고, 제3자 공급망을 검사하고 제어하는 것과 같습니다. 이 회사는 또한 독립적인 평가자와 협력하여 설계한 통제가 사이버 보안 요구 사항을 충족하는지 평가합니다.
결과: 좋습니다. 모든 회사가 모델을 보호하기 위해 추가 조치를 취했다고 말했지만, AI 모델을 보호하는 가장 좋은 방법에 대한 합의는 별로 없는 듯합니다.
약속 4
이 회사들은 타사가 자사 AI 시스템의 취약성을 발견하고 보고하도록 하는 데 전념합니다. 일부 문제는 AI 시스템이 출시된 후에도 지속될 수 있으며, 강력한 보고 메커니즘을 통해 이를 신속하게 발견하고 수정할 수 있습니다.
이러한 공약에 대해 가장 인기 있는 응답 중 하나는 AI 시스템의 결함을 발견한 사람들에게 보상하는 버그 바운티 프로그램을 구현하는 것이었습니다. Anthropic, Google, Microsoft, Meta, OpenAI는 모두 AI 시스템을 위한 프로그램을 가지고 있습니다. Anthropic과 Amazon은 또한 보안 연구원이 취약성 보고서를 제출할 수 있는 양식이 웹사이트에 있다고 말했습니다.
Brandie Nonnecke는 제3자 감사를 잘 수행하는 방법을 알아내는 데는 몇 년이 걸릴 것이라고 말합니다. “그것은 단순히 기술적 과제가 아닙니다. 그것은 사회 기술적 과제입니다. 그리고 AI의 기술 표준뿐만 아니라 사회 그녀는 “정보기술 표준은 어렵고 지저분해요.”라고 말했습니다.
Nonnecke는 제3자 감사를 구현하는 최초의 회사가 AI의 사회 기술적 위험에 대해 생각하고 해결하는 방법에 대한 나쁜 선례를 만들 수 있다고 우려한다고 말합니다. 예를 들어, 감사는 일부 위험을 정의, 평가 및 해결하지만 다른 위험은 간과할 수 있습니다.
결과: 더 많은 작업이 필요합니다. 버그 바운티는 훌륭하지만 충분히 포괄적이지는 않습니다. EU의 AI 법과 같은 새로운 법률은 기술 회사가 감사를 실시하도록 요구할 것이고, 기술 회사가 그러한 감사의 성공적인 사례를 공유하는 것을 보는 것은 좋았을 것입니다.
약속 5
이 회사들은 사용자가 콘텐츠가 AI에서 생성될 때 알 수 있도록 하는 강력한 기술적 메커니즘을 개발하기로 약속했습니다. 예를 들어 워터마킹 시스템입니다. 이 조치는 AI를 통한 창의성을 번성하게 하지만 사기와 기만의 위험을 줄입니다.
많은 회사가 AI가 생성한 콘텐츠에 대한 워터마크를 구축했습니다. 예를 들어, Google은 신스아이디Gemini에서 생성된 이미지, 오디오, 텍스트 및 비디오용 워터마킹 도구입니다. Meta에는 다음과 같은 도구가 있습니다. 안정적인 서명 이미지의 경우 오디오씰 AI가 생성한 음성의 경우. Amazon은 이제 Titan Image Generator에서 생성된 모든 이미지에 보이지 않는 워터마크를 추가합니다. OpenAI는 또한 자체 음성 모델인 Voice Engine에서 워터마크를 사용하고 DALL-E 3에서 생성된 이미지에 대한 이미지 감지 분류기를 구축했습니다. Anthropic은 워터마크 도구를 구축하지 않은 유일한 회사였는데, 워터마크는 주로 이미지에 사용되기 때문이며 회사의 Claude 모델은 이를 지원하지 않습니다.
Inflection, Anthropic 및 Meta를 제외한 모든 회사는 또한 Coalition for Content Provenance and Authenticity(콘텐츠 출처 및 진위성 연합)의 일부입니다.C2PA), 콘텐츠가 생성된 시기와 AI가 생성 또는 편집했는지에 대한 정보를 이미지의 메타데이터에 내장하는 산업 연합. Microsoft와 OpenAI는 DALL-E 3로 생성된 이미지와 Sora로 생성된 비디오에 C2PA의 출처 메타데이터를 자동으로 첨부합니다. Meta는 회원은 아니지만 플랫폼에서 AI가 생성한 이미지를 식별하기 위해 C2PA 표준을 사용한다고 발표했습니다.
Bommasani는 약속에 서명한 6개 회사는 “위험을 해결하는 데 있어 보다 기술적인 접근 방식을 선호하는 경향이 있다”고 말하며 “특히 워터마킹에는 이런 특징이 있다”고 덧붙였다.
“자연스러운 질문은 다음과 같습니다. [the technical fix] “의미 있는 진전을 이루고 콘텐츠가 기계에서 생성되었는지 아닌지를 알고 싶어 하는 근본적인 사회적 우려를 해결하는 방법은 무엇일까요?”라고 그는 덧붙여 말했습니다.
결과: 좋습니다. 전반적으로 고무적인 결과입니다. 워터마킹은 여전히 실험적이고 신뢰할 수 없지만, 이를 둘러싼 연구와 C2PA 표준에 대한 헌신을 보는 것은 여전히 좋은 일입니다. 바쁜 선거 연도에는 아무것도 하지 않는 것보다 낫습니다.
약속 6
이 회사들은 AI 시스템의 역량, 한계, 적절하고 부적절한 사용 영역을 공개적으로 보고하기로 약속했습니다. 이 보고서는 보안 위험과 공정성과 편견에 미치는 영향과 같은 사회적 위험을 모두 다룰 것입니다.
백악관의 공약은 해석의 여지를 많이 남깁니다. 예를 들어, 기업은 기술적으로 이 공개 보고 공약을 매우 다양한 수준의 투명성으로 충족할 수 있습니다. 무엇 그 일반적인 방향으로.
기술 회사가 여기에서 제공한 가장 일반적인 솔루션은 소위 모델 카드였습니다. 각 회사는 약간 다른 이름으로 부르지만 본질적으로 AI 모델에 대한 일종의 제품 설명 역할을 합니다. 모델의 기능과 한계(공정성과 설명 가능성에 대한 벤치마크와 비교한 방법 포함)부터 진실성, 견고성, 거버넌스, 개인 정보 보호 및 보안에 이르기까지 모든 것을 다룰 수 있습니다. Anthropic은 나중에 발생할 수 있는 잠재적인 안전 문제에 대해서도 모델을 테스트한다고 밝혔습니다.
Microsoft는 연례 책임 있는 AI 투명성 보고서이는 회사가 생성적 AI를 사용하는 애플리케이션을 구축하고, 결정을 내리고, 해당 애플리케이션의 배포를 감독하는 방법에 대한 통찰력을 제공합니다. 회사는 또한 제품 내에서 AI가 어디에서 어떻게 사용되는지에 대해 명확하게 통지한다고 말합니다.
결과: 더 많은 작업이 필요합니다. AI 회사의 개선 영역 중 하나는 거버넌스 구조와 회사 간의 재무 관계에 대한 투명성을 높이는 것이라고 Hickok은 말합니다. 그녀는 또한 회사가 데이터 출처, 모델 교육 프로세스, 안전 사고 및 에너지 사용에 대해 더 공개적으로 말하기를 원했습니다.
약속 7
이 회사들은 AI 시스템이 초래할 수 있는 사회적 위험에 대한 연구를 우선시하기로 약속했습니다. 여기에는 유해한 편견과 차별을 피하고 개인 정보를 보호하는 것이 포함됩니다. AI의 실적은 이러한 위험의 교활함과 만연함을 보여주며, 이 회사들은 이를 완화하는 AI를 출시하기로 약속했습니다.
기술 회사들은 안전 연구 분야에서 분주했으며, 그들의 발견 사항을 제품에 포함시켰습니다. Amazon은 Amazon Bedrock을 위한 보호 장치를 구축하여 환각을 감지하고 안전, 프라이버시, 진실성 보호를 적용할 수 있습니다. Anthropic은 사회적 위험과 프라이버시를 연구하는 데 전념하는 연구원 팀을 고용했다고 말합니다. 작년에 이 회사는 다음에 대한 연구를 추진했습니다. 기만, 탈옥완화 전략 차별및 모델의 능력과 같은 새로운 역량 자신의 코드를 변조하다 또는 참여하다 설득. 그리고 OpenAI는 증오적인 콘텐츠를 생산하지 않도록 모델을 훈련시키고 증오적이거나 극단주의적인 콘텐츠에 대한 출력을 생성하지 않도록 했다고 말합니다. GPT-4V는 고정관념에서 도출해야 답변할 수 있는 많은 요청을 거부하도록 훈련시켰습니다. Google DeepMind도 출시했습니다. 연구 위험한 기능을 평가하기 위해 회사는 다음을 수행했습니다. 공부하다 생성 AI의 오용에 관하여.
그들 모두는 이 연구 분야에 많은 돈을 투자했습니다. 예를 들어, Google은 새로운 것을 만드는 데 수백만 달러를 투자했습니다. AI 안전 기금 연구를 통해 해당 분야의 연구를 촉진하기 위해 프론티어 모델 포럼. Microsoft는 National AI Research Resource를 통해 사회적 위험을 연구하는 데 2,000만 달러의 컴퓨팅 크레딧을 투자했으며 Accelerating Foundation Models Research 프로그램이라는 학계를 위한 자체 AI 모델 연구 가속 프로그램을 시작했다고 밝혔습니다. 이 회사는 또한 AI와 사회에 초점을 맞춘 24명의 연구 펠로우를 고용했습니다.
결과: 아주 좋습니다. 서명자가 세계에서 가장 크고 부유한 기업 AI 연구실 중 일부이기 때문에 이 약속을 쉽게 지킬 수 있습니다. AI 시스템을 안전하게 만드는 방법에 대한 연구가 더 많이 이루어지는 것은 환영할 만한 조치이지만, 비판론자들은 안전 연구에 집중하면 차별과 편견과 같은 더 직접적인 해악에 집중하는 AI 연구의 관심과 자원이 빼앗긴다고 말합니다.
약속 8
이 회사들은 사회의 가장 큰 과제를 해결하는 데 도움이 되는 고급 AI 시스템을 개발하고 배포하기로 약속했습니다. 암 예방에서 기후 변화 완화에 이르기까지 그 사이에 있는 많은 것들에 이르기까지 AI는 적절하게 관리된다면 모든 사람의 번영, 평등, 안보에 엄청나게 기여할 수 있습니다.
이러한 약속을 한 이후, 기술 회사들은 다양한 문제를 해결했습니다. 예를 들어, Pfizer는 Claude 관련 데이터와 과학적 내용을 수집한 후 암 치료 연구의 동향을 평가하고, 미국의 바이오제약 기업인 길리드는 Amazon Web Services의 생성 AI를 사용하여 임상 연구의 타당성 평가를 수행하고 데이터 세트를 분석했습니다.
Google DeepMind는 과학자들에게 도움이 될 수 있는 AI 도구를 내놓는 데 특히 강력한 실적을 가지고 있습니다. 예를 들어, 알파폴드 3 모든 생명체 분자의 구조와 상호작용을 예측할 수 있습니다. 알파지오메트리 세계에서 가장 뛰어난 고등학생 수학자들과 비슷한 수준에서 기하학 문제를 풀 수 있습니다. 그리고 그래프캐스트 중거리 날씨 예보를 할 수 있는 AI 모델입니다. 한편, Microsoft는 위성 이미지와 AI를 사용하여 대응을 개선했습니다. 마우이의 산불 그리고 지도 기후에 취약한 인구이는 연구자들이 식량 불안, 강제 이주, 질병 등의 위험을 폭로하는 데 도움이 됩니다.
한편 OpenAI는 다중 모드 AI 모델을 안전하게 사용할 수 있는 방법을 살펴보는 프로젝트 등 다양한 연구 프로젝트에 대한 파트너십과 자금 지원을 발표했습니다. 교육자 그리고 ~에 의해 실험실 환경의 과학자들 또한 연구자들이 플랫폼을 사용할 수 있도록 돕기 위해 크레딧도 제공했습니다. 청정 에너지 개발에 대한 해커톤.
결과: 아주 좋습니다. AI를 사용하여 과학적 발견을 촉진하거나 기상 현상을 예측하는 작업 중 일부는 정말 흥미진진합니다. AI 회사는 아직 AI를 사용하여 암을 예방하지 않았지만, 꽤 높은 기준입니다.
전반적으로 AI가 구축된 방식에는 레드팀 관행, 워터마크, 업계가 모범 사례를 공유하는 새로운 방식 등 긍정적인 변화가 있었습니다. 그러나 이것들은 AI 해악이라는 지저분한 사회 기술적 문제에 대한 몇 가지 깔끔한 기술적 솔루션에 불과하며, 훨씬 더 많은 작업이 필요합니다. 1년이 지난 지금, 약속이 생물학적 무기와 같은 가상 위험에 초점을 맞춘 매우 특정한 유형의 AI 안전에 대해 이야기하고 소비자 보호, 합의되지 않은 딥페이크, 데이터 및 저작권, AI 모델의 환경적 발자국을 전혀 언급하지 않는 것을 보는 것도 이상합니다. 오늘날 이것들은 이상한 누락처럼 보입니다.