지난 몇 년 동안 현대 기술이 기존의 법적 프레임 워크에 따라 윤리적 경계를 뛰어 넘어 법적 및 규제 광산을 초래 한 것은 비밀이 아닙니다. 이것의 영향을 시도하고 싸우기 위해 규제 당국은 국가와 지역 사이의 다양한 방식으로 진행하기를 선택하여 합의를 찾을 수 없을 때 전 세계 긴장이 증가합니다.
이러한 규제 차이는 최근 파리의 AI Action Summit에서 강조되었습니다. 그만큼 최종 진술 이 행사는 AI 개발의 포괄 성과 개방성에 중점을 두었습니다. 흥미롭게도, 그것은 보안 위협과 같은 특정 AI 관련 위험을 강조하지 않고 안전과 신뢰성을 광범위하게 언급했습니다. 60 개국에 의해 초안, 영국과 미국 성명서의 서명에서 눈에 띄게 누락되었는데, 이는 현재 주요 국가에서 얼마나 합의가 거의 없는지 보여줍니다.
AI를 다루는 것은 전 세계적으로 위험을 감수합니다
AI 개발 및 배포는 각 국가마다 다르게 규제됩니다. 그럼에도 불구하고 대부분 미국과 유럽 연합의 입장 (EU)의 두 극단 사이에 가장 적합합니다.
미국 웨이 : 먼저 혁신 한 다음 규제합니다
미국에는 특히 AI를 규제하는 연방 수준의 행위가 없으며 대신 시장 기반 솔루션 및 자발적 지침에 의존합니다. 그러나 연방 AI 연구, 연방 항공국 재 승인 법 및 NIST (National Institute of Standards and Technology)의 자발적 위험 관리 프레임 워크를 조정하는 것을 목표로하는 National AI Initiative Act를 포함하여 AI에 대한 몇 가지 주요 법률이 있습니다.
미국의 규제 환경은 유동적이며 큰 정치적 변화에 처해 있습니다. 예를 들어, 2023 년 10 월, 비덴 대통령은 안전하고 안전하며 신뢰할 수있는 인공 지능에 대한 행정 명령중요한 인프라에 대한 표준을 제시하고, AI 중심 사이버 보안 향상 및 연방 자금 지원 AI 프로젝트 규제. 그러나 2025 년 1 월 트럼프 대통령 이 행정 명령을 철회하고 규제에서 벗어나 혁신 우선 순위를 향해 피벗에서.
미국의 접근 방식에는 비평가가 있습니다. 그들은 그“조각난 성격”복잡한 규칙 웹으로 이어집니다.시행 가능한 표준이 부족합니다,”그리고 “개인 정보 보호의 격차.” 그러나 2024 년에 주 입법자들이 소개했습니다. 거의 700 개의 새로운 AI 법률 그리고 거기에있었습니다 여러 청문회 AI 및 지적 재산뿐만 아니라 거버넌스 AI. 미국 정부가 규제에서 부끄러워하지 않는다는 것은 분명하지만, 혁신을 타협하지 않고도이를 구현하는 방법을 분명히 찾고 있습니다.
EU 방식 : 우선 순위 예방
EU는 다른 접근법을 선택했습니다. 2024 년 8 월, 유럽 의회와 협의회는 인공 지능법 (AI Act)현재까지 가장 포괄적 인 AI 규정으로 널리 알려져 있습니다. 위험 기반 접근법을 사용함으로써 ACT는 의료 및 중요한 인프라에 사용되는 고감도 AI 시스템에 대한 엄격한 규칙을 부과합니다. 위험이 낮은 응용 프로그램은 최소한의 감독에 직면하지만 정부가 운영하는 소셜 스코어링 시스템과 같은 일부 응용 프로그램에서는 완전히 금지되어 있습니다.
유럽 이것은 우리와 다른 통합 제품의 비 EU 공급 업체가 적응하기 위해 노력할 때 어려움을 겪을 것입니다.
EU의 접근 방식에 대한 비판에는 주장 된 것이 포함됩니다 골드 표준을 설정하지 못했습니다 인권을 위해. 과도한 복잡성 명확성 부족과 함께 주목되었습니다. 비평가들은 EU에 대해 우려하고 있습니다 매우 정확한 기술 요구 사항EU가 경쟁력을 강화하려고 할 때 와서 오기 때문입니다.
규제 중간지면 찾기
한편 영국은 EU와 미국의 어딘가에있는“경량”프레임 워크를 채택했으며 안전, 공정성 및 투명성과 같은 핵심 가치를 기반으로합니다. 정보위원회 사무실과 같은 기존 규제 기관은 해당 영역 내에서 이러한 원칙을 구현할 수있는 권한을 보유하고 있습니다.
영국 정부는 AI 기회 행동 계획을 발표하여 AI 재단에 투자하고 AI의 교차 경제 채택을 구현하고“Home-Grown”AI 시스템을 위탁하는 조치를 간략하게 설명했습니다. 2023 년 11 월 영국은 AI 안전 연구소 (AISI)프론티어 AI 태스크 포스에서 진화합니다. AISI는 안전 테스트를 통해이를 달성하기 위해 주요 개발자와 협력하여 고급 AI 모델의 안전성을 평가하기 위해 만들어졌습니다.
그러나 영국의 AI 규제 접근에 대한 비판에는 제한된 시행 능력 그리고 a 조정 부족 부문 별 법률 사이. 비평가들은 또한 중앙 규제 당국이 부족하다는 것을 알아 차렸다.
영국과 마찬가지로 다른 주요 국가들도 미국 -EU 스펙트럼 어딘가에있는 자리를 찾았습니다. 예를 들어, 캐나다는 제안 된 AI 및 Data Act (AIDA)와 함께 위험 기반 접근 방식을 도입했으며, 이는 혁신, 안전 및 윤리적 고려 사항 사이의 균형을 유지하도록 설계되었습니다. 일본은 신뢰할 수있는 개발을 촉진하는 지침을 게시함으로써 AI에 대한“인간 중심적”접근 방식을 채택했습니다. 한편 중국에서는 AI 규정이 국가에 의해 엄격하게 통제되며, 최근의 법률은 생성 AI 모델을 요구하는 최근의 법률은 보안 평가를 거쳐 사회주의 가치와 일치합니다. 영국과 마찬가지로 호주는 AI 윤리 프레임 워크를 발표했으며 AI 혁신이 제기 한 신흥 문제를 해결하기 위해 개인 정보 보호법을 업데이트하려고합니다.
국제 협력을 확립하는 방법?
AI 기술이 계속 발전함에 따라 규제 접근 방식의 차이점이 점점 더 명백 해지고 있습니다. 데이터 프라이버시, 저작권 보호 및 기타 측면과 관련하여 취한 각 개별 접근법은 주요 AI 관련 위험에 대한 일관된 글로벌 합의를 도달하기가 더 어렵습니다. 이러한 상황에서 국제 협력은 혁신을 줄이지 않고 주요 위험을 해결하는 기준 표준을 확립하는 데 중요합니다.
국제 협력에 대한 해답은 현재 AECD (Organization for Economic Cooperation and Development), 유엔 및 기타 여러 국가와 같은 글로벌 조직과 함께있을 수 있으며, 현재 AI에 대한 국제 표준과 윤리 지침을 구축하기 위해 노력하고 있습니다. 업계의 모든 사람이 공통점을 찾아야하므로 앞으로 나아갈 수 없습니다. 우리가 혁신이 밝은 속도로 움직이고 있다고 생각한다면 – 논의하고 동의 할 시간은 지금입니다.
게시물 균형 타격 : AI 관련 위험을 완화하기위한 글로벌 접근 먼저 나타났습니다 Unite.ai.