Microsoft Azure AI Foundry 모델 및 Microsoft Security Copilot ISO/IEC 42001 : 2023 인증 달성

0
3
microsoft-azure-ai-foundry-모델-및-microsoft-security-copilot-iso/iec-42001-:-2023-인증-달성
Microsoft Azure AI Foundry 모델 및 Microsoft Security Copilot ISO/IEC 42001 : 2023 인증 달성

Microsoft는 ISO/IEC 42001 : 2023 인증을 달성했습니다. Azure AI Foundry 모델 그리고 Microsoft Security Copilot. 이 인증은 AI 시스템을 책임감있게, 안전하게, 투명하게 구축하고 운영하려는 Microsoft의 약속을 강조합니다. 책임있는 AI가 빠르게 비즈니스 및 규제 명령이되고 있기 때문에이 인증은 Microsoft가 고객이 자신있게 혁신 할 수 있도록하는 방법을 반영합니다.

ISO/IEC 42001을 사용하여 책임있는 AI의 막대를 올리십시오

ISO/IEC 42001국제 표준화기구 (ISO)와 IEC (International Electrotechnical Commission)가 개발하여 AI 시스템 관리를위한 전 세계적으로 인정 된 프레임 워크를 설립합니다. 위험 관리 및 편견 완화에서 투명성, 인적 감독 및 조직 책임에 이르기까지 광범위한 요구 사항을 해결합니다. 이 국제 표준은 AI 수명주기 전체에서 위험과 기회를 해결하는 조직을 지원하는 AI 관리 시스템을 수립, 구현, 유지 및 개선하기위한 인증 가능한 프레임 워크를 제공합니다.

Microsoft는이 인증을 달성함으로써 Azure OpenAI 모델을 포함한 Azure AI Foundry 모델과 Microsoft Security Copilot이 책임있는 혁신을 우선시하고 독립적 인 제 3자가 검증 함을 보여줍니다. Azure AI Foundry 모델 및 Microsoft Security Copilot 전반에 걸쳐 Microsoft Azure의 강력한 거버넌스, 위험 관리 및 규정 준수 관행을 적용 할 수 있다는 확신이 고객에게 제공됩니다. Microsoft의 책임있는 AI 표준.

산업 전반의 고객 지원

규제 산업에 AI를 배치하거나 생성 AI를 제품에 포함 시키거나 새로운 AI 사용 사례를 탐색하든이 인증은 고객에게 도움이됩니다.

  • 자신의 준수 여정을 가속화합니다 인증 된 AI 서비스를 활용하고 신흥 규정과 일치하는 거버넌스 제어를 상속함으로써.
  • 신뢰를 구축하십시오 이러한 서비스에 대한 AIMS 인증으로 입증 된 투명하고 감사하는 거버넌스를 통해 자체 사용자, 파트너 및 규제 기관과 함께.
  • Microsoft가 AI 위험을 관리하고 책임있는 AI 개발을 지배하는 방법에 대한 투명성을 얻으십시오.

Azure 플랫폼에 대한 엔지니어링 신뢰 및 책임있는 AI

마이크로 소프트 책임있는 AI (RAI) 프로그램 신뢰할 수있는 AI에 대한 우리의 접근 방식의 중추이며 4 개의 핵심 기둥을 포함합니다.관리,지도, 측정 및 관리– AI 응용 프로그램 및 에이전트를 설계, 사용자 정의 및 관리하는 방법을 안내합니다. 이러한 원칙은 Azure AI Foundry 모델과 Microsoft Security Copilot에 포함되어 혁신적이고 안전하며 책임이있는 서비스를 제공합니다.

우리는 책임있는 AI 약속을 전달하고 다음을 포함하는 기존 작업을 계속 구축하기 위해 노력하고 있습니다.

  1. 우리의 AI 고객 약속 고객이 책임있는 AI 여정을 지원합니다.
  2. 우리의 취임식 책임있는 AI 투명성 보고서 이를 통해 우리는 성숙 관행을 기록하고 공유하고, 우리가 배운 내용을 반영하고, 목표를 세우고, 책임을지고, 대중의 신뢰를 얻을 수 있습니다.
  3. 우리의 투명성에 대한 Azure AI Foundry 모델 그리고 Microsoft Security Copilot 고객이 AI 기술의 작동 방식, 기능 및 한계 및 시스템 소유자가 시스템 성능과 행동에 영향을 줄 수있는 방법을 이해하도록 도와줍니다.
  4. 우리의 책임있는 ai resources sITE 이는 많은 고객이 책임있는 AI 관행을 설정하는 데 도움이 될 도구, 실습, 템플릿 및 정보를 제공합니다.

책임있는 AI 여행을 신뢰합니다

우리는 책임있는 AI가 기술 이상의 것을 필요로한다는 것을 알고 있습니다. 운영 프로세스, 위험 관리 및 명확한 책임이 필요합니다. Microsoft는 플랫폼과 전문 지식을 운영 신뢰 및 규정 준수에 제공함으로써 이러한 노력에있어 고객을 지원합니다. Microsoft는 다음에 대한 우리의 약속을 확고하게 유지합니다.

  • AI 관리 시스템을 지속적으로 개선합니다.
  • 고객의 요구와 기대를 이해합니다.
  • Microsoft RAI 프로그램 및 AI 위험 관리에 대한 구축.
  • AI 제품 및 서비스에 대한 신뢰를 구축하고 유지할 수있는 기회를 식별하고 행동합니다.
  • 책임있는 AI 실무자, 규제 기관 및 연구원의 성장하는 커뮤니티와 협력하여 책임있는 AI 접근 방식을 발전시킵니다.

ISO/IEC 42001 : 2023은 Microsoft의 광범위한 규정 준수 인증 포트폴리오에 합류하여 운영 엄격함과 투명성에 대한 헌신을 반영하여 고객이 신뢰를 위해 설계된 클라우드 플랫폼을 책임감있게 구축 할 수 있도록 도와줍니다. 공정성을 위해 노력하는 의료 기관에서 AI 위험을 감독하는 금융 기관 또는 윤리적 AI 관행을 발전시키는 정부 기관에 이르기까지 Microsoft의 인증을 통해 Microsoft의 인증은 보안, 개인 정보 및 책임있는 AI 거버넌스에 대한 진화하는 글로벌 표준에 따라 AI를 채택 할 수 있습니다.

보안 및 데이터 프라이버시 및 운영 탄력성 및 책임있는 AI에 대한 투자에 대한 Microsoft의 재단은 모든 계층에서 신뢰를 얻고 보존하기위한 헌신을 보여줍니다. Azure는 고객에게 책임감있게 AI를 확장하고 진화하는 규정 준수 요구를 탐색하며 데이터 및 운영을 통제 할 수있는 자신감을 제공하는 안전하고 탄력적이며 투명한 재단에 대한 신뢰, 혁신을 위해 설계되었습니다.

Microsoft와 함께 자세히 알아보십시오

AI 규정과 기대치가 계속 발전함에 따라 Microsoft는 AI 혁신을위한 신뢰할 수있는 플랫폼을 제공하는 데 중점을두고 있으며, 탄력성, 보안 및 투명성으로 구축되었습니다. ISO/IEC 42001 : 2023 인증은 그 경로에 대한 중요한 단계이며, Microsoft는 글로벌 표준을 초과하고 책임있는 혁신을 계속해서 고객이 미리, 윤리적으로, 규모로 진행할 수 있도록 책임있는 혁신을 계속 투자 할 것입니다.

보안, 개인 정보 및 규정 준수에 대한 우리의 접근 방식으로 클라우드 혁신의 핵심을 어떻게 신뢰하는지 탐구하십시오. Microsoft Trust Center. 이 인증 및 보고서 및 기타 규정 준수 문서를보고 Microsoft Service Trust Portal.


Azure AI Foundry에 대한 ISO/IEC 42001 : 2023 인증 : Azure AI Foundry 모델 및 Microsoft Security Copilot이 발행했습니다. 지도자국제 인증 서비스 (IAS)의 ISO 인증 인증 기관.

게시물 Microsoft Azure AI Foundry 모델 및 Microsoft Security Copilot ISO/IEC 42001 : 2023 인증 달성 먼저 나타났습니다 Microsoft AI 블로그.