성공적인 AI 변환은 강력한 보안 재단으로 시작합니다. AI 개발 및 채택이 급격히 증가함에 따라 조직은 신흥 AI 앱 및 도구에 대한 가시성이 필요합니다. Microsoft Security는 위협 보호, 자세 관리, 데이터 보안, 규정 준수 및 거버넌스를 제공하여 구축하고 사용하는 AI 응용 프로그램을 보호합니다. 이러한 기능은 또한 Enterprises가 DeepSeek R1 모델로 구축 된 AI 앱을 안전하고 관리하는 데 사용될 수 있으며 Seperate DeepSeek Consumer App의 사용에 대한 가시성과 제어를 얻을 수 있습니다.
Azure AI Foundry 및 Github의 DeepSeek R1 모델로 구축 된 AI 앱을 안전하고 관리합니다.
신뢰할 수있는 AI로 발전하십시오
지난주에 우리는 발표했다 Azure AI Foundry 및 Github에 대한 DeepSeek R1의 가용성1,800 개 이상의 모델의 다양한 포트폴리오에 합류했습니다.
오늘날 고객은 Azure AI Foundry를 사용하여 생산 준비 AI 응용 프로그램을 구축하면서 다양한 보안, 안전 및 개인 정보 보호 요구 사항을 설명합니다. Azure AI Foundry에서 제공되는 다른 모델과 마찬가지로 DeepSeek R1은 모델 행동에 대한 자동 평가 및 광범위한 보안 검토를 포함하여 엄격한 빨간 팀 구성 및 안전 평가를 거쳤습니다. AI 모델에 대한 Microsoft의 호스팅 보호 장치는 Azure의 보안 경계 내에서 고객 데이터를 유지하도록 설계되었습니다.
Azure AI 컨텐츠 안전
Azure AI Content Safety를 사용하면 내장 컨텐츠 필터링이 기본적으로 유연성을위한 옵트 아웃 옵션을 통해 악의적, 유해 또는 근경이없는 컨텐츠를 감지하고 차단하는 데 도움이됩니다. 또한 안전 평가 시스템을 통해 고객은 배포 전에 응용 프로그램을 효율적으로 테스트 할 수 있습니다. 이러한 보호 조치는 Azure AI Foundry가 기업이 AI 솔루션을 자신있게 구축하고 배포 할 수있는 안전하고 준수하며 책임있는 환경을 제공하는 데 도움이됩니다. 보다 Azure AI Foundry 및 Github 자세한 내용은.
보안 자세 관리로 시작하십시오
클라우드 용 Microsoft Defender
AI 워크로드는 특히 개발자가 오픈 소스 리소스를 활용할 때 새로운 사이버 공격 표면과 취약점을 소개합니다. 따라서 보안 자세 관리부터 시작하여 모델, 오케스트레이터, 접지 데이터 소스 및 이러한 구성 요소 주변의 직접 및 간접 위험과 같은 모든 AI 인벤토리를 발견하는 것이 중요합니다. 개발자가 DeepSeek R1 또는 기타 AI 모델로 AI 워크로드를 구축하면 클라우드 용 Microsoft DefenderAI 보안 자세 관리 기능 보안 팀이 AI 워크로드에 대한 가시성을 얻고, AI 사이버 공격 표면 및 취약점을 발견하고, 나쁜 행위자가 악용 할 수있는 사이버 공격 경로를 감지하며, 사이버 해임에 대한 보안 자세를 적극적으로 강화할 수있는 권장 사항을 얻을 수 있습니다.
AI 워크로드를 매핑하고 신원 위험, 민감한 데이터 및 인터넷 노출과 같은 보안 통찰력을 합성함으로써 클라우드 용 방어자는 지속적으로 보안 문제를 해결하고 AI 워크로드에서 중요한 간격을 우선 순위로 정하는 위험 기반 보안 권장 사항을 제안합니다. 관련 보안 권장 사항은 Azure Portal의 Azure AI 리소스 자체에도 나타납니다. 이를 통해 개발자 또는 워크로드 소유자에게 권장 사항에 직접 액세스 할 수 있으며 사이버 해당을 더 빨리 치료할 수 있습니다.
CyberThreat 보호 기능을 갖춘 DeepSeek R1 AI 워크로드를 보호하십시오
강력한 보안 자세를 취하면 사이버 공격의 위험이 줄어들지 만 AI의 복잡하고 역동적 인 특성은 런타임에서도 활성 모니터링이 필요합니다. AI 모델은 악의적 인 활동에서 면제되지 않으며 프롬프트 주입 사이버 공격 및 기타 사이버 해당에 취약 할 수 있습니다. AI 응용 프로그램을 보호하는 데 최신 모델을 모니터링하는 것이 중요합니다.
클라우드의 수비수 인 Azure AI Foundry와 통합 된 DeepSeek AI 애플리케이션은 비정상적이고 유해한 활동에 대한 DeepSeek AI 애플리케이션을 지속적으로 모니터링하고, 결과를 상관시키고, 보안 경보를 지원하는 증거와 함께 풍부하게합니다. 이는 SOC (Security Operations Center) 분석가에게 탈옥 사이버 공격, 자격 증명 도난 및 민감한 데이터 누출과 같은 활성 사이버 해당에 대한 경고를 제공합니다. 예를 들어, 신속한 주입 사이버 공격이 발생하면 Azure AI 컨텐츠 안전 프롬프트 실드는 실시간으로 차단할 수 있습니다. 그런 다음 경고는 Microsoft Defender for Cloud로 전송됩니다. 여기서 사건에는 Microsoft Threat Intelligence가 풍부하여 SOC 분석가가 IP 주소, 모델 배포 세부 정보 및 경고를 유발 한 의심스러운 사용자 프롬프트와 같은 지원 증거에 대한 가시성을 가진 사용자 동작을 이해하도록 돕습니다. .
또한 이러한 경고는와 통합됩니다 Microsoft Defender XDR보안 팀이 AI 워크로드 경고를 상관 건사로 중앙 집중화하여 생성 AI 응용 프로그램과 관련된 악의적 인 활동을 포함하여 사이버 공격의 전체 범위를 이해할 수 있도록합니다.
DeepSeek 앱의 사용을 안전하고 관리하십시오
DeepSeek는 DeepSeek R1 모델 외에도 소비자 중심 앱의 경우와 마찬가지로 데이터 수집 및 사이버 보안 관행이 조직 요구 사항과 일치하지 않을 수있는 로컬 서버에서 호스팅되는 소비자 앱을 제공합니다. 이는 직원과 파트너가 잠재적 인 데이터 유출 및 정책 위반으로 이어지는 미지의 AI 앱을 도입하면 조직이 직면 한 위험을 강조합니다. Microsoft Security는 조직에서 타사 AI 애플리케이션의 사용을 발견 할 수있는 기능을 제공하고 사용을 보호하고 통제하기위한 제어 기능을 제공합니다.
DeepSeek 앱 사용에 대한 보안 및 가시성
클라우드 앱 용 Microsoft Defender
Cloud Apps 용 Microsoft Defender는 850 개가 넘는 생성 AI 앱에 대한 즉시 사용 가능한 위험 평가를 제공하며 새로운 앱 목록은 새로운 앱 목록이 인기가 높아짐에 따라 지속적으로 업데이트됩니다. 즉, DeepSeek 앱을 포함하여 조직에서 이러한 생성 AI 앱의 사용을 발견하고 보안, 규정 준수 및 법적 위험을 평가하고 그에 따라 제어를 설정할 수 있습니다. 예를 들어, 고위험 AI 앱의 경우 보안 팀은이를 제재하지 않은 앱으로 태그하고 사용자의 앱에 대한 액세스를 완전히 차단할 수 있습니다.
포괄적 인 데이터 보안
데이터 보안
게다가, Microsoft Purview 데이터 보안 자세 관리 (DSPM) AI는 사용자 프롬프트의 민감한 데이터 및 비준수 사용법과 같은 데이터 보안 및 규정 준수 위험에 대한 가시성을 제공하고 위험을 완화하기위한 제어를 권장합니다. 예를 들어, AI 용 DSPM의 보고서는 DeepSeek 소비자 앱을 포함하여 생성 AI 소비자 앱에 붙여 넣은 민감한 데이터 유형에 대한 통찰력을 제공 할 수 있으므로 데이터 보안 팀은 데이터 보안 정책을 작성하고 미세 조정하여 해당 데이터를 보호 할 수 있습니다. 데이터 누출을 방지합니다.
민감한 데이터 누출 및 여과를 방지합니다
Microsoft Purview 데이터 손실 방지
조직 데이터의 유출은 AI 사용에 관한 보안 리더의 주요 관심사 중 하나이며, 조직이 사용자가 외부 타사 AI 응용 프로그램과 민감한 정보를 공유하지 못하게하는 제어를 구현하는 것의 중요성을 강조합니다.
Microsoft Purview 데이터 손실 방지 (DLP) 사용자가 민감한 데이터를 붙여 넣거나 민감한 콘텐츠를 포함하는 파일을 지원되는 브라우저의 생성 AI 앱에 업로드하지 못하게 할 수 있습니다. DLP 정책은 또한 내부자 위험 수준에 적응하여 ‘위험 증가’로 분류되고 ‘저 위험’으로 분류 된 사람들의 경우 덜 엄격한 제한 사항을 적용 할 수 있습니다. 예를 들어, 위험이 높은 사용자는 민감한 데이터를 AI 애플리케이션에 붙여 넣는 것이 제한되는 반면 위험이 낮은 사용자는 생산성을 중단하지 않을 수 있습니다. 이러한 기능을 활용하면 외부 타사 AI 응용 프로그램을 사용하여 잠재적 위험으로부터 민감한 데이터를 보호 할 수 있습니다. 그런 다음 보안 관리자는 이러한 데이터 보안 위험을 조사하고 Purview 내에서 내부자 위험 조사를 수행 할 수 있습니다. 이러한 동일한 데이터 보안 위험은 전체 론적 조사를 위해 Defender XDR에서 나타납니다.
이 기능은 Azure AI Foundry 및 Github를 기반으로하는 AI 앱과 조직의 사용자가 사용하는 AI 앱을 확보하고 관리하는 데 도움이되는 일부 기능에 대한 빠른 개요입니다. 우리는 당신이 이것이 유용하다는 것을 알기를 바랍니다!
자세한 내용을 배우고 AI 앱 보안을 시작하려면 아래의 추가 리소스를 살펴보십시오.
- 클라우드 용 Microsoft Defender의 AI 보안 자세 관리
- 클라우드 용 Microsoft Defender의 AI 워크로드에 대한 위협 보호
- 클라우드 앱 용 Defender와의 깊은 사용에 대한 가시성을 얻으십시오.
- 생성 AI 앱에 대한 Microsoft Purview Data Security 및 Compliance Propections
Microsoft Security를 통해 자세히 알아보십시오
Microsoft Security Solutions에 대한 자세한 내용은 우리의 방문을 방문하십시오웹 사이트.북마크보안 블로그보안 문제에 대한 전문가 보도를 따라 잡습니다. 또한 LinkedIn에서 우리를 따르십시오 (마이크로 소프트 보안 ) 및 x (@msftsecurity)) 사이버 보안에 대한 최신 뉴스 및 업데이트.
게시물 Microsoft Security를 통해 DeepSeek 및 기타 AI 시스템을 확보합니다먼저 나타났습니다 Microsoft AI 블로그.