기초 AI 모델이 권력과 도달 범위가 커짐에 따라 새로운 공격 표면, 취약성 및 윤리적 위험도 노출됩니다. TII (Technology Innovation Institute)의 SSRC (Secure Systems Research Center) 의이 백서는 대규모 AI 모델의 보안, 탄력성 및 안전을 보장하기위한 포괄적 인 프레임 워크를 간략하게 설명합니다. 프레임 워크는 제로 트러스트 원칙을 적용함으로써 교육, 배치, 추론 및 배포 후 모니터링에서 위협을 다룹니다. 또한 지정 학적 위험, 모델 오용 및 데이터 중독을 고려하여 안전한 컴퓨팅 환경, 검증 가능한 데이터 세트, 지속적인 검증 및 런타임 보증과 같은 전략을 제공합니다. 이 논문은 정부, 기업 및 개발자를위한 로드맵을 제안하여 중요한 응용 프로그램을위한 신뢰할 수있는 AI 시스템을 공동으로 구축 할 수 있습니다.