데이비드 마허 역할을 한다 상호 신뢰의 수석 부사장 겸 최고 기술 책임자(CTO)입니다. 신뢰할 수 있는 분산 시스템, 보안 시스템 및 위험 관리 분야에서 30년 이상의 경험을 보유한 Dave는 R&D 활동을 주도하고 회사 자회사 전반에서 주요 리더십 직책을 맡았습니다. 그는 디지털 미디어 및 IoT 인증 기관인 Seacert Corporation의 전 회장이자 소프트웨어 자기 방어 시스템 개발업체인 whiteCryption Corporation의 회장을 역임했습니다. 그는 또한 말린(Marlin)의 공동 회장을 역임했습니다. 신뢰하다 세계 유일의 독립적인 디지털 권한 관리 생태계를 감독하는 MTMO(Management Organization).
상호 신뢰 분산 운영 체제가 개방형 네트워크를 통해 데이터와 계산을 보호하고 관리할 수 있도록 하는 혁신을 개발하여 신뢰할 수 있는 분산 컴퓨팅에 대한 기초 특허를 얻었습니다.
원래 연구에 뿌리를 둔 Intertrust는 특히 IoT와 AI를 위해 장치와 데이터 운영을 통합하는 신뢰할 수 있는 컴퓨팅 서비스를 제공하는 제품 중심 회사로 발전했습니다. 해당 시장에는 미디어 배포, 장치 ID/인증, 디지털 에너지 관리, 분석 및 클라우드 스토리지 보안이 포함됩니다.
AI 신뢰 격차를 줄이고 AI 안전과 신뢰성에 대한 대중의 증가하는 우려를 어떻게 해결할 수 있습니까?
투명성은 AI에 대해 점점 커지는 우려를 해결하는 데 도움이 될 가장 중요한 특성입니다. 투명성에는 소비자와 기술자 모두가 어떤 AI 메커니즘이 우리가 상호 작용하는 시스템의 일부인지, 어떤 종류의 혈통을 가지고 있는지, 즉 AI 모델이 훈련되는 방식, 어떤 가드레일이 존재하는지, 모델 개발에 어떤 정책이 적용되었는지, 어떤 정책이 있는지 이해하는 데 도움이 되는 기능이 포함됩니다. 특정 메커니즘의 안전과 보안에 대한 다른 보증도 존재합니다. 더 큰 투명성을 통해 우리는 실제 위험과 문제를 해결할 수 있을 것이며 비합리적인 두려움과 추측으로 인해 주의가 산만해지지 않을 것입니다.
메타데이터 인증은 AI 출력의 신뢰성을 보장하는 데 어떤 역할을 합니까?
메타데이터 인증은 AI 모델이나 기타 메커니즘에 대한 보증이 신뢰할 수 있다는 확신을 높이는 데 도움이 됩니다. AI 모델 카드는 특정 목적을 위한 AI 메커니즘(모델, 에이전트 등)의 사용을 평가하는 데 도움이 될 수 있는 메타데이터 모음의 예입니다. 우리는 성능, 편향, 훈련 데이터의 속성 등에 대한 정량적 측정과 인증된 주장을 위한 표준을 갖춘 모델 카드의 명확성과 완전성을 위한 표준을 확립해야 합니다.
조직은 LLM(대형 언어 모델)에서 AI 편견과 환각의 위험을 어떻게 완화할 수 있습니까?
레드팀 구성은 모델 개발 및 사전 출시 과정에서 이러한 위험과 기타 위험을 해결하기 위한 일반적인 접근 방식입니다. 원래 보안 시스템을 평가하는 데 사용되었던 이 접근 방식은 이제 AI 기반 시스템의 표준이 되고 있습니다. 이는 전체 개발 공급망을 포괄하는 초기 개발부터 현장 배포까지 시스템의 전체 수명 주기를 포함할 수 있고 포함해야 하는 위험 관리에 대한 시스템 접근 방식입니다. 특히 모델에 사용되는 훈련 데이터의 분류 및 인증이 중요합니다.
AI 시스템의 투명성을 높이고 “블랙박스” 문제와 관련된 위험을 줄이기 위해 기업은 어떤 조치를 취할 수 있습니까?
회사가 모델을 어떻게 사용할 것인지, 그리고 내부 사용이든 고객 사용이든 직간접적으로 배포 시 어떤 종류의 책임을 질 수 있는지 이해합니다. 그런 다음 모델 카드에 대한 주장, 레드팀 시험 결과, 회사의 특정 용도에 대한 차등 분석, 공식적으로 평가된 내용, 다른 사람들의 의견을 포함하여 배포할 AI 메커니즘의 계보를 이해합니다. 경험. 현실적인 환경에서 포괄적인 테스트 계획을 활용한 내부 테스트가 반드시 필요합니다. 이 초기 영역에서는 모범 사례가 발전하고 있으므로 이를 따라가는 것이 중요합니다.
윤리적 지침을 염두에 두고 AI 시스템을 어떻게 설계할 수 있으며, 다양한 산업 분야에서 이를 달성하는 데 어떤 어려움이 있습니까?
이는 연구 분야이며, 윤리는 개념에 기반을 두고 있고 AI 메커니즘은 대부분 데이터 중심이기 때문에 윤리 개념과 AI의 현재 버전이 일치하지 않는다고 많은 사람들이 주장합니다. 예를 들어, ‘속이지 말라’처럼 인간이 이해하는 간단한 규칙은 보장하기 어렵습니다. 그러나 목표 기반 학습에서 목표의 상호 작용 및 충돌에 대한 신중한 분석, 대략적인 데이터 및 허위 정보 제외, 가드레일을 적용하고 옹호 또는 동정과 같은 윤리 원칙 위반을 테스트하는 출력 필터 사용을 요구하는 규칙 구축 출력 콘텐츠에 폭력을 사용하는 것을 고려해야 합니다. 마찬가지로 편견에 대한 엄격한 테스트는 모델을 윤리적 원칙에 더 잘 맞추는 데 도움이 될 수 있습니다. 다시 말하지만, 이 중 대부분은 개념적일 수 있으므로 AI 메커니즘은 인간이 수행하는 방식으로 지침을 “이해”하지 못하므로 주어진 접근 방식의 효과를 테스트하는 데 주의를 기울여야 합니다.
특히 AI가 IoT 시스템과 더 많이 통합될 때 AI가 미래에 직면하게 될 주요 위험과 과제는 무엇입니까?
우리는 AI를 사용하여 중요한 인프라 프로세스를 최적화하는 시스템을 자동화하고 싶습니다. 예를 들어, 우리는 에너지 생산, 저장, 사용의 수천 가지 요소를 조정하는 가상 발전소를 사용하여 에너지 분배와 사용을 최적화할 수 있다는 것을 알고 있습니다. 이는 대규모 자동화와 AI를 사용하여 미세한 의사결정을 지원하는 경우에만 실용적입니다. 시스템에는 최적화 목표(예: 소비자와 공급자의 이익)가 상충되는 에이전트가 포함됩니다. AI 안전과 보안은 이러한 시스템을 광범위하게 배포하는 데 매우 중요합니다.
AI 시스템에서 엔터티를 안전하게 식별하고 인증하려면 어떤 유형의 인프라가 필요합니까?
우리는 AI 시스템과 그 배포의 모든 측면을 평가하는 데 관여하는 주체가 AI 시스템, 그 혈통, 사용 가능한 교육 데이터, 센서 데이터의 출처, 사건 및 이벤트에 영향을 미치는 보안에 대한 권위 있고 확실한 주장을 게시할 수 있는 강력하고 효율적인 인프라가 필요합니다. 또한 해당 인프라는 AI 메커니즘을 포함하는 시스템 사용자와 AI 모델 및 최적화 프로그램의 출력을 기반으로 결정을 내리는 자동화 시스템 내의 요소에 의한 주장과 주장을 효율적으로 검증할 수 있도록 해야 합니다.
Intertrust에서 귀하가 진행 중인 작업과 그것이 우리가 논의한 내용에 어떻게 영향을 미치는지에 대한 통찰력을 공유해 주시겠습니까?
우리는 이전 질문에서 요구되는 일종의 신뢰 관리 인프라를 제공할 수 있는 기술을 연구하고 설계합니다. 우리는 AI 구성 요소를 포함하는 IoT 시스템에서 발생하는 규모, 대기 시간, 보안 및 상호 운용성 문제를 구체적으로 해결하고 있습니다.
Intertrust의 PKI(공개 키 인프라) 서비스는 IoT 장치를 어떻게 보호하며, 대규모 배포를 위해 확장 가능한 이유는 무엇입니까?
당사의 PKI는 장치 및 디지털 콘텐츠의 거버넌스를 포함하는 시스템의 신뢰 관리를 위해 특별히 설계되었습니다. 우리는 규정 준수를 보장하는 수십억 개의 암호화 키와 인증서를 배포했습니다. 우리의 현재 연구에서는 “제로 트러스트” 배포에 대한 모범 사례와 수조 개의 센서 및 이벤트 생성기를 수용할 수 있는 장치 및 데이터 인증을 포함하여 대규모 산업 자동화와 전 세계적으로 중요한 인프라에 필요한 규모와 보증을 다룹니다.
NIST의 AI 이니셔티브에 참여하게 된 동기는 무엇이며, 귀하의 참여가 신뢰할 수 있고 안전한 AI 표준 개발에 어떻게 기여합니까?
NIST는 보안 시스템의 표준 및 모범 사례 개발에 있어 엄청난 경험과 성공을 거두었습니다. Intertrust의 미국 AISIC 수석 조사관으로서 저는 AI 메커니즘을 포함하는 신뢰 관리 시스템을 개발하는 데 있어 중요한 표준과 모범 사례를 옹호할 수 있습니다. 과거 경험을 통해 저는 NIST가 상호 운용성을 촉진하는 중요한 기술 표준을 공식화하고 발표하는 데 도움을 주는 동시에 창의성, 발전 및 산업 협력을 촉진하기 위해 취하는 접근 방식에 특히 감사합니다. 이러한 표준은 사회가 직면한 다양한 위험을 해결하면서 유익한 기술의 채택을 촉진할 수 있습니다.
훌륭한 인터뷰에 감사드립니다. 더 자세히 알고 싶은 독자들은 방문하시기 바랍니다. 상호 신뢰.
게시물 Intertrust의 CTO David Maher – 인터뷰 시리즈 처음 등장한 Unite.AI.