릭 헌트증인 인 CEO 겸 공동 설립자는 보안 및 규정 준수 제품을 출시 한 경험이 광범위합니다. 그는 Palo Alto Networks, Google 및 Symantec에서 제품 및 마케팅에서 리더십 역할을 수행했습니다. CACCIA는 이전에 IPO를 통해 ArcSight에서 제품 마케팅을 주도하고 공개 회사로 운영되었으며 Exabeam의 최초의 최고 마케팅 책임자로 근무했습니다. 그는 버클리 캘리포니아 대학교에서 여러 학위를 보유하고 있습니다.
증인 기업에서 AI의 안전하고 안전한 사용을 보장하는 데 중점을 둔 보안 플랫폼을 개발하고 있습니다. 웹, 모바일 및 클라우드 컴퓨팅과 같은 각각의 주요 기술 변화와 함께 새로운 보안 문제가 발생하여 업계 리더가 등장 할 수있는 기회를 창출합니다. AI는이 진화의 다음 국경을 나타냅니다.
이 회사는 기계 학습, 사이버 보안 및 대규모 클라우드 운영에 대한 전문 지식을 결합하여 AI Security의 리더로 자리 매김하는 것을 목표로합니다. 이 팀은 AI 개발, 리버스 엔지니어링 및 멀티 클라우드 Kubernetes 배포에 대한 깊은 경험을 제공하여 AI 중심 기술 보안의 중요한 과제를 해결합니다.
증인이 공동 창립 한 이유는 무엇이며 AI 거버넌스 및 보안에서 어떤 주요 과제가 해결하려고 했습니까?
우리가 회사를 처음 시작했을 때, 우리는 보안 팀이 내부 AI 모델에 대한 공격에 대해 우려 할 것이라고 생각했습니다. 대신, 우리가 말한 첫 15 개의 CISO는 그 반대의 말을 반대에 말했다. 우리는 한 걸음 물러서서 문제가 무서운 사이버 공격을 막는 것이 아니라 회사가 AI를 생산적으로 사용할 수있게하는 것을 보았습니다. 거버넌스는 사이버 공격보다 덜 섹시하지만 보안 및 개인 정보 보호 팀이 실제로 필요한 것입니다. 그들은 직원들이 타사 AI를 통해하고있는 일, 허용 가능한 사용 정책을 구현하는 방법, 그리고 해당 데이터의 사용을 차단하지 않고 데이터를 보호하는 방법에 대한 가시성이 필요했습니다. 그것이 우리가 만든 것입니다.
Google Cloud, Palo Alto Networks 및 기타 사이버 보안 회사에서 광범위한 경험을 감안할 때 이러한 역할은 Witnessai 구축에 대한 접근 방식에 어떤 영향을 미쳤습니까?
나는 수년에 걸쳐 많은 시스와 이야기를 나 had습니다. 오늘 CISOS에서 듣는 가장 일반적인 것 중 하나는“AI에 관해서는 ‘박사님이되고 싶지 않습니다. 직원들이 더 나은 것을 사용하도록 돕고 싶습니다.” 사이버 보안 공급 업체와 오랫동안 일한 사람으로서 이것은 매우 다른 진술입니다. 웹이 새롭고 혁신적인 기술 일 때 닷컴 시대를 연상시킵니다. 우리는 증인을 구축 할 때 특히 고객이 AI를 안전하게 채택하는 데 도움이되는 제품 기능으로 시작했습니다. 우리의 메시지는이 물건이 마술과 같으며 물론 모든 사람이 마법을 경험하기를 원한다는 것이 었습니다. 보안 회사가 두려움 카드를 너무 빨리 플레이하기에는 너무 빠르며 우리는 달라지기를 원했습니다.
오늘날 시장의 다른 AI 거버넌스 및 보안 플랫폼과 차별화되는 것은 무엇입니까?
글쎄, 우주의 대부분의 다른 공급 업체는 주로 거버넌스 부분이 아닌 보안 부분에 중점을 둡니다. 나에게 거버넌스는 차의 브레이크와 같습니다. 정말 빨리 어딘가에 가고 싶다면 강력한 엔진 외에 효과적인 브레이크가 필요합니다. 브레이크가 없으면 페라리를 매우 빨리 운전하지 않을 것입니다. 이 경우 AI를 사용하는 회사는 페라리이며 증인은 브레이크와 스티어링 휠입니다.
대조적으로, 대부분의 경쟁 업체는 조직의 AI 모델에 대한 이론적 무서운 공격에 중점을 둡니다. 그것은 실제 문제이지만, 직원들이 이미 인터넷에있는 5,000 개 이상의 AI 앱을 사용하는 방법에 대한 가시성과 제어와 다른 문제입니다. AI 방화벽 공급 업체가 효과적인 거버넌스 및 위험 관리를 추가하는 것보다 AI 방화벽을 추가하는 것이 훨씬 쉽습니다.
증인은 엔터프라이즈 보안 및 규정 준수와 AI 혁신의 필요성을 어떻게 균형을 이루는가?
앞서 쓴 것처럼, 우리는 AI가 마술처럼되어야한다고 믿습니다. 그것은 당신이 놀라운 일을하는 데 도움이 될 수 있습니다. 이를 염두에두고 AI 혁신과 보안이 연결되어 있다고 생각합니다. 직원이 AI를 안전하게 사용할 수 있다면 자주 사용하면 앞으로 나아갈 것입니다. 일반적인 보안 사고 방식을 적용하고 잠그면 경쟁 업체는 그렇게하지 않으며 앞으로 나아갈 것입니다. 우리가하는 모든 일은 AI의 안전한 채택을 가능하게하는 것입니다. 한 고객이 나에게 말했듯이,“이 물건은 마술이지만 대부분의 공급 업체는 그것을 흑 마법, 무서운 것처럼 두려워하는 것처럼 취급합니다.” 증인에서 우리는 마술을 가능하게하는 데 도움을줍니다.
AI 거버넌스에 관한 회사의 핵심 철학에 대해 이야기 할 수 있습니까?
우리는 정기적으로 우리가 발표 한 행사에서 CISO가 우리에게 올라 오게하고, 그들은 우리에게 다음과 같이 말합니다.“당신의 경쟁자들은 AI가 얼마나 무서운지에 관한 것이며, 당신은 실제로 그것을 효과적으로 사용하는 방법을 알려주는 유일한 공급 업체입니다.” Google의 Sundar Pichai는“AI는 화재보다 더 심오 할 수 있습니다”라고 말했습니다. 이는 흥미로운 은유입니다. 우리가 최근에 보았 듯이 화재는 엄청나게 피해를 줄 수 있습니다. 그러나 통제 된 화재는 강철을 만들어 혁신을 가속화 할 수 있습니다. 때때로 Witnessai에서 우리는 고객이 AI “화재”를 안전하게 지시하여 강철을 만들 수있는 혁신을 창출하는 것에 대해 이야기합니다. 또는 AI가 마법과 비슷하다고 생각되면 아마도 우리의 목표는 마법의 지팡이를주고 지시하고 통제하는 것입니다.
두 경우 모두 AI를 안전하게 활성화하는 것이 목표라고 절대적으로 믿습니다. 예를 들어, DLP (Data Loss Prevention) 도구가 많이 있습니다. 영원히 주변의 기술입니다. 사람들은 AI 사용에 DLP를 적용하려고 시도 할 수 있습니다. DLP 브라우저 플러그는 작업에 대한 도움을 요청하는 오랜 프롬프트로 입력했으며 그 프롬프트에는 고객 ID 번호가 광고가 있습니다. 어떻게됩니까? DLP 제품은 프롬프트가 나오지 않으며 답을 얻지 못합니다. 그것은 제한입니다. 대신, 증인을 사용하면 동일한 숫자를 식별하고 조용하고 외과 적으로이를 즉시 수정 한 다음 AI 응답에서 신고 해제하여 데이터를 안전하게 유지하면서 유용한 답변을 얻을 수 있습니다. 그것은 활성화입니다.
생성 AI를 배포 할 때 기업이 직면하는 가장 큰 위험은 무엇이며 증인이 어떻게이를 완화합니까?
첫 번째는 가시성입니다. 많은 사람들이 AI 응용 프로그램 유니버스가 Chatgpt와 Deepseek이 아니라는 것을 알고 놀랐습니다. 인터넷에는 문자 그대로 수천 개의 AI 앱이 있으며 기업은 이러한 앱을 사용하여 직원의 위험을 흡수하므로 첫 번째 단계는 가시성을 얻는 것입니다. 직원이 사용하는 AI 앱은 어떤 APS를 사용하고 있으며, 해당 앱에서 무엇을하고 있으며, 위험합니까?
두 번째는 제어입니다. 법무 팀은 고객 데이터, 시민 데이터, 지적 재산 및 직원 안전의 안전을 보장하는 AI에 대한 포괄적 인 허용 가능한 사용 정책을 구성했습니다. 이 정책을 어떻게 구현 하시겠습니까? 엔드 포인트 보안 제품에 있습니까? 방화벽에서? VPN에서? 클라우드에서? 그들이 모두 다른 공급 업체 출신이라면 어떻게해야합니까? 따라서 AI 모델, 앱, 구름 및 보안 제품에서 일관된 허용 가능한 사용 정책을 정의하고 시행하는 방법이 필요합니다.
세 번째는 자신의 앱의 보호입니다. 2025 년에는 Enterprises 내에서 LLM을 훨씬 빠르게 채택한 다음 해당 LLM에 의해 구동되는 채팅 앱의 빠른 롤아웃을 보게 될 것입니다. 따라서 기업은 앱이 보호 될뿐만 아니라 앱이 경쟁 업체를 추천하는 것과 같은 “멍청한 것”이라고 말하지 않도록해야합니다.
우리는 세 가지를 모두 해결합니다. 우리는 사람들이 액세스하는 앱의 가시성, 앱 사용 방법, 자신이 누구인지, 무엇을하려고하는지에 따라 정책, 탈옥이나 원치 않는 행동과 같은 공격을 방지하기위한 매우 효과적인 도구를 제공합니다.
증인의 AI 관찰 기능은 회사가 직원 AI 사용을 추적하고 “섀도 AI”위험을 방지하는 데 어떻게 도움이됩니까?
Witnessai는 직원이 액세스하는 모든 AI 앱의 카탈로그를 쉽고 조용히 구축합니다. 우리는 해당 앱이 어디에 있는지, 데이터를 호스팅하는 위치 등을 알려 주므로 이러한 앱이 얼마나 위험한 지 이해합니다. 대화 가시성을 켜면 깊은 패킷 검사를 사용하여 프롬프트와 응답을 관찰 할 수 있습니다. 우리는 위험과 의도별로 프롬프트를 분류 할 수 있습니다. 의도는 “쓰기 코드”또는 “회사 계약 작성”일 수 있습니다. 그런 다음 의도 기반 정책 관리를 작성할 수 있기 때문에 중요합니다.
AI 정책 집행은 기업 AI 규정 준수를 보장하는 데 어떤 역할을하며, 증인 이이 프로세스를 어떻게 간소화합니까?
규정 준수는 회사가 귀하의 회사가 규정이나 정책을 따르고 있는지 확인하고 규정 준수를 보장하는 데 두 가지 부분이 있습니다. 첫 번째는 문제가있는 활동을 식별 할 수 있어야한다는 것입니다. 예를 들어, 직원이 데이터 보호법을 위반할 수있는 방식으로 고객 데이터를 사용하고 있음을 알아야합니다. 우리는 관찰 가능성 플랫폼으로 그렇게합니다. 두 번째 부분은 해당 활동에 대한 정책을 설명하고 시행하는 것입니다. 고객 데이터가 유출되고 있다는 것을 간단히 알고 싶지 않으며 유출을 중단하고 싶습니다. 따라서 우리는 고유 한 AI 특정 정책 엔진, 증인/통제를 구축하여 데이터를 보호하고 유해하거나 불법적 인 대응을 방지하기위한 신원 및 의도 기반 정책을 쉽게 구축 할 수 있습니다. 예를 들어, 정책을 구축 할 수 있습니다. “법무 부서만이 Chatgpt를 사용하여 회사 계약을 작성할 수 있으며, 그렇다면 PII를 자동으로 수정할 수 있습니다.”라고 말합니다. 말하기 쉬우 며 증인이있어 구현하기 쉽습니다.
Witnessai는 LLM 탈옥 및 신속한 주사 공격에 대한 우려를 어떻게 해결합니까?
우리는 하드 코어 AI 연구팀이 있습니다. 초기에 그들은 널리 사용 가능한 교육 데이터 세트를 끌어 당기는 것 외에도 합성 공격 데이터를 만들기위한 시스템을 구축했습니다. 결과적으로, 우리는 모든 것에 대한 신속한 주입을 벤치마킹했습니다. 우리는 99%가 넘는 효과적이며 모델 자체가 놓친 공격을 정기적으로 포착합니다.
실제로, 우리가 말하는 대부분의 회사는 직원 앱 거버넌스부터 시작하기를 원하고 나중에 내부 데이터를 기반으로 AI 고객 앱을 출시합니다. 그래서 그들은 증인을 사용하여 사람들을 보호하고 프롬프트 주입 방화벽을 켭니다. 하나의 시스템, 정책을 구축하는 일관된 방법, 확장이 쉽습니다.
증인에 대한 장기 목표는 무엇이며 향후 5 년 동안 AI 거버넌스가 어디에서 발전하고 있습니까?
지금까지 우리는 여기서 개인 간 앱 모델에 대해서만 이야기했습니다. 다음 단계는 App to App, 즉 에이전트 AI를 처리하는 것입니다. 우리는 에이전트와 인간 모두와 똑같이 잘 작동하도록 플랫폼의 API를 설계했습니다. 그 외에도, 우리는 AI 시대에 네트워크 수준의 가시성 및 정책 관리를 얻을 수있는 새로운 방법을 구축했다고 생각하며, 회사를 염두에두고 회사를 성장시킬 것입니다.
훌륭한 인터뷰에 감사드립니다. 더 배우고 싶은 독자들은 방문해야합니다. 증인.
게시물 Rick Caccia, 증인의 CEO 겸 공동 창립자-인터뷰 시리즈 먼저 나타났습니다 Unite.ai.