AI 설명 가능성에 블랙 박스를여십시오

ai-설명-가능성에-블랙-박스를여십시오
AI 설명 가능성에 블랙 박스를여십시오

인공 지능 (AI)은 개인화 된 권장 사항에서 비판적 의사 결정에 이르기까지 일상 생활의 거의 모든 측면에 얽혀 있습니다. 그것은 주어진 것입니다 AI는 계속 발전 할 것입니다그와 함께 AI와 관련된 위협도 더욱 정교해질 것입니다. 기업이 복잡성이 증가함에 따라 AI 지원 방어를 제정함에 따라 조직 전체의 보안 문화를 촉진하기위한 다음 단계는 AI의 설명을 향상시키는 것입니다.

이러한 시스템은 인상적인 기능을 제공하지만 종종“블랙 박스“ – 모델이 어떻게 결론에 도달했는지에 대한 명확한 통찰력없이 결과를 생산합니다. AI 시스템은 허위 진술을하거나 잘못된 행동을 취합니다 중대한 문제와 잠재적 인 비즈니스 중단을 유발할 수 있습니다. 회사가 AI로 인해 실수를 저지르면 고객과 소비자는 설명을 요구하고 곧 해결책을 요구합니다.

그러나 무엇을 비난해야합니까? 종종 나쁜 데이터는 훈련에 사용됩니다. 예를 들어, 대부분의 공개 Genai 기술은 교육을받습니다 인터넷에서 사용할 수있는 데이터종종 검증되지 않고 부정확합니다. AI는 빠른 응답을 생성 할 수 있지만 해당 응답의 정확도는 훈련 된 데이터의 품질에 달려 있습니다.

AI 실수는 잘못된 명령 및 허위 보안 결정을 가진 스크립트 생성을 포함하여 다양한 경우에 발생하거나 AI 시스템의 허위 비난으로 인해 비즈니스 시스템에서 직원이 작업하는 것을 막을 수 있습니다. 모두 상당한 사업 중단을 일으킬 가능성이 있습니다. 이것은 투명성을 보장하는 것이 AI 시스템에 대한 신뢰를 구축하는 데 핵심적인 많은 이유 중 하나 일뿐입니다.

신뢰 구축

우리는 모든 종류의 출처와 정보를 신뢰하는 문화에 존재합니다. 그러나 동시에, 우리는 뉴스, 정보 및 청구를 지속적으로 검증 해야하는 증거와 검증을 점점 더 요구합니다. AI에 관해서는, 우리는 부정확 할 가능성이있는 시스템을 신뢰하고 있습니다. 더 중요한 것은 AI 시스템이 어떤 결정을 내릴지에 근거하여 투명성없이 AI 시스템이 취하는 행동이 정확한지 여부를 아는 것은 불가능하다. 사이버 AI 시스템이 기계를 종료하지만 표지판을 해석하는 실수를 저지른 경우 어떻게해야합니까? 어떤 정보가 시스템을 이끌어 내기 위해 어떤 정보를 주도했는지에 대한 통찰력이 없다면, 그것이 올바른 것을 만들었는지 알 수있는 방법이 없습니다.

비즈니스 중단은 실망 스럽지만 AI 사용에 대한 가장 중요한 관심사 중 하나는 데이터 개인 정보입니다. Chatgpt와 같은 AI 시스템은 수신 한 데이터에서 답변을 소스하는 기계 학습 모델입니다. 따라서 사용자 나 개발자가 실수로 민감한 정보를 제공하는 경우 기계 학습 모델은 해당 데이터를 사용하여 다른 사용자에 대한 응답을 생성 할 수 있습니다. 기밀 정보를 공개하십시오. 이러한 실수는 회사의 효율성, 수익성 및 가장 중요한 고객 신뢰를 심각하게 방해 할 수 있습니다. AI 시스템은 효율성을 높이고 프로세스를 용이하게하기위한 것이지만, 출력을 신뢰할 수 없기 때문에 지속적인 검증이 필요한 경우 조직은 시간을 낭비 할뿐만 아니라 잠재적 인 취약점의 문을 열고 있습니다.

책임있는 AI 사용을위한 교육 팀

AI 사용의 잠재적 위험으로부터 조직을 보호하기 위해 IT 전문가는 AI가 책임감있게 사용되도록 동료를 적절히 교육하는 데 중요한 책임을집니다. 이를 통해 생존력과 수익성을 위협하는 사이버 공격으로부터 조직을 안전하게 유지하는 데 도움이됩니다.

그러나 교육 팀 이전에 IT 리더는 내부적으로 조정하여 AI 시스템이 조직에 어떤 적합한 지 결정해야합니다. AI로 돌진하면 나중에 역효과를 낳을 것이므로 대신 조직의 요구에 중점을 두어 작게 시작하십시오. 선택한 표준 및 시스템이 조직의 현재 기술 스택 및 회사 목표와 일치하고 AI 시스템이 선택한 다른 공급 업체와 동일한 보안 표준을 충족하는지 확인하십시오.

시스템이 선택되면 IT 전문가는 팀이 이러한 시스템에 노출되어 성공을 보장하기 시작할 수 있습니다. 작은 작업에 AI를 사용하고 성능이 잘 수행되는 위치와 그렇지 않은 위치를보고, 적용해야 할 잠재적 인 위험이나 검증이 무엇인지 배우십시오. 그런 다음 AI를 사용하여 작업을 보강하여 간단한 “방법”질문을 포함하여 더 빠른 셀프 서비스 해상도를 가능하게합니다. 거기에서 유효성 검사를 제자리에 두는 방법을 가르쳐 줄 수 있습니다. 이것은 우리가 더 많은 일자리가 경계 조건과 검증을한데 모으는 것에 관한 것이기 때문에, AI를 사용하여 소프트웨어 작성을 지원하는 것과 같은 작업에서도 이미 보았을 때 가치가 있습니다.

팀 구성원을위한 이러한 실행 가능한 단계 외에도 토론을 시작하고 격려하는 것도 필수적입니다. AI가 사용자가 요구하는 방법에 대한 개방형, 데이터 중심, 대화를 장려하십시오. 문제를 정확하고 빠르게 해결하고 있습니까? 회사와 최종 사용자 모두에게 생산성을 높이고 있습니까? 고객 NPS 점수가 이러한 AI 중심 도구로 인해 증가하고 있습니까? 투자 수익률 (ROI)을 명확하게하고 그 전면과 중앙을 유지하십시오. 명확한 커뮤니케이션은 책임감있는 용도에 대한 인식이 성장할 수 있으며 팀 구성원이 AI 시스템의 작동 방식을 더 잘 파악함에 따라 책임감있게 사용할 가능성이 높습니다.

AI에서 투명성을 달성하는 방법

교육 팀과 인식 증가가 중요하지만 AI의 투명성을 달성하려면 모델을 훈련시키는 데 사용되는 데이터 주변에 더 많은 컨텍스트가있어 품질 데이터 만 사용하는 것이 중요합니다. 바라건대, 시스템이 어떻게 완전히 신뢰할 수 있도록 시스템의 이유를 확인할 수있는 방법이 있기를 바랍니다. 그러나 그때까지, 우리는 검증 및 가드 레일로 작동 할 수있는 시스템이 필요하며 그들이 준수한다는 것을 증명해야합니다.

하는 동안 가득한 투명도 ~ 할 것이다 필연적으로 가져가다 시간 에게 성취하다, 그만큼 빠른 성장 ~의 일체 포함 그리고 그것은 용법 만들다 그것 필요한 에게 일하다 빠르게. AI 모델이 계속됩니다 복잡성 증가그들은 인류에게 큰 차이를 만들 수있는 힘을 가지고 있지만, 오류의 결과도 증가합니다. 결과적으로, 이러한 시스템이 어떻게 결정에 도달하는지 이해하는 것은 매우 가치 있고 효과적이고 신뢰할 수있는 상태를 유지하는 데 필요합니다. 투명한 AI 시스템에 중점을 두어 기술이 편견이없고 윤리적이며 효율적이며 정확한 상태를 유지하는 동안 기술이 유용 할 수 있습니다.

게시물 AI 설명 가능성에 블랙 박스를여십시오 먼저 나타났습니다 Unite.ai.