Neurosymbolic AI가 생성 AI의 신뢰성 문제를 해결할 수 있는 방법

Date:

생성 AI 최근 몇 년 동안 인상적인 발전을 이루었습니다. 에세이를 쓰고, 예술 작품을 만들고, 심지어 음악을 작곡할 수도 있습니다. 그러나 사실을 정확하게 파악하는 데 있어서는 종종 부족합니다. 얼룩말은 물속에 산다거나 에펠탑이 로마에 있다는 것을 자신있게 말해 줄 수도 있습니다. 이러한 실수는 무해해 보일 수도 있지만 더 큰 문제인 신뢰를 지적합니다. 의료, 법률, 금융과 같은 분야에서는 AI가 그러한 오류를 범하게 해서는 안 됩니다.

이것이 바로 신경기호 AI가 도움이 될 수 있는 부분입니다. 신경망의 힘과 상징적 AI의 논리를 결합함으로써 생성적 AI가 직면한 신뢰성 문제 중 일부를 해결할 수 있습니다. 신경기호 AI를 사용하면 단순히 답변을 생성하는 것이 아니라 신뢰할 수 있는 답변을 생성하는 시스템을 구축할 수 있습니다.

생성 AI가 신뢰할 수 없는 이유

Generative AI는 방대한 양의 데이터에서 패턴을 분석하여 작동합니다. 이것이 바로 다음에 어떤 단어나 이미지가 나올지 예측하는 방법입니다. 이는 믿을 수 없을 정도로 다재다능한 고급 자동 완성 도구와 같지만 실제로는 아무것도 “알지” 못합니다. 그것은 단지 확률을 재생합니다. 확률에 대한 이러한 의존으로 인해 예측이 불가능해질 수 있습니다. 생성적 AI가 항상 가장 가능성이 높은 옵션을 선택하는 것은 아닙니다. 대신, 학습한 패턴을 기반으로 다양한 가능성 중에서 선택합니다. 이러한 임의성은 창의적으로 만들 수 있지만 동일한 입력이 다른 출력으로 이어질 수 있음을 의미하기도 합니다. 그러한 불일치는 신뢰할 수 있는 답변이 필요한 심각한 상황에서 문제가 됩니다.

생성 AI는 사실을 이해하지 못합니다. 패턴을 모방하기 때문에 때로는 사물을 꾸며내고 실제처럼 제시하기도 합니다. 이러한 AI 경향은 종종 다음과 같이 알려져 있습니다. 환각. 예를 들어 AI는 유명한 사람의 인용문을 만들어내거나 존재하지 않는 인용문을 만들 수도 있습니다. 이는 새로운 콘텐츠를 만들어야 할 때 유용하지만 특히 AI를 사용하여 의료, 법률 또는 재정 문제에 대한 조언을 제공하는 경우 심각한 문제가 될 수 있습니다. 이는 사람들이 사실이 아닌 정보를 신뢰하도록 오해할 수 있습니다.

설상가상으로 AI가 실수를 하면 스스로 설명하지 못합니다. 왜 특정 답변을 주었는지, 어떻게 해결했는지 확인할 방법이 없습니다. 그것은 본질적으로 수학적 가중치와 확률의 얽힌 추론을 숨기는 블랙박스입니다. 간단한 추천이나 일상적인 도움을 요청할 때는 괜찮을 수 있지만, AI 결정이 의료, 직업 또는 재정과 같은 사항에 영향을 미치기 시작하면 훨씬 더 우려됩니다. AI가 치료법을 제안하거나 채용 결정을 내릴 때 왜 그 답변을 선택했는지 모르면 신뢰하기 어렵습니다.

기본적으로 생성 AI는 패턴 일치자입니다. 그것은 추론하거나 생각하지 않습니다. 훈련된 데이터를 모방하여 응답을 생성합니다. 이것은 인간처럼 들리게 만들지만 또한 연약하게 만듭니다. 입력의 작은 변화가 큰 실수로 이어질 수 있습니다. AI의 통계적 기반은 패턴과 확률에 의존하므로 본질적으로 무작위입니다. 이를 통해 예측이 틀렸더라도 매우 확실한 예측을 할 수 있습니다. 법적 조언이나 의학적 권고와 같이 위험이 높은 분야에서는 이러한 예측 불가능성과 신뢰성 부족이 심각한 위험을 초래합니다.

Neurosymbolic AI가 신뢰성을 향상시키는 방법

신경기호 AI 생성 AI의 신뢰성 문제 중 일부를 해결할 수 있습니다. 패턴을 인식하는 신경망과 논리를 사용하여 추론하는 상징적 AI라는 두 가지 강점을 결합합니다. 신경망은 텍스트나 이미지와 같은 복잡한 데이터를 처리하는 데 탁월합니다. Symbolic AI는 이 정보를 규칙을 사용해 확인하고 정리합니다. 이러한 조합을 통해 더 스마트할 뿐만 아니라 더 안정적인 시스템을 만들 수 있습니다.

사용하여 상징적 AI생성 AI에 추론 계층을 추가하여 신뢰할 수 있는 소스나 규칙에 대해 생성된 정보를 확인할 수 있습니다. 이는 AI 환각의 위험을 줄여줍니다. 예를 들어 AI가 역사적 사실을 제공하는 경우입니다. 신경망은 데이터를 분석하여 패턴을 찾고, 상징적 AI는 출력이 정확하고 논리적으로 일관되도록 보장합니다. 동일한 원칙이 의료에도 적용될 수 있습니다. AI 도구는 신경망을 사용하여 환자 데이터를 처리할 수 있지만 상징적 AI는 권장 사항이 확립된 의료 지침과 일치하도록 보장합니다. 이 추가 단계를 통해 결과가 정확하고 근거 있게 유지됩니다.

Neurosymbolic AI는 생성적 AI에 투명성을 가져올 수도 있습니다. 시스템이 데이터를 통해 추론할 때 어떻게 답에 도달했는지 정확하게 보여줍니다. 예를 들어 법률이나 금융 분야에서 AI는 제안을 생성하는 데 사용한 특정 법률이나 원칙을 지적할 수 있습니다. 이러한 투명성은 사용자가 결정 이면의 논리를 볼 수 있고 AI의 신뢰성에 대해 더 큰 확신을 가질 수 있기 때문에 신뢰를 구축합니다.

또한 일관성을 가져옵니다. 신경기호적 AI는 규칙을 사용하여 결정을 안내함으로써 입력이 유사하더라도 반응이 안정적으로 유지되도록 보장합니다. 이는 일관성이 중요한 재무 계획과 같은 영역에서 중요합니다. 논리적 추론 계층은 AI의 출력을 안정적으로 유지하고 견고한 원칙을 기반으로 예측 불가능성을 줄입니다.

창의성과 논리적 사고의 결합은 신경기호적 생성 AI를 더욱 스마트하고 안전하게 만듭니다. 이는 단순히 응답을 생성하는 것이 아니라 신뢰할 수 있는 응답을 생성하는 것입니다. AI가 의료, 법률 및 기타 중요한 영역에 더 많이 관여함에 따라 신경기호 AI와 같은 도구는 앞으로 나아갈 길을 제공합니다. 결정이 실제 결과를 가져올 때 진정으로 중요한 신뢰성과 신뢰를 제공합니다.

사례 연구: GraphRAG

그래프RAG (Graph Retrieval Augmented Generation)은 생성적 AI와 신경기호적 AI의 장점을 결합할 수 있는 방법을 보여줍니다. LLM(대형 언어 모델)과 같은 생성적 AI는 인상적인 콘텐츠를 만들 수 있지만 정확성이나 논리적 일관성이 떨어지는 경우가 많습니다.

GraphRAG는 지식 그래프(기호적 AI 접근 방식)를 LLM과 결합하여 이 문제를 해결합니다. 지식 그래프는 정보를 노드로 구성하므로 다양한 사실 간의 연결을 더 쉽게 추적할 수 있습니다. 이러한 구조화된 접근 방식은 AI가 창의적인 응답을 생성하는 동시에 신뢰할 수 있는 데이터에 기반을 두는 데 도움이 됩니다.

GraphRAG에 질문을 하면 패턴에만 의존하지 않습니다. 그래프의 신뢰할 수 있는 정보와 답변을 상호 참조합니다. 이 추가 단계는 논리적이고 정확한 응답을 보장하여 기존 생성 AI에서 흔히 발생하는 오류나 “환각”을 줄입니다.

뉴로심볼릭 AI와 생성 AI 통합의 과제

그러나 신경기호 AI와 생성 AI를 결합하는 것은 쉽지 않습니다. 이 두 가지 접근 방식은 서로 다른 방식으로 작동합니다. 신경망은 이미지나 텍스트와 같은 복잡하고 구조화되지 않은 데이터를 처리하는 데 능숙합니다. 반면 기호형 AI는 규칙과 논리를 적용하는 데 중점을 둡니다. 이 두 가지를 병합하려면 창의성과 정확성 사이의 균형이 필요하지만, 이는 항상 달성하기 쉽지 않습니다. 생성적 AI는 새롭고 다양한 결과를 생성하는 데 중점을 두고 있지만 상징적 AI는 모든 것을 논리에 기반을 둡니다. 성능 저하 없이 두 가지를 함께 작동시킬 수 있는 방법을 찾는 것은 까다로운 작업입니다.

앞으로 따라야 할 방향

앞으로 신경기호 AI가 생성 모델과 함께 작동하는 방식을 개선할 수 있는 잠재력은 많습니다. 흥미로운 가능성 중 하나는 필요에 따라 두 가지 방법 사이를 전환할 수 있는 하이브리드 시스템을 만드는 것입니다. 의료나 법률과 같이 정확성과 신뢰성이 필요한 작업의 경우 시스템은 상징적 추론에 더 의존할 수 있습니다. 창의성이 필요할 때는 생성 AI로 전환할 수 있습니다. 이러한 시스템을 더욱 이해하기 쉽게 만드는 작업도 진행 중입니다. 그들의 추론을 추적하는 방법을 개선하면 신뢰와 확신을 구축하는 데 도움이 될 것입니다. AI가 계속해서 발전함에 따라 신경기호적 AI는 시스템을 더욱 스마트하고 신뢰할 수 있게 만들어 시스템의 창의성과 신뢰성을 모두 보장할 수 있습니다.

결론

생성적 AI는 강력하지만 예측 불가능성과 이해 부족으로 인해 의료, 법률, 금융과 같은 고위험 분야에서는 신뢰할 수 없습니다. 신경기호적 AI(Neurosymbolic AI)가 해결책이 될 수 있습니다. 신경망과 기호 논리를 결합하여 추론, 일관성, 투명성을 추가하고 오류를 줄이고 신뢰를 높입니다. 이러한 접근 방식은 AI를 더욱 스마트하게 만들 뿐만 아니라 AI의 결정이 신뢰할 수 있도록 보장합니다. AI가 중요한 영역에서 더 큰 역할을 함에 따라 신경기호 AI는 특히 생명과 생계가 위태로울 때 AI가 제공하는 답변을 신뢰할 수 있는 앞으로의 길을 제공합니다.

게시물 Neurosymbolic AI가 생성 AI의 신뢰성 문제를 해결할 수 있는 방법 처음 등장한 Unite.AI.

Share post:

Subscribe

Popular

More like this
Related

생성 AI 활용: 업계 리더를 위한 대담한 도전과 보상

조직이 AI의 잠재력을 계속 탐구함에 따라 Microsoft 고객은 워크플로를...

식품 안전 분야에서 AI의 필요성 증가

특히 광범위한 조류독감 발생의 영향이 농업 부문 전반에 걸쳐...

12월23일 정부지원사업 신규 공고 리스트 (12건) _ (파일 재가공/재배포 가능)

12월 23일 12건<12/23지원사업 신규 공고 목록> *전 영업일인 12/20에 올라온...

Waste Robotics와 Greyparrot가 분류 로봇을 강화하는 방법

Waste Robotics는 FANUC 로봇 팔을 사용하여 안정적이고 정확한 피킹을...