인공 지능의 편견 해소: 과제와 솔루션

Date:

최근의 발전은 생성 AI 금융, 의료, 운송을 포함한 산업 전반에 걸쳐 엔터프라이즈 애플리케이션이 호황을 누리고 있습니다. 이 기술의 개발은 사이버 보안 방어 기술, 양자 컴퓨팅 발전, 획기적인 무선 통신 기술과 같은 다른 신흥 기술로도 이어질 것입니다. 그러나 이러한 차세대 기술의 폭발적인 증가에는 고유한 과제도 따릅니다.

예를 들어, AI를 채택하면 AI 모델이 제시하는 편견에 대한 윤리적 우려와 컴퓨팅 성능의 증가로 인해 더욱 정교한 사이버 공격, 메모리 및 스토리지 병목 현상이 발생할 수 있습니다. 좋은 소식은 NTT 리서치가 인공지능의 일종인 심층신경망(DNN)에서 편향을 극복하는 방법을 제안했다는 것이다.

이 연구는 편파적이지 않은 AI 모델이 인종, 성별과 같은 특성에 영향을 받지 않을 때 채용, 형사 사법 시스템 및 의료에 기여할 것이라는 점을 고려할 때 중요한 혁신입니다. 미래에는 이러한 종류의 자동화 시스템을 사용하면 차별이 제거되어 업계 전반의 DE&I 비즈니스 이니셔티브가 개선될 가능성이 있습니다. 마지막으로 편향되지 않은 결과를 제공하는 AI 모델은 생산성을 향상하고 이러한 작업을 완료하는 데 걸리는 시간을 줄여줍니다. 그러나 기술의 편향된 솔루션으로 인해 AI 생성 프로그램을 중단해야 하는 기업은 거의 없습니다.

예를 들어, 아마존 알고리즘이 남성 이력서에서 더 널리 사용되는 “실행된” 또는 “캡처된”과 같은 단어를 더 자주 사용하는 지원자에 대한 선호도를 나타내는 것을 발견했을 때 채용 알고리즘의 사용을 중단했습니다. 편견의 또 다른 눈에 띄는 예는 2023년 AI 분야에서 가장 영향력 있는 인물 중 한 명인 Joy Buolamwini에게서 나옵니다. 시간는 MIT의 Timnit Gebru과 협력하여 얼굴 분석 기술이 소수자, 특히 소수자 여성을 평가할 때 잠재적으로 부적절하게 대표되는 훈련 데이터로 인해 더 높은 오류율을 보여주었다는 사실을 밝혔습니다.

최근 DNN은 과학, 엔지니어링, 비즈니스는 물론 대중적인 애플리케이션에도 널리 보급되었지만 때로는 편견을 전달할 수 있는 허위 속성에 의존하기도 합니다. 에 따르면 MIT 연구 지난 몇 년 동안 과학자들은 소리와 이미지를 포함한 방대한 양의 입력을 분석할 수 있는 심층 신경망을 개발했습니다. 이러한 네트워크는 공유된 특성을 식별하여 대상 단어나 개체를 분류할 수 있습니다. 현재 이러한 모델은 생물학적 감각 시스템을 복제하기 위한 기본 모델로서 해당 분야의 최전선에 서 있습니다.

NTT 연구 수석 과학자 겸 하버드 대학교 뇌 과학 센터의 부교수 다나카 히데노리(Hidenori Tanaka)와 다른 세 명의 과학자는 DNN의 오류 또는 “손실”을 줄이는 현상 유지 방법인 순진한 미세 조정의 한계를 새로운 알고리즘으로 극복할 것을 제안했습니다. 편향되기 쉬운 속성에 대한 모델의 의존도.

그들은 모드 연결의 렌즈를 통해 신경망의 손실 환경을 연구했으며, 데이터 세트에 대한 훈련을 통해 검색된 신경망의 최소화 장치가 손실이 적은 간단한 경로를 통해 연결된다는 관찰을 했습니다. 특히 그들은 다음과 같은 질문을 했습니다. 예측을 하기 위해 다양한 메커니즘을 사용하는 최소화 장치가 저손실의 간단한 경로를 통해 연결되어 있습니까?

그들은 Naive 미세 조정이 손실 환경에서 다른 계곡으로 이동해야 하기 때문에 모델의 의사 결정 메커니즘을 근본적으로 변경할 수 없다는 것을 발견했습니다. 대신, 저손실의 “싱크대” 또는 “골짜기”를 분리하는 장벽을 넘어 모델을 구동해야 합니다. 저자는 이 교정 알고리즘을 CBFT(Connectivity-Based Fine-Tuning)라고 부릅니다.

본 개발 이전에는 물고기(본 연구에서 사용된 그림)와 같은 이미지를 분류하는 DNN이 예측을 위한 입력 매개변수로 물체의 모양과 배경을 모두 사용했습니다. 따라서 손실 최소화 경로는 기계적으로 서로 다른 모드로 작동합니다. 하나는 모양의 적법한 속성에 의존하고 다른 하나는 배경색의 가짜 속성에 의존합니다. 따라서 이러한 모드에는 선형 연결이 부족하거나 손실이 적은 간단한 경로가 없습니다.

연구팀은 예측을 위한 입력 속성으로 배경과 물체의 모양을 각각 사용하여 손실을 최소화하는 두 가지 매개변수 세트를 고려하여 모드 연결성에 대한 기계적 렌즈를 이해합니다. 그런 다음 기계적으로 서로 다른 최소화 장치가 풍경에서 손실이 낮은 경로를 통해 연결되어 있는지 스스로에게 질문했습니다. 이러한 메커니즘의 차이점이 연결 경로의 단순성에 영향을 줍니까? 원하는 메커니즘을 사용하는 최소화기 간에 전환하기 위해 이 연결성을 활용할 수 있습니까?

즉, 심층 신경망은 특정 데이터 세트를 훈련하는 동안 선택한 내용에 따라 다른 데이터 세트에서 테스트할 때 매우 다르게 동작할 수 있습니다. 팀의 제안은 공유된 유사성이라는 개념으로 요약됩니다. 이는 모드 연결에 대한 이전 아이디어를 기반으로 하지만 약간의 변형이 있습니다. 유사한 메커니즘이 작동하는 방식을 고려합니다. 그들의 연구는 다음과 같은 놀라운 발견으로 이어졌습니다.

  • 서로 다른 메커니즘을 가진 최소화기는 다소 복잡하고 비선형적인 방식으로 연결될 수 있습니다.
  • 두 개의 최소화 장치가 선형으로 연결되면 메커니즘 측면에서 모델이 얼마나 유사한 지와 밀접하게 연결됩니다.
  • 간단한 미세 조정만으로는 초기 학습 중에 선택된 원치 않는 기능을 제거하는 데 충분하지 않을 수 있습니다.
  • 풍경에서 선형적으로 연결이 끊긴 영역을 찾으면 모델의 내부 작동을 효율적으로 변경할 수 있습니다.

이 연구가 AI의 잠재력을 최대한 활용하는 데 있어 중요한 단계이기는 하지만, AI를 둘러싼 윤리적 우려는 여전히 상승세를 타기 위한 싸움일 수 있습니다. 기술자와 연구자들은 AI와 개인 정보 보호, 자율성, 책임과 같은 기타 대규모 언어 모델의 다른 윤리적 약점을 해결하기 위해 노력하고 있습니다.

AI는 방대한 양의 개인 데이터를 수집하고 처리하는 데 사용될 수 있습니다. 이 데이터를 무단으로 또는 비윤리적으로 사용하면 개인의 개인 정보가 침해되어 감시, 데이터 침해 및 신원 도용에 대한 우려가 발생할 수 있습니다. AI는 자율주행차와 같은 자율 애플리케이션의 책임과 관련하여 위협이 될 수도 있습니다. 책임과 의무에 대한 법적 틀과 윤리적 기준을 확립하는 것이 앞으로 몇 년 동안 필수적이 될 것입니다.

결론적으로, 생성 AI 기술의 급속한 성장은 금융, 의료, 운송에 이르기까지 다양한 산업에 대한 전망을 갖고 있습니다. 이러한 유망한 발전에도 불구하고 AI를 둘러싼 윤리적 우려는 여전히 상당합니다. AI의 변혁적인 시대를 헤쳐나가는 동안, 기술자, 연구원, 정책 입안자들이 함께 협력하여 앞으로 AI 기술의 책임감 있고 유익한 사용을 보장할 법적 프레임워크와 윤리적 표준을 확립하는 것이 중요합니다. NTT Research와 University of Michigan의 과학자들은 AI의 편견을 잠재적으로 제거할 수 있는 알고리즘에 대한 제안으로 한 발 앞서 있습니다.

게시물 인공 지능의 편견 해소: 과제와 솔루션 처음 등장한 Unite.AI.

Share post:

Subscribe

Popular

More like this
Related

생성 AI 활용: 업계 리더를 위한 대담한 도전과 보상

조직이 AI의 잠재력을 계속 탐구함에 따라 Microsoft 고객은 워크플로를...

식품 안전 분야에서 AI의 필요성 증가

특히 광범위한 조류독감 발생의 영향이 농업 부문 전반에 걸쳐...

12월23일 정부지원사업 신규 공고 리스트 (12건) _ (파일 재가공/재배포 가능)

12월 23일 12건<12/23지원사업 신규 공고 목록> *전 영업일인 12/20에 올라온...

Waste Robotics와 Greyparrot가 분류 로봇을 강화하는 방법

Waste Robotics는 FANUC 로봇 팔을 사용하여 안정적이고 정확한 피킹을...