Grace Yee, Adobe 윤리 혁신(AI 윤리 및 접근성) 담당 수석 이사 – 인터뷰 시리즈

Date:

그레이스 예 의 윤리 혁신(AI 윤리 및 접근성) 담당 수석 이사입니다. 어도비 벽돌윤리에 관한 글로벌 조직 전반의 작업을 추진하고 프로세스, 도구, 교육 및 기타 리소스를 개발하여 Adobe의 업계 선도적인 AI 혁신이 Adobe의 핵심 가치 및 윤리 원칙에 따라 지속적으로 발전할 수 있도록 지원합니다. Grace는 AI를 개발하는 회사의 모든 작업에서 윤리와 포용성을 중심으로 책임감 있게 기술을 구축하고 사용하려는 Adobe의 노력을 발전시킵니다. 이 작업의 일환으로 Grace는 Adobe의 AI 윤리 위원회 및 검토 위원회를 감독합니다. 이 위원회는 Adobe의 개발 팀을 안내하는 데 도움이 되는 권장 사항을 만들고 새로운 AI 기능 및 제품이 Adobe의 책임, 책임 및 투명성 원칙을 준수하는지 확인합니다. 이러한 원칙은 유해하고 편향된 결과를 완화하면서 AI 기반 기능을 시장에 출시하는 데 도움이 됩니다. Grace는 또한 정책 팀과 협력하여 사회 이익을 위해 AI 관련 공공 정책, 법률 및 규정을 형성하는 데 도움이 되는 옹호 활동을 추진합니다.

접근성에 대한 Adobe의 노력의 일환으로 Grace는 Adobe 제품이 모든 사용자를 포괄하고 액세스할 수 있도록 하여 누구나 디지털 경험을 만들고, 상호 작용하고, 참여할 수 있도록 돕습니다. 그녀의 리더십 하에 Adobe는 정부 그룹, 무역 협회 및 사용자 커뮤니티와 협력하여 접근성 정책 및 표준을 홍보하고 발전시켜 영향력 있는 산업 솔루션을 추진하고 있습니다.

지난 5년 동안 AI 윤리를 형성하는 Adobe의 여정에 대해 말씀해 주시겠습니까? 특히 생성 AI와 같은 급속한 발전에 직면하여 이러한 진화를 정의한 주요 이정표는 무엇입니까?

5년 전, 우리는 AI 윤리 거버넌스 프로세스의 기반이 되는 책임, 책임감, 투명성이라는 AI 윤리 원칙을 확립하여 AI 윤리 프로세스를 공식화했습니다. 우리는 시간이 지나도 지속될 수 있는 실행 가능한 원칙을 개발하기 위해 전 세계의 다양한 다기능 팀을 Adobe 직원으로 구성했습니다.

여기에서 우리는 AI 개발 주기 초기에 잠재적인 위험과 편견을 식별하고 완화하기 위한 강력한 검토 프로세스를 개발했습니다. 여러 부분으로 구성된 이 평가는 유해한 편견과 고정관념을 영속시킬 수 있는 기능과 제품을 식별하고 해결하는 데 도움이 되었습니다.

생성적 AI가 등장하면서 우리는 새로운 윤리적 문제를 해결하기 위해 AI 윤리 평가를 조정했습니다. ​이 반복적인 프로세스를 통해 우리는 잠재적인 문제보다 앞서서 AI 기술을 책임감 있게 개발하고 배포할 수 있었습니다. ​회사 전체의 다양한 팀과의 지속적인 학습 및 협업에 대한 우리의 노력은 AI 윤리 프로그램의 관련성과 효율성을 유지하고 궁극적으로 고객에게 제공하는 경험을 향상하고 포용성을 촉진하는 데 매우 중요했습니다. ​

Adobe의 AI 윤리 원칙(책임성, 책임감, 투명성)이 일상 업무에 어떻게 적용됩니까? 이러한 원칙이 Adobe의 AI 프로젝트를 어떻게 이끌었는지에 대한 예를 공유할 수 있습니까?

우리는 책임감 있는 혁신을 보장하는 강력한 엔지니어링 관행을 구현하는 동시에 직원과 고객으로부터 지속적으로 피드백을 수집하여 필요한 조정을 가능하게 함으로써 AI 기반 기능에 대한 Adobe의 AI 윤리 약속을 준수합니다.

새로운 AI 기능은 철저한 윤리 평가를 거쳐 잠재적인 편견과 위험을 식별하고 완화합니다. Adobe 생성 AI 모델 제품군인 Adobe Firefly를 도입했을 때 유해한 고정관념을 영속시킬 수 있는 콘텐츠 생성을 완화하기 위한 평가를 받았습니다. 이 평가는 제품 팀과의 긴밀한 협력을 기반으로 발전하고 관련성과 효율성을 유지하기 위한 피드백과 학습 내용을 통합하는 반복적인 프로세스입니다. 또한 적절한 테스트 및 피드백 메커니즘을 설계하기 위한 잠재적인 영향을 이해하기 위해 제품 팀과 함께 위험 발견 연습을 수행합니다. ​

Adobe는 특히 전 세계의 다양한 사용자 기반이 사용하는 도구에서 AI의 편견과 관련된 문제를 어떻게 해결합니까? 특정 AI 기능에서 편견이 어떻게 식별되고 완화되었는지 예를 들어주실 수 있나요?

우리는 제품 및 엔지니어링 팀과의 긴밀한 협력을 통해 AI 윤리 평가 및 검토 프로세스를 지속적으로 발전시키고 있습니다. ​몇 년 전에 우리가 받은 AI 윤리 평가는 지금의 것과 다르며 앞으로 추가적인 변화가 있을 것으로 예상됩니다. 이러한 반복적인 접근 방식을 통해 우리는 새로운 학습 내용을 통합하고 Firefly와 같은 기술이 발전함에 따라 새로운 윤리적 문제를 해결할 수 있습니다.

예를 들어 Firefly에 다국어 지원을 추가했을 때 우리 팀은 그것이 의도한 출력을 제공하지 않고 일부 단어가 의도치 않게 차단되는 것을 발견했습니다. 이를 완화하기 위해 우리는 국제화 팀 및 원어민과 긴밀히 협력하여 모델을 확장하고 국가별 용어와 의미를 다루었습니다. ​

기술이 발전함에 따라 평가 접근 방식을 발전시키려는 Adobe의 노력은 Adobe가 혁신과 윤리적 책임의 균형을 맞추는 데 도움이 됩니다. 포괄적이고 반응이 빠른 프로세스를 육성함으로써 우리는 AI 기술이 최고 수준의 투명성과 무결성을 충족하도록 보장하여 창작자가 자신있게 도구를 사용할 수 있도록 지원합니다.

공공 정책 수립에 귀하가 참여하면서 Adobe는 빠르게 변화하는 AI 규정과 혁신 사이의 교차점을 어떻게 탐색합니까? 이러한 규정을 마련하는 데 Adobe는 어떤 역할을 합니까?

우리는 정책 입안자 및 업계 단체와 적극적으로 협력하여 혁신과 윤리적 고려 사항의 균형을 맞추는 정책을 수립하도록 돕습니다. 정책 입안자와의 논의에서는 AI에 대한 접근 방식과 인간 경험을 향상시키는 기술 개발의 중요성에 중점을 둡니다. 규제 기관은 현재의 문제를 해결하기 위한 실용적인 솔루션을 모색하고 AI 윤리 원칙과 같은 프레임워크를 제시하여(협력적으로 개발되고 AI 기반 기능에 일관되게 적용됨) 보다 생산적인 토론을 촉진합니다. 추상적인 개념을 이야기하는 대신 우리의 원칙이 실제로 어떻게 작동하는지 보여주고 실제 세계에 미치는 영향을 보여주는 구체적인 예를 테이블에 제시하는 것이 중요합니다.

Adobe는 교육 데이터를 소싱할 때 어떤 윤리적 고려 사항을 우선시하며, 사용된 데이터 세트가 AI의 요구 사항에 대해 윤리적이고 충분히 견고한지 어떻게 보장합니까?

Adobe에서는 AI 모델에 대한 교육 데이터를 소싱할 때 몇 가지 주요 윤리적 고려 사항을 우선적으로 고려합니다. ​ Firefly를 상업적으로 안전하게 디자인하기 위한 노력의 일환으로 Adobe Stock과 같은 라이선스 콘텐츠와 저작권이 만료된 공개 도메인 콘텐츠의 데이터 세트에 대해 교육했습니다. 또한 모델 출력에서 ​​유해한 편견과 고정관념이 강화되는 것을 방지하기 위해 데이터 세트의 다양성에 중점을 두었습니다. 이를 달성하기 위해 우리는 다양한 팀 및 전문가와 협력하여 데이터를 검토하고 선별합니다. 이러한 관행을 고수함으로써 우리는 강력하고 효과적일 뿐만 아니라 모든 사용자에게 윤리적이고 포용적인 AI 기술을 만들기 위해 노력합니다. ​

Firefly와 같은 Adobe의 AI 시스템이 어떻게 훈련되고 어떤 종류의 데이터가 사용되는지 사용자에게 전달하는 데 있어 투명성이 얼마나 중요하다고 생각하시나요?

사용되는 데이터 유형을 포함하여 Firefly와 같은 Adobe의 생성 AI 기능이 훈련되는 방식을 사용자에게 전달할 때 투명성은 매우 중요합니다. 이는 사용자가 생성 AI 개발 이면의 프로세스를 이해하도록 보장함으로써 기술에 대한 신뢰와 확신을 구축합니다. 우리는 데이터 소스, 교육 방법론, 우리가 마련한 윤리적 보호 장치를 공개함으로써 사용자가 우리 제품과 상호 작용하는 방식에 대해 정보에 입각한 결정을 내릴 수 있도록 지원합니다. 이러한 투명성은 핵심 AI 윤리 원칙과 일치할 뿐만 아니라 사용자와의 협력 관계를 조성합니다.

AI, 특히 생성 AI가 지속적으로 확장됨에 따라 Adobe와 같은 회사가 가까운 미래에 직면하게 될 가장 중요한 윤리적 과제는 무엇이라고 생각하십니까?

저는 Adobe와 같은 회사에 있어 가장 중요한 윤리적 과제는 해로운 편견을 완화하고 포용성을 보장하며 사용자 신뢰를 유지하는 것이라고 생각합니다. ​AI가 의도치 않게 고정관념을 지속시키거나 유해하고 오해의 소지가 있는 콘텐츠를 생성할 가능성은 지속적인 경계와 강력한 보호 조치가 필요한 우려 사항입니다. 예를 들어, 최근 생성 AI가 발전함에 따라 ‘나쁜 행위자’가 사기성 콘텐츠를 만들고, 잘못된 정보를 퍼뜨리고, 여론을 조작하여 신뢰와 투명성을 훼손하는 것이 그 어느 때보다 쉬워졌습니다.

이를 해결하기 위해 Adobe는 2019년에 CAI(Content Authenticity Initiative)를 설립하여 소비자를 위한 보다 신뢰할 수 있고 투명한 디지털 생태계를 구축했습니다. CAI는 온라인에서 신뢰를 구축하기 위해 콘텐츠 자격 증명이라는 솔루션을 구현합니다. 콘텐츠 자격 증명에는 작성자 이름, 이미지 생성 날짜, 이미지 생성에 사용된 도구 및 그 과정에서 수행된 편집 내용과 같은 “성분” 또는 중요한 정보가 포함됩니다. 이를 통해 사용자는 신뢰와 진정성의 디지털 체인을 만들 수 있습니다.

생성 AI가 지속적으로 확장됨에 따라 디지털 콘텐츠에 대한 신뢰를 회복하기 위해 콘텐츠 자격 증명의 광범위한 채택을 촉진하는 것이 더욱 중요해질 것입니다.

AI 개발을 위한 윤리적 프레임워크에 대해 이제 막 생각하기 시작한 다른 조직에 어떤 조언을 해주고 싶나요?

저의 조언은 여러분의 노력을 안내할 수 있는 명확하고 단순하며 실용적인 원칙을 확립하는 것부터 시작하라는 것입니다. 이론상 좋아 보이지만 그 원칙이 실천적이지 못한 기업이나 조직을 종종 봅니다. 우리의 원칙이 시간의 시험을 견뎌낸 이유는 우리가 그 원칙을 실행 가능하도록 설계했기 때문입니다. AI 기반 기능을 평가할 때 제품 및 엔지니어링 팀은 우리가 무엇을 찾고 있는지, 그리고 우리가 기대하는 표준이 무엇인지 알고 있습니다.

또한 조직에서는 이 프로세스가 반복될 것임을 알고 이 프로세스에 참여할 것을 권장합니다. Adobe가 5년 또는 10년 후에 무엇을 발명할지는 알 수 없지만 이러한 혁신과 우리가 받는 피드백을 충족하기 위해 평가를 발전시킬 것이라는 점은 알고 있습니다.

훌륭한 인터뷰에 감사드립니다. 더 자세히 알고 싶은 독자들은 방문하시기 바랍니다. 어도비 벽돌.

게시물 Grace Yee, Adobe 윤리 혁신(AI 윤리 및 접근성) 담당 수석 이사 – 인터뷰 시리즈 처음 등장한 Unite.AI.

Share post:

Subscribe

Popular

More like this
Related

Watch Out은 정밀 생산을 위해 CNC 셀에 자율성을 추가합니다.

Watch Out은 컨테이너에 들어갈 수 있는 고도로 자동화된 작업셀을...

Redwire, UAS 제공업체 Edge Autonomy를 9억 2500만 달러에 인수

Edge Autonomy 인수를 통해 Redwire는 국가 안보 임무를 지원하기...

MassRobotics, 2025 Form and Function Robotics Challenge 신청 개시

서울대학교는 2024년 형태 및 기능 로봇 공학 챌린지의 우승자였습니다....

SNaP: 확장 가능한 치료 나노입자 제조를 위한 새로운 기술 제공

이 후원 기사는 귀하에게 제공됩니다. NYU 탄돈 공과대학.약물 전달...