대형 언어 모델 (LLM) 오늘의 힘 챗봇이 얻었습니다 놀랍도록 능력이 있습니다AI 연구원들은 이러한 기능을 평가하기 위해 어려움을 겪고 있습니다.– AI 시스템보다 빨리 새로운 테스트가있는 것 같습니다. 그러나 그 성능은 실제로 무엇을 의미합니까? 이 모델들이 진정으로 우리의 세상을 이해합니까? 아니면 진정한 이해를 시뮬레이션하는 데이터와 계산의 승리일까요?
이 질문들을 해시하려면 IEEE 스펙트럼 The와 파트너 관계를 맺었습니다 컴퓨터 역사 박물관 마운틴 뷰에서 캘리포니아에서 두 명의 의견이 많은 전문가를 무대에 데려 왔습니다. 나는 3 월 25 일에 열린 행사의 중재자였다. 그것은 불 같은 (그러나 존중하는) 토론이었고, 볼 가치가 있습니다.
Emily M. Bender 워싱턴 대학교 교수이자 전산 언어학 연구소의 이사이며 지난 10 년 동안 오늘날의 주요 AI 회사의 치열한 비평가 중 한 명으로 AI에 대한 접근 방식으로 부상했습니다. 그녀는 2021 년 정상 논문의 공동 저자 중 한 명으로도 알려져 있습니다.확률 론적 앵무새의 위험,”LLM의 가능한 위험을 제시 한 논문 (Google은 공동 저자를 발사했습니다. Timnit 사용). 의심 할 여지없이 벤더는“아니요”위치를 차지했습니다.
“예”직책을 맡았습니다 Sébastien Bubeck최근 Microsoft에서 Openai로 이사했으며 AI 부사장이되었습니다. Microsoft에서 시간 동안 그는 영향력있는 사전 인쇄를 공동 저술했습니다.인공 일반 정보의 불꽃“OpenAI의 GPT-4에 대한 초기 실험을 아직 개발중인 상태에서 설명했습니다. 그 논문에서 그는 모델이 새로운 수준의 이해력에 도달했다고 느끼게 한 이전의 LLM에 대한 발전을 설명했습니다.
더 이상 고민하지 않고, 우리는 내가 “Parrots vs. Sparks”라고 부르는 매치업을 가져옵니다.
– YouTubeYoutu.be