아마도 당신은 Gary Marcus에 대해 읽어보았을 것입니다. 고백 2023년 5월 상원에서 샘 알트먼 옆에 앉아 알트먼의 회사를 엄격히 규제할 것을 촉구했을 때, 오픈AI그리고 생성 AI에 갑자기 모든 것을 투자한 다른 기술 회사들도 마찬가지입니다. 아마도 당신은 트위터에서 그의 주장 중 일부를 들었을 것입니다. 제프리 힌튼 그리고 얀 르쿤소위 “AI의 대부” 중 두 명. 오늘날 인공 지능에 주목하는 대부분의 사람들은 어떤 식으로든 알고 있습니다. 게리 마커스‘라는 이름을 가지고 있으며, 그는 현재 AI의 상태에 만족하지 않는다는 사실을 알고 있습니다.
그는 그의 새로운 책에서 자신의 우려를 자세히 밝혔습니다. 실리콘 밸리 길들이기: AI가 우리에게 도움이 되도록 보장하는 방법MIT Press에서 오늘 출판한 책입니다. Marcus는 대량 생산된 허위 정보, 쉬운 생성과 같은 생성 AI가 초래하는 즉각적인 위험을 살펴봅니다. 딥페이크 포르노그리고 도난 창의적 지적 재산권 새로운 모델을 훈련하기 위해 (그는 포함하지 않음) AI 종말 (그는 위험한 존재이지만, 비관적인 사람은 아니다.) 그는 또한 실리콘 밸리가 여론과 정부 정책을 조작한 방식에 이의를 제기하고, AI 기업을 규제하기 위한 자신의 아이디어를 설명한다.
마커스는 전설적인 스티븐 핑커뉴욕 대학교에서 수년간 교수로 재직했으며 Geometric Intelligence와 두 개의 AI 회사를 공동 창립했습니다. 강력한 AI그는 ~와 말했다 IEEE 스펙트럼 그가 이 지점에 도달하기까지 걸어온 길에 대해서.
당신이 AI에 대해 처음 접한 것은 언제였나요?
게리 마커스벤 웡
게리 마커스: 글쎄요, 저는 여덟 살 때 코딩을 시작했습니다. 고등학교 마지막 2년을 건너뛸 수 있었던 이유 중 하나는 제가 Commodore 64에서 Logo라는 프로그래밍 언어로 라틴어-영어 번역기를 썼기 때문입니다. 그래서 저는 16살 때 이미 대학에 다니면서 AI와 인지 과학을 연구하고 있었습니다.
그러니까 당신은 이미 AI에 관심이 있었지만, MIT에서 학부와 박사과정 모두에서 인지과학을 공부했군요.
마커스: 제가 인지 과학에 뛰어든 이유 중 하나는 사람들이 생각하는 방식을 이해하면 AI에 대한 새로운 접근 방식이 나올 수 있을 것이라고 생각했기 때문입니다. 정말 진보된 AI를 구축하려면 인간의 마음이 작동하는 방식에 대한 광범위한 관점을 가져야 한다고 생각합니다. 과학자이자 철학자로서 인공 일반 지능이나 신뢰할 수 있는 일반 AI를 어떻게 구축할지는 아직 알 수 없다고 말하고 싶습니다. 하지만 우리는 이런 거대한 통계적 모델로는 그렇게 할 수 없었고, 그들에게 큰 기회를 주었습니다. 기본적으로 생성 AI에 750억 달러가 쓰였고, 무인 자동차에 1,000억 달러가 더 쓰였습니다. 그리고 그 어느 것도 우리가 신뢰할 수 있는 안정적인 AI를 만들어내지 못했습니다. 우리는 무엇을 해야 할지 확실히 알지 못하지만, 단순히 규모를 확대하는 것만으로는 효과가 없을 것이라고 생각할 만한 아주 좋은 이유가 있습니다. 현재의 접근 방식은 계속해서 같은 문제에 부딪힙니다.
계속해서 발생하는 주요 문제는 무엇이라고 생각하시나요?
마커스: 첫 번째는 환각입니다. 이러한 시스템은 많은 단어를 섞어서 때로는 사실이고 때로는 사실이 아닌 것을 내놓습니다. 내가 환각을 가지고 있다고 말하는 것과 같이 애완 닭 이름 Henrietta 사실이 아닙니다. 그리고 그들은 이것을 많이 합니다. 우리는 예를 들어, 이것이 어떻게 전개되는지 보았습니다. 변호사들이 브리핑을 작성하다 꾸며낸 사례로.
두 번째, 그들의 추론은 매우 형편없다. 내가 최근에 가장 좋아하는 예는 강을 건너는 단어 문제인데, 여기에는 남자와 양배추, 늑대, 염소가 건너야 한다. 이 시스템은 암기된 예가 많지만, 실제로 무슨 일이 일어나고 있는지 이해하지 못한다. 만약 당신이 더 간단한 문제를 내주세요하나와 같은 더그 호프스타터 “남자와 여자가 배를 가지고 강을 건너고 싶어합니다. 그들은 무엇을 하나요?”와 같은 질문을 저에게 보냈습니다. 남자가 강을 건너 배를 그곳에 두고 수영해서 돌아오는 미친 해결책이 나왔습니다. 뭔가가 일어났습니다.
가끔 그는 재미 삼아 양배추를 가져오기도 한다.
마커스: 그러니까 뭔가 분명히 잘못된 것이 있는 어리석은 추론 오류입니다. 우리가 이런 오류를 지적할 때마다 누군가가 “그래, 하지만 더 많은 데이터를 얻을 거야. 고칠게.”라고 말합니다. 글쎄요, 저는 거의 30년 동안 그 말을 들었습니다. 그리고 약간의 진전이 있기는 하지만 핵심 문제는 변하지 않았습니다.
당신이 첫 번째 AI 회사를 설립한 2014년으로 돌아가 봅시다. 기하학적 지능. 그 당시에는 AI에 대해 더 강세를 보였을 것 같은데요?
마커스: 네, 저는 훨씬 더 강세였습니다. 기술적인 면에서만 더 강세였던 게 아니었습니다. 사람들이 AI를 좋은 일에 사용하는 것에 대해서도 더 강세였습니다. AI는 세상을 돕고 싶어하는 사람들의 작은 연구 커뮤니티처럼 느껴졌습니다.
그러면 환멸과 의심은 언제부터 생겨났을까요?
마커스: 2018년에 저는 이미 딥러닝이 과대평가되고 있다고 생각했습니다. 그해에 저는 “딥러닝, 비판적 평가얀 르쿤이 당시 정말 싫어했던 것. 저는 이미 이 접근 방식에 만족하지 않았고 성공할 가능성이 없다고 생각했습니다. 하지만 그게 환멸을 느낀 것과는 다르죠?
그런 다음 대규모 언어 모델이 인기를 얻었을 때 [around 2019]저는 즉시 그들이 나쁜 생각이라고 생각했습니다. 저는 그저 이것이 철학적, 기술적 관점에서 AI를 추구하는 잘못된 방법이라고 생각했습니다. 그리고 미디어와 머신 러닝에 종사하는 일부 사람들이 과장된 광고에 유혹당하고 있다는 것이 분명해졌습니다. 그것이 저를 괴롭혔습니다. 그래서 저는 GPT-3에 대한 글을 쓰고 있었습니다. [an early version of OpenAI’s large language model] ~이다 헛소리하는 예술가 2020년에요. 과학자로서 저는 그 시점에 그 분야에 꽤 실망했습니다. 그리고 2022년에 ChatGPT가 나왔을 때 상황은 훨씬 더 나빠졌고, 대부분의 세계가 모든 관점을 잃었습니다. 저는 잘못된 정보와 대규모 언어 모델이 그것을 어떻게 강화할 것인지에 대해 점점 더 걱정하기 시작했습니다.
당신은 스타트업뿐만 아니라 생성 AI 열풍에 뛰어든 거대하고 뿌리 깊은 기술 회사들에 대해서도 우려하고 있었죠? OpenAI와 파트너십을 맺은 Microsoft 같은 회사들 말이죠?
마커스: AI 연구로부터 정책 작업으로 옮겨가게 된 마지막 계기는 Microsoft가 무슨 일이 있어도 앞서 나갈 것이라는 것이 분명해졌을 때였습니다. 2016년에 출시했을 때와는 매우 달랐습니다. [an early chatbot named] 타이. 그것은 나빴고, 그들은 12시간 후에 그것을 시장에서 내렸고, 그런 다음 Brad Smith는 책임 있는 AI와 그들이 배운 것에 대한 책을 썼습니다. 하지만 2023년 2월 말까지 Microsoft가 이것에 대한 생각을 정말로 바꾸었다는 것이 분명해졌습니다. 그리고 그들은 이 어처구니없는 “AGI의 불꽃” 논문은 제가 생각하기에 최고의 과대광고였습니다. 그리고 그들은 미친 듯이 시드니를 무너뜨리지 않았습니다. 케빈 루즈 대화 어디 [the chatbot] 시드니는 그에게 이혼하라고 했고 이런저런 일들을 했습니다. 실리콘 밸리의 분위기와 가치가 정말 바뀌었다는 게 분명해졌습니다. 좋은 방향으로는 아니었습니다.
저는 또한 미국 정부에 환멸을 느꼈습니다. 저는 바이든 행정부가 그 일을 잘했다고 생각합니다. 행정 명령. 하지만 상원이 필요한 조치를 취하지 않을 것이 분명해졌습니다. 저는 2023년 5월 상원에서 연설했습니다. 당시 저는 양당 모두 이 모든 것을 자체 규제에 맡길 수 없다는 것을 인정한 것 같았습니다. 그리고 저는 환멸을 느꼈습니다. [with Congress] 지난 1년 동안의 작업으로, 이 책을 쓰게 되었습니다.
당신은 오늘날의 생성적 AI 기술에 내재된 위험에 대해 많이 이야기합니다. 하지만 당신은 또한 “그것은 잘 작동하지 않는다”고 말합니다. 그 두 가지 견해는 일관성이 있습니까?
마커스: 제목이 다음과 같았습니다. “Gary Marcus는 AI를 멍청하다고 불렀지만, 이제는 위험하다고 부릅니다..” 그 의미는 그 두 가지가 공존할 수 없다는 것이었습니다. 하지만 사실, 공존합니다. 저는 여전히 세대 AI가 어리석고, 확실히 신뢰하거나 의지할 수 없다고 생각합니다. 하지만 위험합니다. 그리고 위험 중 일부는 실제로 어리석음에서 비롯됩니다. 예를 들어, 그것은 세상에 잘 뿌리를 내리지 않았기 때문에 나쁜 행위자가 그것을 조종하여 온갖 쓰레기를 말하게 하는 것이 쉽습니다. 이제 다른 이유로 위험할 수 있는 미래의 AI가 있을 수 있습니다. 왜냐하면 그것은 너무 똑똑하고 교활해서 인간을 속이기 때문입니다. 하지만 현재의 상황은 그렇지 않습니다.
당신은 생성 AI가 곧 터질 거품왜 그렇게 생각하시나요?
마커스: 명확히 하자면, 저는 생성 AI가 사라질 것이라고 생각하지 않습니다. 어떤 목적에서는 좋은 방법입니다. 자동 완성을 만들고 싶다면, 지금까지 발명된 최고의 방법입니다. 하지만 사람들이 AI 회사를 마치 인공 일반 지능을 해결할 것처럼 평가하기 때문에 재정적 거품이 있습니다. 제 생각에는 비현실적입니다. AGI에 가까워지지 않았다고 생각합니다. 그러면 “좋아요, 생성 AI로 무엇을 할 수 있을까요?”라는 질문이 남게 됩니다.
작년에 샘 알트먼이 훌륭한 세일즈맨이었기 때문에 모두가 AGI가 곧 나올 것이고 이 도구를 모든 기업의 모든 측면에서 사용할 수 있을 것이라고 상상했습니다. 그리고 많은 기업이 온갖 다양한 것에 생성적 AI를 테스트하는 데 많은 돈을 썼습니다. 그래서 그들은 2023년에 그것을 했습니다. 그리고 2024년에 여러분이 본 것은 연구자들이 Microsoft의 사용자에게 가는 보고서입니다. 부조종사—코딩 도구가 아니라 더 일반적인 AI 도구인데, 그들은 “그렇죠, 그렇게 잘 작동하지 않아요.”라고 말합니다. 작년에 그런 리뷰가 많이 있었습니다.
현실은 지금 당장, Gen AI 회사들은 실제로 돈을 잃고 있다는 것입니다. OpenAI는 운영 손실이 있었습니다. 약 50억 달러 작년에. 실험하는 사람들에게 20억 달러어치의 Gen AI를 판매할 수도 있을 겁니다. 하지만 그들이 영구적으로 채택하고 당신에게 훨씬 더 많은 돈을 지불하지 않는 한, 그것은 효과가 없을 것입니다. 저는 OpenAI를 AI의 가능한 WeWork 그것이 평가된 후 860억 달러. 그 수학은 제게 전혀 이해가 되지 않았습니다.
뭐야?당신이 틀렸다고 확신시키려면 어떤 것이 필요할까요? 머리가 핑핑 도는 순간은 언제일까요?
마커스: 글쎄요, 저는 다양한 주장을 많이 했고, 그 모든 주장이 틀릴 수도 있습니다. 기술적인 측면에서, 만약 누군가가 환각을 보지 않고 항상 믿을 수 있게 추론하는 순수한 대규모 언어 모델을 얻을 수 있다면, 저는 이런 것들이 어떻게 작동하는지에 대한 저의 핵심 주장에 대해 틀렸을 것입니다. 그래서 그것은 저를 반박하는 한 가지 방법이 될 것입니다. 아직 일어나지 않았지만, 적어도 논리적으로는 가능합니다.
재정적인 측면에서, 나는 쉽게 틀릴 수 있습니다. 하지만 거품에 대한 문제는 그것이 대부분 심리학의 기능이라는 것입니다. 시장이 합리적이라고 생각합니까? 아니요. 그래서 그 물건이 앞으로 5년 동안 돈을 벌지 못하더라도 사람들은 계속해서 돈을 쏟아부을 수 있습니다.
제가 틀렸다는 걸 증명하고 싶은 곳은 미국 상원입니다. 그들은 행동을 함께 할 수 있을 겁니다, 맞죠? 저는 “그들이 충분히 빨리 움직이지 않는다”고 말하며 돌아다니고 있지만, 제가 틀렸다는 걸 증명하고 싶습니다. 저는 책에서 생성 AI의 가장 큰 위험 12가지를 나열했습니다. 상원에서 실제로 12가지를 모두 다루는 것을 통과시켰다면, 제 냉소주의는 잘못된 것이 되었을 것입니다. 저는 책을 쓰는 데 1년을 낭비한 것 같은 기분이 들 것이고, 매우, 매우 행복할 것입니다.