AI 뉴스허브

사람들이 실제로 AI를 사용하는 방식은 다음과 같습니다.

사람들이 실제로 AI를 사용하는 방식은 다음과 같습니다.

비공개: 사람들이 실제로 AI를 사용하는 방식은 다음과 같습니다.

이 스토리는 AI에 대한 주간 뉴스레터인 The Algorithm에서 발췌한 것입니다. 먼저 받은 편지함으로 받으려면, 여기서 가입하세요.

2022년 후반에 ChatGPT로 생성 AI 붐이 일어났을 때, 우리는 모든 것을 알고, 지루한 작업을 대체하고, 생산성과 경제적 이익을 엄청나게 늘릴 수 있는 초지능 AI 도구에 대한 비전을 갖게 되었습니다.

2년이 지났지만, 대부분의 생산성 향상은 실현되지 않았습니다. 그리고 우리는 독특하고 약간 예상치 못한 일이 일어나는 것을 보았습니다. 사람들이 AI 시스템과 관계를 형성하기 시작했습니다. 우리는 그들에게 말을 걸고, 부탁드리고, 고맙다고 말하고, AI를 친구, 연인, 멘토, 치료사, 교사로서 우리 삶에 초대하기 시작했습니다.

우리는 거대한 현실 세계 실험이 전개되는 것을 보고 있으며, 이러한 AI 동반자가 우리 개인이나 사회 전체에 어떤 영향을 미칠지는 아직 불확실하다고 MIT 미디어 랩과 하버드 로스쿨의 ​​공동 JD-PhD 후보인 로버트 마하리와 MIT 미디어 랩의 연구원인 팻 파타라누타폰은 주장합니다. 그들은 우리가 “중독성 지능”, 즉 우리를 중독시키기 위해 어두운 패턴이 내장된 AI 동반자에 대비해야 한다고 말합니다. 여기서 그들의 글을 읽을 수 있습니다.그들은 스마트 규제가 어떻게 우리의 머릿속 깊숙한 곳으로 들어오는 AI 챗봇과 관련된 일부 위험을 예방하는 데 도움이 될 수 있는지 살펴봅니다.

AI 동반자와 유대감을 형성할 것이라는 생각은 더 이상 단순한 가정이 아닙니다. 더욱 감정적인 목소리를 가진 챗봇, 예를 들어 OpenAI의 GPT-4o우리를 더욱 깊이 끌어들일 가능성이 있습니다. 안전 테스트OpenAI는 사용자가 “오늘이 우리가 함께하는 마지막 날입니다.”와 같이 AI 모델과 연결되었다는 것을 나타내는 언어를 사용한다는 것을 관찰했습니다. 회사 자체도 감정적 의존이 새로운 음성 지원 챗봇으로 인해 높아질 수 있는 위험 중 하나임을 인정합니다.

텍스트 교환에 국한되어 있을 때조차도 AI와 더 깊은 차원에서 연결되고 있다는 증거가 이미 있습니다. Mahari는 다음을 분석한 연구자 그룹의 일원이었습니다. 백만 개의 ChatGPT 상호작용 로그 그리고 AI의 두 번째로 인기 있는 용도는 성적 롤플레잉이라는 것을 발견했습니다. 그 외에도 챗봇의 가장 인기 있는 사용 사례는 창의적 구성이었습니다. 사람들은 또한 브레인스토밍과 계획, 설명 및 물건에 대한 일반적인 정보를 요청하는 데 사용하는 것을 좋아했습니다.

이런 종류의 창의적이고 즐거운 작업은 AI 챗봇을 사용하는 훌륭한 방법입니다. AI 언어 모델은 문장에서 다음에 나올 가능성이 있는 단어를 예측하여 작동합니다. 그들은 자신감 있는 거짓말쟁이이며 종종 거짓을 사실로 제시하거나, 사실을 꾸며내거나, 환각을 봅니다. 사실을 꾸며내는 것이 요점일 때는 이런 것이 덜 중요합니다. 6월에 제 동료인 Rhiannon Williams는 다음과 같이 썼습니다. 코미디언들이 AI 언어 모델을 유용하다고 생각하는 이유 그들은 자신들의 자료에 대한 첫 번째 “토해 초안”을 생성한 다음, 자신만의 인간적인 독창성을 더해 재미있게 만듭니다.

하지만 이러한 사용 사례는 반드시 재정적으로 생산적이지는 않습니다. 저는 투자자들이 AI 회사에 수십억 달러를 투자했을 때 smutbots를 염두에 두지 않았을 것이라고 확신합니다. 그리고 우리가 아직 AI를 위한 킬러 앱이 없다는 사실과 함께, 월가가 최근에 그것에 대해 훨씬 덜 강세를 보이는 것도 당연합니다.

사용 사례 ~일 것이다 “생산적”이 되고 따라서 가장 과장된 것이었지만 AI 도입에서 덜 성공했습니다. 환각은 코드 생성, 뉴스 및 온라인 검색모든 것을 올바르게 하는 것이 매우 중요한 곳입니다. 챗봇의 가장 창피한 실패 중 일부는 사람들이 AI 챗봇을 너무 신뢰하기 시작하거나 사실 정보의 출처로 간주했을 때 발생했습니다. 예를 들어, 올해 초 온라인 검색 결과를 요약하는 Google의 AI 개요 기능은 사람들이 돌을 먹고 피자에 접착제를 바르라고 제안했습니다.

그리고 그게 AI 과대광고의 문제입니다. 그것은 우리의 기대치를 너무 높게 설정하고, 말 그대로 놀라운 약속이 이루어지지 않을 때 우리를 실망시키고 환멸에 빠지게 합니다. 또한 그것은 우리를 속여 AI가 즉각적인 변화를 가져올 만큼 충분히 성숙한 기술이라고 생각하게 합니다. 사실, 우리가 그것의 진정한 이점을 보기까지는 몇 년이 걸릴 수도 있습니다.


이제 알고리즘의 나머지 부분을 읽어보세요.

더 깊은 학습

AI “대부” 요슈아 벤지오, AI 재앙 예방을 위한 영국 프로젝트에 참여

현대 AI의 대부 중 한 명으로 여겨지는 튜링상 수상자 요슈아 벤지오는 영국 정부에서 자금을 지원하여 AI 시스템에 안전 메커니즘을 내장하는 프로젝트를 지원하고 있습니다. Safeguarded AI라는 이 프로젝트는 중요한 지역에 배치된 다른 AI 시스템이 안전한지 확인할 수 있는 AI 시스템을 구축하는 것을 목표로 합니다. 벤지오는 과학 책임자로 프로그램에 합류하여 중요한 의견과 조언을 제공할 것입니다.

그들은 무엇을 하려고 하는가: Safeguarded AI의 목표는 위험 점수와 같이 실제 세계에 미치는 영향에 대한 정량적 보장을 제공할 수 있는 AI 시스템을 구축하는 것입니다. 이 프로젝트는 본질적으로 세계의 시뮬레이션인 과학적 세계 모델과 수학적 증명을 결합하여 AI 안전 메커니즘을 구축하는 것을 목표로 합니다. 이러한 증명에는 AI의 작업에 대한 설명이 포함되고 인간은 AI 모델의 안전 검사가 올바른지 확인하는 작업을 맡게 됩니다. 여기에서 내 글을 더 읽어보세요.

비트와 바이트

구글 딥마인드, 로봇을 훈련시켜 탁구에서 인간을 이겼다

연구자들은 3D로 인쇄된 패들을 휘두르는 로봇이 경쟁적인 탁구 경기에서 다양한 능력을 가진 인간 상대를 상대로 29게임 중 13게임에서 승리하는 데 성공했습니다. 이 연구는 로봇 커뮤니티의 오랜 목표인 가정과 창고와 같은 실제 환경에서 유용한 작업을 능숙하고 안전하게 수행할 수 있는 로봇을 만드는 데 있어 작은 발걸음을 내딛었습니다. (MIT 기술 리뷰)

우리는 AI 버블에 있는 걸까? 복잡한 이유는 다음과 같습니다.

최근 AI가 그 잠재력에 부응할 수 있을지에 대한 많은 논쟁과 심지어 우려도 있었습니다. 특히 기술 주식의 최근 폭락 덕분입니다. 이 섬세한 글은 이 부문이 상당한 어려움에 직면해 있지만 AI의 변혁적 잠재력을 과소평가하기에는 너무 이르다는 이유를 설명합니다. (플랫포머)

Microsoft가 OpenAI를 넘어 투자를 확대하는 방법

Microsoft와 OpenAI는 AI에서 가장 성공적인 파트너십 중 하나입니다. 하지만 작년 OpenAI의 이사회 드라마 이후, 이 기술 거대 기업과 CEO인 사티아 나델라는 Microsoft를 Sam Altman의 스타트업에서 더 독립적으로 만들 전략을 수립해 왔습니다. Microsoft는 생성 AI에 대한 투자와 파트너십을 다각화하고, 자체적으로 더 작고 저렴한 모델을 구축했으며, 소비자 AI 노력을 개발하기 위해 적극적으로 고용했습니다. (파이낸셜 타임즈)

Humane의 일일 반품이 매출을 앞지르고 있습니다.

우프. 착용형 AI 조수라고 광고된 엄청나게 과장된 AI 핀은 실패한 듯합니다. 5월과 8월 사이에 구매한 것보다 더 많은 Humane AI 핀이 반품되었습니다. 화가 나는 것은, 이 회사가 반품된 핀을 재사용할 방법이 없어서 전자 폐기물이 된다는 것입니다. (더 버지)

Exit mobile version