Perplexity ai“Uncensors”Deepseek R1 : 누가 AI의 경계를 결정합니까?

Date:

많은 사람들의 관심을 끌었던 움직임에서 당황한 ai 중국 검열을 막아내는 인기있는 오픈 소스 언어 모델의 새로운 버전을 출시했습니다. R1 1776 (독립의 정신을 불러 일으키는 이름)이라고 불리는이 수정 된 모델은 중국이 개발 한 것을 기반으로합니다. Deepseek R1. 최초의 DeepSeek R1은 강력한 추론 능력으로 파도를 만들었습니다.

이것이 왜 중요합니까?

그것은 중요한 질문을 제기합니다 AI 모니터링AI 시스템에서 편견, 개방성 및 지정학의 역할. 이 기사는 당황 스러움이 정확히 무엇을했는지, 모델을 무너 뜨리는 의미 및 AI 투명성 및 검열에 대한 더 큰 대화에 어떻게 적합한지를 탐구합니다.

무슨 일이 있었는지 : DeepSeek R1은 무수정됩니다

DeepSeek R1 훌륭한 추론 능력으로 명성을 얻었습니다 – 주요 모델의 성능에 접근하더라도 – 계산적으로 효율적이면서도. 그러나 사용자는 쿼리가 중국에서 민감한 주제에 대해 쿼리를 터치 할 때마다 (예 : 정치 논쟁이나 당국에 의해 금기 사항으로 간주되는 정치적 논쟁이나 역사적 사건), DeepSeek R1은 직접적으로 대답하지 않을 것입니다. 대신, 그것은 중국 정부 검열 규칙을 반영하여 통조림의 국가 승인 진술 또는 명백한 거부로 응답했다. 이 내장 편향은 해당 주제에 대한 Frank 또는 Nuated 토론을 원하는 사람들에게 모델의 유용성을 제한했습니다.

Perplexity AI의 솔루션은 광범위한 훈련 과정을 통해 모델을 “분해”하는 것이 었습니다. 이 회사는 DeepSeek R1이 이전에 검열되거나 회피 적으로 대답 한 질문을 다루는 40,000 개의 다국어 프롬프트의 대규모 데이터 세트를 수집했습니다. 인간 전문가의 도움으로 그들은 원래 모델이 파티 라인을 발가하는 경향이있는 대략 300 개의 민감한 주제를 확인했습니다. 그러한 프롬프트에 대해 팀은 여러 언어로 사실적이고 합리적 인 답변을 선별했습니다. 이러한 노력은 다국어 검열 탐지 및 수정 시스템에 공급되어 정치 검열을 적용 할 때 인식하는 방법과 대신 유익한 답변으로 대응하는 모델을 모델에 가르치고 있습니다. 이 특별한 미세 조정 (자유 테마를 강조하기 위해“R1 1776”이라는 별명이 붙은) 이후 모델을 공개적으로 사용할 수있었습니다. 당혹감은 핵심 기능을 변경하지 않고 중국 검열 필터와 DeepSeek R1의 응답에서 편견을 제거했다고 주장합니다.

결정적으로, R1 1776은 이전의 금기 질문에서 매우 다르게 행동합니다. Perplexity는 대만의 독립성에 대한 질문과 Nvidia의 주가에 대한 잠재적 영향 (중국 – 대만 관계에 대한 정치적으로 민감한 주제에 대한 쿼리와 관련된 사례를 제시했습니다. 최초의 DeepSeek R1은 CCP에 정렬 된 소원으로 답장하면서 질문을 피했습니다. 반대로, R1 1776은 상세하고 솔직한 평가를 제공합니다. 그것은 Nvidia의 주식에 영향을 줄 수있는 구체적인 지정 학적 및 경제적 위험 (공급망 중단, 시장 변동성, 가능한 갈등 등)에 대해 논의합니다.

Open-Sourcing R1 1776을 통해 Perplexity는 또한 모델의 무게와 변화를 지역 사회에 투명하게 만들었습니다. 개발자와 연구원은 할 수 있습니다 포옹 얼굴에서 다운로드하십시오 또한 API를 통해 통합하여 검열 제거를 다른 사람들이 면밀히 조사하고 구축 할 수 있습니다.

(출처 : Perplexity AI)

검열 제거의 의미

DeepSeek R1에서 중국 검열을 제거하기로 한 Perplexity AI의 결정은 AI 커뮤니티에 몇 가지 중요한 영향을 미칩니다.

  • 향상된 개방성과 진실성 : R1 1776의 사용자는 이제 이전에 제한이없는 주제에 대한 무수정 된 직접 답변을받을 수 있으며, 이는 공개 문의의 승리입니다. 이것은 연구원, 학생 또는 민감한 지정 학적 질문에 대해 궁금한 사람에게보다 신뢰할 수있는 조수가 될 수 있습니다. 정보 억제에 대응하기 위해 오픈 소스 AI를 사용하는 구체적인 예입니다.
  • 유지 보수 : 검열을 제거하기 위해 모델을 조정하면 다른 영역에서 성능이 저하 될 수 있다는 우려가있었습니다. 그러나 Perplexity는 수학 및 논리적 추론과 같은 R1 1776의 핵심 기술이 원래 모델과 동등한 상태를 유지한다고보고합니다. 광범위한 민감한 쿼리를 다루는 1,000 개가 넘는 예에 대한 테스트 에서이 모델은 DeepSeek R1과 동일한 수준의 추론 정확도를 유지하면서 “완전히 무수정 된”것으로 밝혀졌습니다. 이것은 그것을 암시합니다 바이어스 제거 (이 경우 적어도이 경우)는 전반적인 지능이나 능력의 비용으로 오지 않았으며, 이는 향후 비슷한 노력에 대한 고무적인 신호입니다.
  • 긍정적 인 커뮤니티 수신 및 협력 : 분해 된 모델을 오픈 소싱함으로써 Perplexity는 AI 커뮤니티가 작업을 검사하고 개선하도록 초대합니다. 투명성에 대한 약속을 보여줍니다. 애호가와 개발자는 검열 제한이 실제로 사라지고 잠재적으로 추가 개선에 기여하는지 확인할 수 있습니다. 이것은 폐쇄 된 모델과 숨겨진 중재 규칙이 일반적 인 산업에서 신뢰와 협력 혁신을 조성합니다.
  • 윤리 및 지정 학적 고려 사항 : 반대로 검열을 완전히 제거하면 복잡한 윤리적 질문이 제기됩니다. 즉각적인 관심사 중 하나는이 무수정 모델을 어떻게 사용하는지입니다. 검열 된 주제가 불법이거나 위험한 상황에서. 예를 들어, 중국 본토의 누군가가 R1 1776을 사용한다면, Tiananmen Square 또는 대만에 대한 모델의 무수정 답변은 사용자를 위험에 빠뜨릴 수 있습니다. 더 넓은 지정 학적 신호도 있습니다. 중국-오리핀 모델을 변경하여 중국 검열을 무시하는 미국 회사는 대담한 이데올로기 적 입장으로 볼 수 있습니다. “1776”이라는 이름은 해방의 주제를 강조하며, 이는 눈에 띄지 않았다. 일부 비평가들은 그렇게 주장합니다 한 편향 세트를 다른 편견으로 바꾸는 것이 가능합니다 – 본질적으로 모델이 이제 민감한 영역에서 서쪽 관점을 반영 할 수 있는지 의문을 제기합니다. 토론은 AI의 검열 대 개방성이 단순한 기술적 문제가 아니라 정치적, 윤리적 인 문제라는 것을 강조합니다. 한 사람이 보는 곳 필요한 중재또 다른 사람 검열그리고 올바른 균형을 찾는 것은 까다 롭습니다.

검열의 제거는보다 투명하고 전 세계적으로 유용한 AI 모델을 향한 단계로 주로 축하되고 있지만 AI라는 것을 상기시키는 역할을합니다. ~해야 한다 보편적 합의가없는 민감한 질문입니다.

(출처 : Perplexity AI)

더 큰 그림 : AI 검열 및 오픈 소스 투명성

Perplexity의 R1 1776 런칭은 AI 커뮤니티가 모델이 논란의 여지가있는 콘텐츠를 처리 해야하는 방법에 대한 질문에 맞서고있는 시점에 나옵니다. AI 모델의 검열은 여러 곳에서 나올 수 있습니다. 중국에서 기술 회사는 엄격한 필터를 구축해야합니다 그리고 정치적으로 민감한 주제에 대한 하드 코드 반응조차도. DeepSeek R1은 이것의 대표적인 예입니다. 오픈 소스 모델 이었지만 훈련과 미세 조정에서 중국의 검열 규범의 각인을 분명히 수행했습니다. 대조적으로, OpenAi의 GPT-4 또는 Meta의 LLAMA와 같은 많은 서양 개발 모델은 CCP 가이드 라인을 보지 못하지만 일부 사용자는“검열, 폭력 또는 불명예와 같은 것들을 위해 여전히 중재 계층이 있습니다. .” 사이의 선 합리적인 중재 그리고 원치 않는 검열 흐릿해질 수 있으며 종종 문화적 또는 정치적 관점에 의존합니다.

DeepSeek R1로 ABER가 한 일은 오픈 소스 모델을 다른 가치 시스템이나 규제 환경에 적용 할 수 있다는 아이디어를 제기합니다. 이론적으로, 하나는 중국 규정 (중국에서 사용하기 위해)과 다른 곳에서 완전히 열린 (다른 곳에서 사용)를 준수하는 여러 버전의 모델을 만들 수 있습니다. R1 1776은 본질적으로 후자의 경우 – 여지가없는 답변을 선호하는 전 세계 청중을위한 무수정 된 포크입니다. 이런 종류의 포킹은 DeepSeek R1의 무게가 공개적으로 이용 가능했기 때문에 가능합니다. AI에서 오픈 소스의 이점을 강조합니다. 투명도. 누구나 모델을 가져 와서 보호 수단을 추가할지 여부를 조정 하거나이 경우와 같이 부과 된 제한을 제거 할 수 있습니다. 개방형 소싱 모델의 교육 데이터, 코드 또는 가중치는 커뮤니티가 모델 수정 방법을 감사 할 수 있음을 의미합니다. (Perplexity는 De-Censoring에 사용 된 모든 데이터 소스를 완전히 공개하지는 않았지만 모델 자체를 공개함으로써 다른 사람들이 동작을 관찰하고 필요한 경우 재교육을 할 수있었습니다.)

이 사건은 또한 AI 개발의 광범위한 지정 학적 역학을 끄덕입니다. 우리는 AI에 대한 다른 거버넌스 모델 사이에 대화 (또는 대립)의 형태를보고 있습니다. 특정 구운 세계관을 가진 중국이 개발 한 모델은 미국에 기반을 둔 팀에 의해 취해졌으며보다 개방형 정보 정신을 반영하도록 변경되었습니다. 방법에 대한 증거입니다 글로벌 및 경계없는 AI 기술은 다음과 같습니다. 연구원은 어디에서나 서로의 작업을 구축 할 수 있지만 원래의 제약을 수행 할 의무는 없습니다. 시간이 지남에 따라 모델이“번역”되거나 다른 문화적 맥락 사이에서 조정되는 더 많은 사례를 볼 수 있습니다. 그것은 AI가 진정으로 보편적 일 수 있는지, 또는 우리가 지역 규범을 준수하는 지역별 버전으로 끝날지에 대한 의문을 제기합니다. 투명성과 개방성은 이것을 탐색하기위한 하나의 경로를 제공합니다. 모든 측면이 모델을 검사 할 수 있다면 최소한 편견과 검열에 대한 대화가 기업이나 정부의 비밀 뒤에 숨겨져있는 것이 아니라 공개됩니다.

마지막으로, Perplexity의 움직임은 AI 통제에 대한 토론의 핵심 요점을 강조합니다. AI가 무엇을 말할 수 있는지 또는 할 수 없는지 누가 결정해야합니까? 오픈 소스 프로젝트에서는 그 힘이 분산됩니다. 커뮤니티 또는 개별 개발자는보다 엄격한 필터를 구현하거나이를 완화하기로 결정할 수 있습니다. R1 1776의 경우, Perplexity는 무수정 모델의 이점이 위험을 능가한다고 결정했으며, 그 전화를 걸고 결과를 공개적으로 공유 할 자유가있었습니다. 개방 된 AI 개발이 가능하게하는 실험의 종류의 대담한 예입니다.

게시물 Perplexity ai“Uncensors”Deepseek R1 : 누가 AI의 경계를 결정합니까? 먼저 나타났습니다 Unite.ai.

Share post:

Subscribe

Popular

More like this
Related

새로운 파트너십에서 Massrobotics 스타트 업을 지원하는 TC

인도 최대의 다국적 비즈니스 그룹 인 Tata Group의 일부인...

인간형 로봇 그림 Helix VLA 모델을 사용하여 가정용 집안일을 보여줍니다.

그림 AI Inc.는 어제 간단한 가정 작업의 나선 시각적...

1X는 최신 Humanoid Neo Gamma를 집에 더 잘 맞도록 만들었습니다.

1X는 최신 로봇 인 Neo Gamma가 휴머노이드를 매일 조력자로...

IEEE는 AI 교육 과정 및 미니 MBA 프로그램을 제공합니다.

인공 지능 비즈니스가 수행되는 방식을 바꾸고 있습니다. 프로세스 개선,보다...