전문가들은 지금 조치를 취하지 않으면 AI에서 멸종될 것이라고 경고합니다.

전문가들은 지금 조치를 취하지 않으면 AI에서 멸종될 것이라고 경고합니다.

소스 노드 : 2688105

AI가 돌고 있는 것에 대한 또 다른 운명적인 공개 서한이 있습니다. 이번에는 광범위한 기술 리더, ML 전문가, 심지어 몇몇 유명인까지 서명하여 인공 지능이 제기하는 멸종 수준의 위협을 더 심각하게 받아들일 것을 전 세계에 촉구했습니다. 

AI 선구자와 같은 개인이 서명한 AI 안전 센터(CAIS)의 메시지는 보다 적절한 진술입니다. 제프리 힌튼, OpenAI CEO Sam Altman, 암호화 전문가 Martin Hellman, Microsoft CTO Kevin Scott 등은 단일 선언문 주의를 기울이지 않으면 종말을 예측합니다.

"AI로 인한 멸종 위험을 완화하는 것은 전염병 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적으로 우선 순위가 되어야 합니다." 

왜 그렇게 짧습니까? 목표는 "AI 멸종 위험에 대해 우려하는 AI 과학자, 기술 리더 및 교수의 광범위하고 성장하는 연합을 입증하는 것이었습니다. 우리는 유용한 정책 토론을 할 수 있도록 이해 관계에 대한 광범위한 인정이 필요합니다.”라고 CAIS 책임자인 Dan Hendrycks는 말했습니다. 등록.

CAIS는 보고서에서 인공일반지능(AGI)에 대해 언급하지 않습니다. AI 위험 목록, 우리는 주목합니다. 그리고 ChatGPT와 같은 현세대 모델은 인류에 대한 묵시적인 위협이 아니라고 Hendrycks는 말했습니다. 이번 주 경고는 다음에 올 수 있는 일에 대한 것입니다.

Hendrycks는 "이 성명서에서 언급하는 치명적인 위협 유형은 미래의 고급 AI 시스템과 관련이 있습니다."라고 말했습니다. 그는 "종말론적 위협" 수준에 도달하는 데 필요한 발전이 수십 년이 아닌 짧게는 10년에서 XNUMX년 정도 걸릴 수 있다고 덧붙였습니다. “지금부터 준비해야 합니다. 그러나 치명적인 결과를 초래할 수 있는 AI 시스템이 AGI일 필요는 없습니다.”라고 그는 말했습니다. 

어차피 인간은 완벽하게 평화롭기 때문에

그중 하나 위협 무기화 ​​또는 누군가가 자비로운 AI를 고도로 파괴적인 용도로 사용할 수 있다는 생각입니다. 예를 들어 약물 발견 봇을 사용하여 화학적 또는 생물학적 무기를 개발하거나 기계 기반 전투를 위한 강화 학습을 사용하는 것입니다. 즉, 인간은 이미 사람, 이웃, 도시 또는 국가를 제거할 수 있는 그런 종류의 무기를 제조할 수 있습니다.

AI는 또한 개인 또는 사회적 가치를 고려하지 않고 목표를 추구하도록 훈련받을 수 있다고 경고합니다. 그것은 기술과 능력을 자동화된 기계에 넘겨주는 인간을 "약하게" 하여 AI의 컨트롤러와 자동화에 의해 대체된 컨트롤러 사이에 힘의 불균형을 일으키거나 의도적으로 또는 허위 정보를 퍼뜨리는 데 사용될 수 있습니다. 그렇지 않으면.

다시 말하지만, 여기에 관련된 AI 중 어느 것도 일반적일 필요가 없으며 현세대 AI가 CAIS가 우려하는 종류의 위험을 제기하도록 진화할 가능성을 보는 것은 무리가 아닙니다. 소프트웨어가 실제로 얼마나 파괴적이거나 능력이 있는지, 그리고 실제로 무엇을 달성할 수 있는지에 대한 자신의 의견이 있을 수 있습니다.

CAIS의 주장은 이미 감지되고 있는 AI의 부정적인 영향을 조사하고 해결하고 이러한 현존하는 영향을 예측으로 전환하는 것이 중요하다고 주장합니다. Hendrycks는 "당면한 AI 위험과 씨름하면서... 전 세계 AI 산업과 정부도 미래 AI가 인간 존재에 위협이 될 수 있는 위험에 심각하게 맞서야 합니다."라고 말했습니다. 말했다 문한다.

“세계는 핵전쟁과 관련된 위험을 완화하기 위해 성공적으로 협력했습니다. 미래의 AI 시스템이 제기하는 위험을 해결하기 위해서는 동일한 수준의 노력이 필요합니다. 

머스크는 탑승하지 않았다

다른 서명자에는 Google DeepMind 수석 과학자 Ian Goodfellow, 철학자 David Chalmers 및 Daniel Dennett, 작가 겸 블로거 Sam Harris 및 음악가/Elon Musk의 전 Grimes가 포함됩니다. 그 남자 자신에 대해 말하자면, 머스크의 서명은 없다. 

트위터 CEO 였다 에 서명한 사람들 중에서 공개 서한 지난 XNUMX월 생명의 미래 연구소(Future of Life Institute)에서 발표한 XNUMX개월 휴지 "GPT-4보다 더 강력한" AI 시스템 훈련에 대해. 당연히 OpenAI CEO Altman의 서명이 없었습니다. 표면적으로는 그의 회사를 직접 호출했기 때문입니다. 

OpenAI는 이후 자체 경고 첨단 AI가 가하는 위협에 대해 국제원자력기구(IAEA)와 유사한 글로벌 감시 기구를 설치하여 AI 사용을 규제할 것을 촉구했습니다.

그 경고 및 규제 요청은 역사적으로 타이밍이 좋지 않은 경우 같은 날 Altman에게 왔습니다. 위협 OpenAI와 ChatGPT를 블록을 통해 EU에서 가져옵니다. AI법. 그가 지지하는 규칙은 한 가지이지만, Altman은 브뤼셀에 AI 제한에 대한 그들의 생각은 너무 지나친 규제 다리라고 말했습니다. 대단히 감사합니다. 

EU 의원 응답 네덜란드 MEP Kim van Sparrentak은 OpenAI의 지시를 받지 않을 것이며 회사가 기본 거버넌스와 투명성 규칙을 준수할 수 없다면 "그들의 시스템은 유럽 시장에 적합하지 않다"고 주장했습니다. 

우리는 OpenAI에 Altman의 입장에 대한 설명을 요청했고 회신을 받으면 이 이야기를 업데이트할 것입니다. ®

타임 스탬프 :

더보기 등록