OpenAI는 초 지능을 규제하기 위해 글로벌 에이전시를 요구합니다.

OpenAI는 초 지능을 규제하기 위해 글로벌 에이전시를 요구합니다.

소스 노드 : 2674707

GPT-4 제조업체 OpenAI의 최고 경영진에 따르면 국제 기관은 인공 일반 지능이 인류에게 안전한지 확인하기 위해 검사 및 감사를 담당해야 합니다.

CEO Sam Altman과 공동 창립자 Greg Brockman 및 Ilya Sutskever는 AI가 향후 XNUMX년 동안 인간을 능가하는 놀라운 능력을 갖게 될 것이라고 "상상할 수 있다"고 말했습니다.

“잠재적인 장점과 단점 모두에서 초지능은 인류가 과거에 싸워야 했던 다른 기술보다 더 강력할 것입니다. 우리는 훨씬 더 번영하는 미래를 가질 수 있습니다. 하지만 거기에 도달하려면 위험을 관리해야 합니다.” 화요일에.

그러한 강력한 기술을 구축하는 비용은 더 많은 사람들이 그것을 발전시키기 위해 노력함에 따라 감소할 뿐이라고 그들은 주장했습니다. 진행상황을 통제하기 위해서는 국제원자력기구(IAEA)와 같은 국제기구가 개발을 감독해야 한다.

IAEA는 1957년 정부가 냉전 기간 동안 핵무기가 개발될 것을 두려워하던 시기에 설립되었습니다. 이 기관은 원자력 규제를 돕고 원자력이 군사 목적으로 사용되지 않도록 보호 장치를 설정합니다.

“우리는 궁극적으로 초지능 노력을 위해 IAEA와 같은 것이 필요할 것입니다. 특정 기능(또는 컴퓨팅과 같은 리소스) 임계값을 초과하는 모든 노력은 시스템을 검사하고, 감사를 요구하고, 안전 표준 준수를 테스트하고, 배포 정도 및 보안 수준에 제한을 둘 수 있는 국제 기관의 적용을 받아야 합니다. "라고 그들은 말했다.

이러한 그룹은 크고 강력한 모델을 교육하고 실행하는 데 필요한 필수 리소스인 컴퓨팅 및 에너지 사용 추적을 담당하게 됩니다.

OpenAI의 최고 책임자는 "우리는 프론티어에서 AI 역량의 성장률이 연간 특정 비율로 제한된다는 데 총체적으로 동의할 수 있습니다."라고 제안했습니다. 기업은 검사에 자발적으로 동의해야 하며, 기관은 국가의 개별 법률에 의해 정의되고 설정된 규제 문제가 아닌 "실존적 위험 감소"에 중점을 두어야 합니다.

지난 주 Altman은 기업이 상원에서 특정 임계값 이상의 고급 기능을 갖춘 모델을 구축할 수 있는 라이선스를 획득해야 한다는 아이디어를 제시했습니다. 듣기. 그의 제안은 법적 요구 사항을 충족할 리소스가 적은 소규모 회사 또는 오픈 소스 커뮤니티에서 구축한 AI 시스템에 부당한 영향을 미칠 수 있기 때문에 나중에 비판을 받았습니다.

"우리는 회사와 오픈 소스 프로젝트가 여기서 설명하는 종류의 규제(라이선스 또는 감사와 같은 부담스러운 메커니즘 포함) 없이 상당한 능력 임계값 미만의 모델을 개발할 수 있도록 허용하는 것이 중요하다고 생각합니다."라고 그들은 말했습니다.

1,000월 말 Elon Musk는 인류에 대한 잠재적 위험으로 인해 GPT4보다 더 강력한 AI를 개발하고 훈련하는 데 XNUMX개월 동안 중단할 것을 요구하는 공개 서한의 XNUMX개 서명자 중 한 명이었습니다. 확인 된 XNUMX월 중순에 하고 있었다.

"강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때만 개발해야 합니다."

알파벳과 구글 CEO 순다르 피차이는 주말에 파이낸셜 타임즈에 글을 썼습니다. 속담: "저는 여전히 AI가 규제하지 않기에는 너무 중요하고, 잘 규제하기에는 너무 중요하다고 생각합니다." ®

타임 스탬프 :

더보기 등록