미국, 영국 및 기타 국가에서는 '안전한 설계' AI 가이드라인을 잉크로 작성했습니다.

미국, 영국 및 기타 국가에서는 '안전한 설계' AI 가이드라인을 잉크로 작성했습니다.

소스 노드 : 2979839

미국, 영국, 호주 및 기타 15개 국가에서는 AI 모델이 변조되지 않도록 보호하는 데 도움이 되는 글로벌 지침을 발표하고 기업에 모델을 "설계상 안전"하게 만들 것을 촉구했습니다.

26월 18일 20개국이 XNUMX페이지 분량의 책을 공개했다. 문서 빠르게 변화하는 업계에서 "보안은 종종 부차적인 고려 사항일 수 있다"고 주장하면서 AI 회사가 AI 모델을 개발하거나 사용할 때 사이버 보안을 어떻게 처리해야 하는지 간략하게 설명합니다.

지침은 AI 모델 인프라에 대한 엄격한 통제 유지, 출시 전후 모델 변조 모니터링, 사이버 보안 위험에 대한 직원 교육 등 대부분 일반적인 권장 사항으로 구성되었습니다.

AI 사용과 관련하여 어떤 가능한 제어가 있어야 하는지를 포함하여 AI 공간에서 논쟁의 여지가 있는 특정 문제는 언급되지 않았습니다. 이미지 생성 모델과 딥페이크 또는 데이터 수집 방법 및 훈련 모델에서의 사용 — 본 문제 여러 AI 회사가 소송을 제기했습니다. 저작권 침해 주장에 대해.

알레한드로 마요르카스 미국 국토안보부 장관은 “우리는 우리 시대의 가장 중요한 기술이 될 인공지능 개발의 변곡점에 서 있다”고 말했다. 말했다 성명서에서. “사이버 보안은 안전하고 신뢰할 수 있는 AI 시스템을 구축하는 데 핵심입니다.”

관련 : EU 기술 연합, EU AI법이 확정되기 전에 AI를 과도하게 규제할 것을 경고

이 지침은 정부 및 AI 회사를 포함하여 AI에 무게를 두는 다른 정부 이니셔티브를 따릅니다. AI 안전 서밋 회의 이달 초 런던에서 AI 개발에 관한 합의를 조율했습니다.

한편 유럽연합은 세부정보 해싱 우주를 감독할 AI법을 제정했고 조 바이든 미국 대통령은 지난 10월 AI 안전과 보안에 대한 표준을 설정하는 행정 명령을 발표했습니다. 푸시백을 본 적이 있다 AI 업계에서는 혁신을 억제할 수 있다고 주장합니다.

새로운 "설계에 의한 보안" 지침에 대한 다른 공동 서명자로는 캐나다, 프랑스, ​​독일, 이스라엘, 이탈리아, 일본, 뉴질랜드, 나이지리아, 노르웨이, 한국 및 싱가포르가 있습니다. OpenAI, Microsoft, Google, Anthropic, Scale AI 등 AI 기업들도 가이드라인 개발에 기여했습니다.

매거진 : AI Eye: 암호화폐에서 AI의 실제 사용, Google의 GPT-4 라이벌, 나쁜 직원을 위한 AI 엣지

타임 스탬프 :

더보기 코인 텔레그래프