영국, 규제 테스트로 AI 백서에 대응

영국, 규제 테스트로 AI 백서에 대응

소스 노드 : 3070094

영국 정부는 안전과 산업 성장에 초점을 맞춘 새로운 AI 법률에 대한 테스트를 발표할 예정입니다. AI 안전 연구소는 OpenAI, Google과 같은 AI 기업의 안전 위험이나 비준수로 인해 촉발되는 규제를 담당하는 역할을 맡게 됩니다.

파이낸셜 타임스(Financial Times)에 따르면, 이 법은 빠르게 발전하는 기술에 대해 더욱 엄격한 규제 체제를 만드는 데 저항하는 정부의 초점과 일치합니다. 앞으로 몇 주 안에 영국 장관들은 Google, OpenAI 및 기타 회사가 만든 강력한 인공 지능(AI) 모델에 대한 규제를 제정할 상황을 명시하는 기준을 발표할 예정입니다.

XNUMXD덴탈의 영국 정부 이를 감시하는 시스템, 바로 학계와 학습 전문가들로 구성된 AI안전연구소를 마련한다. AI 안전 연구소가 기술 관련 위험을 식별하지 못하면 개입이 시작됩니다. 입법을 촉발할 수 있는 또 다른 테스트는 AI 회사가 피해를 방지하겠다는 자발적인 약속을 지키지 못하는 경우입니다.

AI에 대한 영국 정부의 접근 방식

정부가 발표한 성명에서는 AI 규제에 대한 영국 정부의 가벼운 접근 방식이 이러한 테스트 발표에 반영될 것임을 확인했습니다. 성명에 따르면 그들은 위험을 완화하고 안전하고 책임감 있는 지원을 위한 조치를 취할 것입니다. AI 기술 필요에 따라. 이어 성명서는 시민사회 및 업계와 긴밀히 협의해 혁신적 접근방식을 유지하겠다고 밝혔습니다.

결과적으로, 이 철학은 새로운 법률이 이유 없이 혁신을 저해하지 않는다는 조항과 함께 영국 정부가 제안할 AI 법안을 통과시키기 위한 '테스트'를 거치게 될 것입니다.

이번 테스트는 2023년 XNUMX월 발간되는 정부 AI 백서 협의 과정의 일환으로 공개될 것으로 이해된다.

백서는 비판 없이 진행되지 않았습니다. 버밍엄 대학의 교수이자 박사과정 중인 Emma Ahmed-Rengers인 Karen Yeung은 이 문서가 건전한 정책을 위한 부적절한 기초라고 말했습니다. 그들은 이 문서가 대중의 이익을 위한 효과적이고 합법적인 규제 체계의 기초가 될 수 없다고 덧붙였습니다.

그러나 일부 다른 사람들은 영국의 AI 규제가 부문별 규제 기관에 의해 이루어지기 시작했다고 지적했습니다. 여기에는 관할권에서 알고리즘 감사를 수행하기 시작한 Ofcom과 정보위원회가 포함됩니다.

영국은 국제적으로 AI 규범에 적극적으로 참여하고 있습니다.

OpenAI, Google, DeepMind, Microsoft, Meta 등 AI 기업들은 지난 11월 여러 가지 자발적 정책에 서명했습니다. 그들은 영국 정부가 주최하는 글로벌 AI 안전 서밋의 일환으로 제품의 안전에 대해 우려하고 있습니다.

이들 회사는 다음을 허용하기로 동의했습니다. 영국 AI 안전연구소 다음과 같은 제품을 만드는 모델의 안전성을 평가하기 위해 ChatGPT 기업과 소비자가 사용하기 전에.

결과적으로 이러한 모델에 대한 평가가 진행 중이지만 어떻게 수행될지는 여전히 불분명합니다. 또한 AI 기업이 포괄적인 접근을 제공할지도 불분명하다. 정부 관계자에 따르면 현재 양측의 선의에 의존하고 있어 운이 좋다고 한다. 관계자는 이어 이들 모델에 대한 평가는 성격 의존적, CEO 의존적이라고 말했다.

타임 스탬프 :

더보기 메타뉴스