OpenAI pede agência global para regular superinteligência

OpenAI pede agência global para regular superinteligência

Nó Fonte: 2674707

Uma agência internacional deveria ser encarregada de inspecionar e auditar a inteligência artificial geral para garantir que a tecnologia seja segura para a humanidade, de acordo com os principais executivos da OpenAI, fabricante do GPT-4.

O CEO Sam Altman e os cofundadores Greg Brockman e Ilya Sutskever disseram que é “concebível” que a IA obtenha habilidades extraordinárias que superam os humanos na próxima década.

“Em termos de possíveis vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Podemos ter um futuro dramaticamente mais próspero; mas temos que administrar o risco para chegar lá”, o trio escreveu na terça-feira.

Os custos de construção de uma tecnologia tão poderosa estão diminuindo à medida que mais pessoas trabalham para avançá-la, argumentaram. Para controlar o progresso, o desenvolvimento deve ser supervisionado por uma organização internacional como a Agência Internacional de Energia Atômica (AIEA).

A AIEA foi criada em 1957 durante uma época em que os governos temiam que armas nucleares fossem desenvolvidas durante a Guerra Fria. A agência ajuda a regular a energia nuclear e estabelece salvaguardas para garantir que a energia nuclear não seja usada para fins militares.

“É provável que eventualmente precisemos de algo como uma IAEA para esforços de superinteligência; qualquer esforço acima de um determinado limite de capacidade (ou recursos como computação) precisará estar sujeito a uma autoridade internacional que pode inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, impor restrições aos graus de implantação e níveis de segurança etc. " eles disseram.

Esse grupo seria responsável por rastrear o uso de computação e energia, recursos vitais necessários para treinar e executar modelos grandes e poderosos.

“Poderíamos concordar coletivamente que a taxa de crescimento da capacidade de IA na fronteira é limitada a uma certa taxa por ano”, sugeriu o alto escalão da OpenAI. As empresas teriam que concordar voluntariamente com as inspeções, e a agência deveria se concentrar em “reduzir o risco existencial”, não em questões regulatórias definidas e definidas pelas leis individuais de cada país.

Na semana passada, Altman apresentou a ideia de que as empresas devem obter uma licença para construir modelos com recursos avançados acima de um limite específico em um Senado audição. Sua sugestão foi posteriormente criticada, pois poderia impactar injustamente os sistemas de IA construídos por empresas menores ou pela comunidade de código aberto, que têm menos probabilidade de ter os recursos para atender aos requisitos legais.

“Achamos importante permitir que empresas e projetos de código aberto desenvolvam modelos abaixo de um limite de capacidade significativo, sem o tipo de regulamentação que descrevemos aqui (incluindo mecanismos onerosos como licenças ou auditorias)”, disseram eles.

Elon Musk no final de março foi um dos 1,000 signatários de uma carta aberta que pedia uma pausa de seis meses no desenvolvimento e treinamento de uma IA mais poderosa que a GPT4 devido aos riscos potenciais para a humanidade, algo que Altman confirmado em meados de abril estava fazendo.

“Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, afirmou a carta.

O CEO da Alphabet e do Google, Sundar Pichai, escreveu um artigo no Financial Times no fim de semana, dizendo: “Ainda acredito que a IA é muito importante para não ser regulada e muito importante para não ser bem regulada”. ®

Carimbo de hora:

Mais de O registro