Especialistas alertam para a extinção da IA ​​se não forem tomadas medidas agora

Especialistas alertam para a extinção da IA ​​se não forem tomadas medidas agora

Nó Fonte: 2688105

Há outra carta aberta pessimista sobre a IA fazendo as rondas. Desta vez, uma ampla gama de líderes de tecnologia, luminares de ML e até mesmo algumas celebridades se inscreveram para instar o mundo a levar mais a sério as alegadas ameaças de nível de extinção representadas pela inteligência artificial. 

Mais apropriadamente uma declaração, a mensagem do Center for AI Safety (CAIS) assinada por indivíduos como AI pioneiro Geoffrey Hinton, CEO da OpenAI Sam Altman, guru da criptografia Martin Hellman, CTO da Microsoft Kevin Scott e outros é um sentença declarativa única prevendo o apocalipse se não for atendido:

“Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”. 

Por que tão breve? O objetivo era “demonstrar a ampla e crescente coalizão de cientistas de IA, líderes tecnológicos e professores preocupados com os riscos de extinção da IA. Precisamos de amplo reconhecimento das apostas para que possamos ter discussões políticas úteis”, disse o diretor do CAIS, Dan Hendrycks O registro.

O CAIS não faz menção à inteligência artificial geral (AGI) em seus lista de riscos de IA, nós notamos. E os modelos da geração atual, como o ChatGPT, não são uma ameaça apocalíptica para a humanidade, disse Hendrycks. O aviso desta semana é sobre o que pode vir a seguir.

“Os tipos de ameaças catastróficas a que esta declaração se refere estão associados a futuros sistemas avançados de IA”, opinou Hendrycks. Ele acrescentou que os avanços necessários para atingir o nível de “ameaça apocalíptica” podem demorar apenas dois a 10 anos, não várias décadas. “Precisamos nos preparar agora. No entanto, os sistemas de IA que podem causar resultados catastróficos não precisam ser AGIs”, disse ele. 

Porque os humanos são perfeitamente pacíficos de qualquer maneira

Um desses ameaça é armamento, ou a ideia de que alguém poderia redirecionar a IA benevolente para ser altamente destrutiva, como usar um bot de descoberta de drogas para desenvolver armas químicas ou biológicas ou usar aprendizado por reforço para combate baseado em máquina. Dito isso, os humanos já são capazes de fabricar esse tipo de arma, que pode destruir uma pessoa, bairro, cidade ou país.

A IA também pode ser treinada para perseguir seus objetivos sem levar em consideração os valores individuais ou sociais, fomos avisados. Poderia “enfraquecer” os humanos que acabam cedendo habilidades e habilidades para máquinas automatizadas, causando um desequilíbrio de poder entre os controladores da IA ​​e os deslocados pela automação, ou ser usado para espalhar desinformação, intencionalmente ou de outra forma.

Novamente, nenhuma IA envolvida nisso precisa ser geral, e não é muito difícil ver o potencial da IA ​​da geração atual evoluir para representar os tipos de riscos com os quais o CAIS está preocupado. Você pode ter suas próprias opiniões sobre o quão verdadeiramente destrutivo ou capaz o software pode ou será, e o que ele realmente pode alcançar.

É crucial, continua o argumento do CAIS, examinar e abordar os impactos negativos da IA ​​que já estão sendo sentidos e transformar esses impactos existentes em previsão. “À medida que lidamos com os riscos imediatos da IA… a indústria de IA e os governos de todo o mundo também precisam enfrentar seriamente o risco de que futuras IAs possam representar uma ameaça à existência humana”, Hendrycks dito em um comunicado.

“O mundo cooperou com sucesso para mitigar os riscos relacionados à guerra nuclear. O mesmo nível de esforço é necessário para enfrentar os perigos representados pelos futuros sistemas de IA”, pediu Hendrycks, com uma lista de líderes corporativos, acadêmicos e de pensamento que o apoiam. 

Musk não está a bordo

Outros signatários incluem o cientista principal do Google DeepMind, Ian Goodfellow, os filósofos David Chalmers e Daniel Dennett, o autor e blogueiro Sam Harris e o ex do músico/Elon Musk, Grimes. Falando do próprio homem, a assinatura de Musk está ausente. 

O CEO do Twitter foi entre os que assinaram um carta aberta publicado pelo Future of Life Institute em março passado, pedindo uma pausa de seis meses sobre o treinamento de sistemas de IA “mais poderosos que o GPT-4”. Sem surpresa, a assinatura do CEO da OpenAI, Altman, estava ausente que carta particular, ostensivamente porque chamou sua empresa diretamente. 

Desde então, a OpenAI emitiu seus próprios avisos sobre as ameaças representadas pela IA avançada e pediu o estabelecimento de um órgão de vigilância global semelhante à Agência Internacional de Energia Atômica para regular o uso da IA.

Esse aviso e chamada regulatória, em um caso de timing historicamente ruim, veio no mesmo dia em que Altman ameaçado para puxar OpenAI, e ChatGPT com ele, da UE sobre o bloco Lei de IA. As regras que ele apóia são uma coisa, mas Altman disse a Bruxelas que sua ideia de restrição de IA era uma ponte regulatória longe demais, muito obrigado. 

parlamentares da UE respondeu dizendo que não seriam ditados pela OpenAI e que, se a empresa não cumprir as regras básicas de governança e transparência, “seus sistemas não são adequados para o mercado europeu”, afirmou o eurodeputado holandês Kim van Sparrentak. 

Pedimos à OpenAI esclarecimentos sobre a(s) posição(ões) de Altman e atualizaremos esta história se tivermos uma resposta. ®

Carimbo de hora:

Mais de O registro