O ChatGPT não consegue pensar - a consciência é algo totalmente diferente da IA ​​de hoje

O ChatGPT não consegue pensar - a consciência é algo totalmente diferente da IA ​​de hoje

Nó Fonte: 2674703

Tem havido choque em todo o mundo com a rápida taxa de progresso com ChatGPT e outras inteligências artificiais criadas com o que é conhecido como modelos de linguagem grandes (LLMs). Esses sistemas podem produzir textos que parecem exibir pensamento, compreensão e até criatividade.

Mas esses sistemas podem realmente pensar e entender? Esta não é uma questão que pode ser respondida através do avanço tecnológico, mas uma análise filosófica cuidadosa e argumentos nos dizem que a resposta é não. E sem trabalhar essas questões filosóficas, nunca compreenderemos totalmente os perigos e benefícios da revolução da IA.

Em 1950, o pai da computação moderna, Alan Turing, publicou um artigo que estabeleceu uma maneira de determinar se um computador pensa. Isso agora é chamado de “teste de Turing”. Turing imaginou um ser humano envolvido em uma conversa com dois interlocutores ocultos: um ser humano, o outro um computador. O jogo é descobrir qual é qual.

Se um computador conseguir enganar 70% dos juízes em uma conversa de 5 minutos fazendo-os pensar que é uma pessoa, o computador passa no teste. Passar no teste de Turing – algo que agora parece iminente – mostraria que uma IA alcançou pensamento e compreensão?

Desafio de xadrez

Turing descartou essa questão como irremediavelmente vaga e a substituiu por uma definição pragmática de “pensamento”, segundo a qual pensar significa apenas passar no teste.

Turing estava errado, no entanto, quando disse que a única noção clara de “compreensão” é a puramente comportamental de passar no teste. Embora essa forma de pensar agora domine a ciência cognitiva, há também uma noção clara e cotidiana de “entendimento” que está ligada a consciência. Compreender neste sentido é captar conscientemente alguma verdade sobre a realidade.

Em 1997, a Deep Blue AI derrotou o grande mestre de xadrez Garry Kasparov. Numa concepção de entendimento puramente comportamental, o Deep Blue tinha um conhecimento de estratégia de xadrez que supera qualquer ser humano. Mas não era consciente: não tinha nenhum sentimento ou experiência.

Os humanos entendem conscientemente as regras do xadrez e a lógica de uma estratégia. O Deep Blue, em contraste, era um mecanismo insensível que havia sido treinado para ter um bom desempenho no jogo. Da mesma forma, o ChatGPT é um mecanismo insensível que foi treinado em grandes quantidades de dados produzidos pelo homem para gerar conteúdo que parece ter sido escrito por uma pessoa.

Ele não entende conscientemente o significado das palavras que está cuspindo. Se “pensamento” significa o ato de reflexão consciente, então o ChatGPT não tem pensamentos sobre nada.

Hora de Pagar

Como posso ter tanta certeza de que o ChatGPT não está consciente? Na década de 1990, o neurocientista Christof Koch aposta filósofo David Chalmers uma caixa de vinho fino que os cientistas teriam identificado inteiramente os “correlatos neurais da consciência” em 25 anos.

Com isso, ele quis dizer que eles teriam identificado as formas de atividade cerebral necessárias e suficientes para a experiência consciente. Já era hora de Koch pagar, pois não há consenso de que isso tenha acontecido.

Isto é porque consciência não pode ser observado olhando dentro de sua cabeça. Em suas tentativas de encontrar uma conexão entre a atividade cerebral e a experiência, os neurocientistas devem confiar no testemunho de seus sujeitos ou em marcadores externos de consciência. Mas há várias maneiras de interpretar os dados.

Alguns cientistas acreditam que existe uma conexão estreita entre a consciência e a cognição reflexiva - a capacidade do cérebro de acessar e usar informações para tomar decisões. Isso os leva a pensar que o córtex pré-frontal do cérebro — onde ocorrem os processos de alto nível de aquisição de conhecimento — está essencialmente envolvido em todas as experiências conscientes. Outros negam isso, argumentando em vez disso acontece em qualquer região cerebral local em que o processamento sensorial relevante ocorra.

Os cientistas têm uma boa compreensão da química básica do cérebro. Também fizemos progressos na compreensão das funções de alto nível de várias partes do cérebro. Mas estamos quase sem noção sobre a parte intermediária: como o funcionamento de alto nível do cérebro é realizado no nível celular.

As pessoas ficam muito entusiasmadas com o potencial das varreduras para revelar o funcionamento do cérebro. Mas fMRI (ressonância magnética funcional) tem uma resolução muito baixa: cada pixel em uma varredura cerebral corresponde a 5.5 milhões de neurônios, o que significa que há um limite para a quantidade de detalhes que essas varreduras são capazes de mostrar.

Acredito que o progresso na consciência virá quando entendermos melhor como o cérebro funciona.

Pausa no desenvolvimento

Como argumento em meu próximo livro Por que? O propósito do universo, a consciência deve ter evoluído porque fez uma diferença comportamental. Os sistemas com consciência devem se comportar de maneira diferente e, portanto, sobreviver melhor do que os sistemas sem consciência.

Se todo comportamento fosse determinado pela química e pela física subjacentes, a seleção natural não teria motivação para tornar os organismos conscientes; teríamos evoluído como mecanismos de sobrevivência insensíveis.

Minha aposta, então, é que, à medida que aprendermos mais sobre o funcionamento detalhado do cérebro, identificaremos com precisão quais áreas do cérebro incorporam a consciência. Isso ocorre porque essas regiões exibirão um comportamento que não pode ser explicado pela química e física atualmente conhecidas. Já, alguns neurocientistas estão buscando novas explicações potenciais para a consciência para complementar as equações básicas da física.

Embora o processamento de LLMs seja agora muito complexo para entendermos completamente, sabemos que, em princípio, poderia ser previsto a partir da física conhecida. Com base nisso, podemos afirmar com segurança que o ChatGPT não é consciente.

Existem muitos perigos representados pela IA, e apoio totalmente a recente chamada de dezenas de milhares de pessoas, incluindo os líderes de tecnologia Steve Wozniak e Elon Musk, fazer uma pausa desenvolvimento para lidar com questões de segurança. O potencial de fraude, por exemplo, é imenso. No entanto, o argumento de que os descendentes de curto prazo dos atuais sistemas de IA serão superinteligentes e, portanto, uma grande ameaça para a humanidade, é prematuro.

Isso não significa que os sistemas de IA atuais não sejam perigosos. Mas não podemos avaliar corretamente uma ameaça a menos que a categorizemos com precisão. LLMs não são inteligentes. São sistemas treinados para dar a aparência externa da inteligência humana. Assustador, mas não tão assustador.A Conversação

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.

Crédito de imagem: Gerd Altmann da P

Carimbo de hora:

Mais de Singularity Hub