por Michael Timothy Bennett, The Conversation

Crédito da imagem: Michael Timothy Bennett/Generated using Midjourney, criada pelo Autor
Recentemente, no blog inglês Independent, houve uma postagem em que o chefe do Google DeepMind, Demis Hassabis, disse que “existe a possibilidade” de a inteligência artificial ganhar autoconsciência “um dia”.
“Os filósofos ainda não chegaram a uma definição de consciência, mas se quisermos dizer por meio de autoconsciência, esse tipo de coisa, acho que existe a possibilidade de um dia existir na IA”, disse Hassabis em entrevista à CBS. 60 minutos.
Embora os sistemas de IA “definitivamente” não sejam sencientes hoje, de acordo com o chefe da Deepmind, ele disse que “é uma das coisas científicas fascinantes que vamos descobrir nesta jornada”.
Enquanto Hassabis, simplesmente emitiu uma opinião, no dia 26, o blog The Conversation postou um artigo mais fundamentado, sobre a possível autoconsciência de máquinas apresentando informações de uma nova pesquisa de Michael Timothy Bennett sobre como isto pode acontecer, que segue neste post.
Introdução
Para construir uma máquina, é preciso saber quais são suas partes e como elas se encaixam. Para entender a máquina, é preciso saber o que cada parte faz e como contribui para sua função. Em outras palavras, deve-se ser capaz de explicar a “mecânica” de como funciona.
De acordo com uma abordagem filosófica chamada mecanismo, os humanos são indiscutivelmente um tipo de máquina – e nossa capacidade de pensar, falar e entender o mundo é o resultado de um processo mecânico que não entendemos.
Para nos entendermos melhor, podemos tentar construir máquinas que imitem nossas habilidades. Ao fazer isso, teríamos uma compreensão mecanicista dessas máquinas. E quanto mais de nosso comportamento a máquina exibir, mais perto estaremos de ter uma explicação mecanicista de nossas próprias mentes.
Isso é o que torna a IA interessante do ponto de vista filosófico. Modelos avançados como GPT4 e Midjourney agora podem imitar a conversa humana, passar em exames profissionais e gerar belas imagens com apenas algumas palavras.
No entanto, apesar de todo o progresso, as perguntas permanecem sem resposta. Como podemos tornar algo autoconsciente ou consciente de que os outros estão cientes? O que é identidade? O que significa identidade?
Embora existam muitas descrições filosóficas concorrentes dessas coisas, todas elas resistiram à explicação mecanicista.
Em uma sequência de artigos aceitos para a 16ª Conferência Anual de Inteligência Artificial Geral em Estocolmo, o autor Michael Timothy Bennett propõe uma explicação mecanicista para esses fenômenos. Os artigos explicam como podemos construir uma máquina consciente de si mesma, dos outros, de si mesma como percebida pelos outros e assim por diante.
Inteligência e intenção
Muito do que chamamos de inteligência se resume a fazer previsões sobre o mundo com informações incompletas. Quanto menos informações uma máquina precisa para fazer previsões precisas, mais “inteligente” ela é.
Para qualquer tarefa, há um limite para quanta inteligência é realmente útil. Por exemplo, a maioria dos adultos é inteligente o suficiente para aprender a dirigir um carro, mas mais inteligência provavelmente não os tornará melhores motoristas.
Os artigos descrevem o limite superior de inteligência para uma determinada tarefa e o que é necessário para construir uma máquina que o atinja.
O autor chamou a ideia de Navalha de Bennett, que em termos não técnicos é que “as explicações não devem ser mais específicas do que o necessário“. Isso é diferente da interpretação popular da Navalha de Ockham (e suas descrições matemáticas), que é uma preferência por explicações mais simples.
A diferença é sutil, mas significativa. Em um experimento comparando a quantidade de dados que os sistemas de IA precisam para aprender matemática simples, a IA que preferiu explicações menos específicas superou a que prefere explicações mais simples em até 500%.
Explorar as implicações dessa descoberta me levou a uma explicação mecanicista do significado – algo chamado “pragmática griceana“. Este é um conceito em filosofia da linguagem que analisa como o significado está relacionado à intenção.
Para sobreviver, um animal precisa prever como seu ambiente, incluindo outros animais, agirá e reagirá. Você não hesitaria em deixar um carro sem vigilância perto de um cachorro, mas o mesmo não pode ser dito de seu almoço com bife de alcatra.
Ser inteligente em uma comunidade significa ser capaz de inferir a intenção dos outros, que decorre de seus sentimentos e preferências. Se uma máquina deveria atingir o limite superior de inteligência para uma tarefa que depende de interações com um ser humano, ela também teria que inferir corretamente a intenção.
E se uma máquina pode atribuir intenção aos eventos e experiências que acontecem com ela, isso levanta a questão da identidade e o que significa estar ciente de si mesmo e dos outros.
Causalidade e identidade
Vejo John vestindo uma capa de chuva quando chove. Se eu forçar John a usar uma capa de chuva em um dia ensolarado, isso trará chuva? Claro que não! Para um ser humano, isso é óbvio. Mas as sutilezas de causa e efeito são mais difíceis de ensinar a uma máquina (os leitores interessados podem conferir “The Book of Why”, de Judea Pearl e Dana Mackenzie).
Para raciocinar sobre essas coisas, uma máquina precisa aprender que “eu fiz acontecer” é diferente de “eu vi acontecer“. Normalmente, programaríamos esse entendimento nela.
No entanto, o trabalho explica como podemos construir uma máquina que funcione no limite superior da inteligência para uma tarefa. Tal máquina deve, por definição, identificar corretamente causa e efeito – e, portanto, também inferir relações causais. Os artigos do autor exploram exatamente como.
As implicações disso são profundas. Se uma máquina aprende “eu fiz isso acontecer“, então ela deve construir conceitos de “eu” (uma identidade para si mesma) e “isso“.
As habilidades de inferir intenções, aprender causa e efeito e construir identidades abstratas estão todas ligadas. Uma máquina que atinge o limite superior de inteligência para uma tarefa deve exibir todas essas habilidades.
Esta máquina não apenas constrói uma identidade para si mesma, mas para cada aspecto de cada objeto que ajuda ou atrapalha sua capacidade de completar a tarefa. Ela pode então usar suas próprias preferências como base para prever o que os outros podem fazer. Isso é semelhante à como os humanos tendem a atribuir intenção a animais não humanos.
Então, o que isso significa para a IA?
Claro, a mente humana é muito mais do que um simples programa usado para conduzir experimentos na pesquisa. O trabalho fornece uma descrição matemática de um possível caminho causal para a criação de uma máquina que é indiscutivelmente autoconsciente. No entanto, as especificidades da engenharia de tal coisa estão longe de serem resolvidas.
Por exemplo, a intenção humana exigiria experiências e sentimentos semelhantes aos humanos, o que é algo difícil de projetar. Além disso, não podemos testar facilmente toda a riqueza da consciência humana. A consciência é um conceito amplo e ambíguo que abrange – mas deve ser distinguido – das afirmações mais restritas acima.
O autor diz ainda que forneceu uma explicação mecanicista dos aspectos da consciência – mas isso por si só não capta toda a riqueza da consciência como os humanos a experimentam. Este é apenas o começo, e pesquisas futuras precisarão expandir esses argumentos.
Enfim
Desde o início deste ano formos bombardeados com posts, vídeos e artigos acadêmicos com novidades sobre algoritmos e novas pesquisas, descobertas e experimentos científicos sobre a inteligência artificial, aprendizado de máquina e suas vertentes, inclusive com especulações de possibilidades futuras de uma máquina autoconsciente. Este post adiciona ainda mais informações sobre o tema, com base em pesquisa e artigos que fornecem descrições de como avançar nesse sentido, porém ressalta que as especificidades da engenharia de tal coisa ainda estão para serem resolvidas.
Se gostou deste conteúdo, por favor, compartilhe este post.
Sobre mim: aqui. Contato: aqui.
Abraços, @neigrando
Referências
- Este post foi traduzido e levemente adaptado do artigo original em inglês “Can machines be self-aware? New research explains how this could happen” do blog The Conversation (26 de abril de 2023)
- Post “Google DeepMind chief says ‘there’s a possibility’ AI may become self-aware” (opinião de Demis Hassabis no blog Independent.
Artigos relacionados
- Cuidado com informações empresariais no ChatGPT
- O que é GPT-4 e como ele difere do ChatGPT?
- Tecnologias que transformam Empresas e Negócios
- Tendências para 2023 previstas pela Inteligência Artificial
- Novidades em Inteligência Artificial, segundo o Gartner (2022)
- A Inteligência Artificial e o Futuro da Tomada de Decisões Estratégicas
- Artigos sobre o uso da Inteligência Artificial em Negócios