Poderiam as máquinas ser autoconscientes?

por Michael Timothy Bennett, The Conversation

Crédito da imagem: Michael Timothy Bennett/Generated using Midjourney, criada pelo Autor

Recentemente, no blog inglês Independent, houve uma postagem em que o chefe do Google DeepMind, Demis Hassabis, disse que “existe a possibilidade” de a inteligência artificial ganhar autoconsciência “um dia”.

Os filósofos ainda não chegaram a uma definição de consciência, mas se quisermos dizer por meio de autoconsciência, esse tipo de coisa, acho que existe a possibilidade de um dia existir na IA”, disse Hassabis em entrevista à CBS. 60 minutos.

Embora os sistemas de IA “definitivamente” não sejam sencientes hoje, de acordo com o chefe da Deepmind, ele disse que “é uma das coisas científicas fascinantes que vamos descobrir nesta jornada”.

Enquanto Hassabis, simplesmente emitiu uma opinião, no dia 26, o blog The Conversation postou um artigo mais fundamentado, sobre a possível autoconsciência de máquinas apresentando informações de uma nova pesquisa de Michael Timothy Bennett sobre como isto pode acontecer, que segue neste post.

Introdução

Para construir uma máquina, é preciso saber quais são suas partes e como elas se encaixam. Para entender a máquina, é preciso saber o que cada parte faz e como contribui para sua função. Em outras palavras, deve-se ser capaz de explicar a “mecânica” de como funciona.

De acordo com uma abordagem filosófica chamada mecanismo, os humanos são indiscutivelmente um tipo de máquina – e nossa capacidade de pensar, falar e entender o mundo é o resultado de um processo mecânico que não entendemos.

Para nos entendermos melhor, podemos tentar construir máquinas que imitem nossas habilidades. Ao fazer isso, teríamos uma compreensão mecanicista dessas máquinas. E quanto mais de nosso comportamento a máquina exibir, mais perto estaremos de ter uma explicação mecanicista de nossas próprias mentes.

Isso é o que torna a IA interessante do ponto de vista filosófico. Modelos avançados como GPT4 e Midjourney agora podem imitar a conversa humana, passar em exames profissionais e gerar belas imagens com apenas algumas palavras.

No entanto, apesar de todo o progresso, as perguntas permanecem sem resposta. Como podemos tornar algo autoconsciente ou consciente de que os outros estão cientes? O que é identidade? O que significa identidade?

Embora existam muitas descrições filosóficas concorrentes dessas coisas, todas elas resistiram à explicação mecanicista.

Em uma sequência de artigos aceitos para a 16ª Conferência Anual de Inteligência Artificial Geral em Estocolmo, o autor Michael Timothy Bennett propõe uma explicação mecanicista para esses fenômenos. Os artigos explicam como podemos construir uma máquina consciente de si mesma, dos outros, de si mesma como percebida pelos outros e assim por diante.

Inteligência e intenção

Muito do que chamamos de inteligência se resume a fazer previsões sobre o mundo com informações incompletas. Quanto menos informações uma máquina precisa para fazer previsões precisas, mais “inteligente” ela é.

Para qualquer tarefa, há um limite para quanta inteligência é realmente útil. Por exemplo, a maioria dos adultos é inteligente o suficiente para aprender a dirigir um carro, mas mais inteligência provavelmente não os tornará melhores motoristas.

Os artigos descrevem o limite superior de inteligência para uma determinada tarefa e o que é necessário para construir uma máquina que o atinja.

O autor chamou a ideia de Navalha de Bennett, que em termos não técnicos é que “as explicações não devem ser mais específicas do que o necessário“. Isso é diferente da interpretação popular da Navalha de Ockham (e suas descrições matemáticas), que é uma preferência por explicações mais simples.

A diferença é sutil, mas significativa. Em um experimento comparando a quantidade de dados que os sistemas de IA precisam para aprender matemática simples, a IA que preferiu explicações menos específicas superou a que prefere explicações mais simples em até 500%.

Explorar as implicações dessa descoberta me levou a uma explicação mecanicista do significado – algo chamado “pragmática griceana“. Este é um conceito em filosofia da linguagem que analisa como o significado está relacionado à intenção.

Para sobreviver, um animal precisa prever como seu ambiente, incluindo outros animais, agirá e reagirá. Você não hesitaria em deixar um carro sem vigilância perto de um cachorro, mas o mesmo não pode ser dito de seu almoço com bife de alcatra.

Ser inteligente em uma comunidade significa ser capaz de inferir a intenção dos outros, que decorre de seus sentimentos e preferências. Se uma máquina deveria atingir o limite superior de inteligência para uma tarefa que depende de interações com um ser humano, ela também teria que inferir corretamente a intenção.

E se uma máquina pode atribuir intenção aos eventos e experiências que acontecem com ela, isso levanta a questão da identidade e o que significa estar ciente de si mesmo e dos outros.

Causalidade e identidade

Vejo John vestindo uma capa de chuva quando chove. Se eu forçar John a usar uma capa de chuva em um dia ensolarado, isso trará chuva? Claro que não! Para um ser humano, isso é óbvio. Mas as sutilezas de causa e efeito são mais difíceis de ensinar a uma máquina (os leitores interessados podem conferir “The Book of Why”, de Judea Pearl e Dana Mackenzie).

Para raciocinar sobre essas coisas, uma máquina precisa aprender que “eu fiz acontecer” é diferente de “eu vi acontecer“. Normalmente, programaríamos esse entendimento nela.

No entanto, o trabalho explica como podemos construir uma máquina que funcione no limite superior da inteligência para uma tarefa. Tal máquina deve, por definição, identificar corretamente causa e efeito – e, portanto, também inferir relações causais. Os artigos do autor exploram exatamente como.

As implicações disso são profundas. Se uma máquina aprende “eu fiz isso acontecer“, então ela deve construir conceitos de “eu” (uma identidade para si mesma) e “isso.

As habilidades de inferir intenções, aprender causa e efeito e construir identidades abstratas estão todas ligadas. Uma máquina que atinge o limite superior de inteligência para uma tarefa deve exibir todas essas habilidades.

Esta máquina não apenas constrói uma identidade para si mesma, mas para cada aspecto de cada objeto que ajuda ou atrapalha sua capacidade de completar a tarefa. Ela pode então usar suas próprias preferências como base para prever o que os outros podem fazer. Isso é semelhante à como os humanos tendem a atribuir intenção a animais não humanos.

Então, o que isso significa para a IA?

Claro, a mente humana é muito mais do que um simples programa usado para conduzir experimentos na pesquisa. O trabalho fornece uma descrição matemática de um possível caminho causal para a criação de uma máquina que é indiscutivelmente autoconsciente. No entanto, as especificidades da engenharia de tal coisa estão longe de serem resolvidas.

Por exemplo, a intenção humana exigiria experiências e sentimentos semelhantes aos humanos, o que é algo difícil de projetar. Além disso, não podemos testar facilmente toda a riqueza da consciência humana. A consciência é um conceito amplo e ambíguo que abrange – mas deve ser distinguido – das afirmações mais restritas acima.

O autor diz ainda que forneceu uma explicação mecanicista dos aspectos da consciência – mas isso por si só não capta toda a riqueza da consciência como os humanos a experimentam. Este é apenas o começo, e pesquisas futuras precisarão expandir esses argumentos.

Enfim

Desde o início deste ano formos bombardeados com posts, vídeos e artigos acadêmicos com novidades sobre algoritmos e novas pesquisas, descobertas e experimentos científicos sobre a inteligência artificial, aprendizado de máquina e suas vertentes, inclusive com especulações de possibilidades futuras de uma máquina autoconsciente. Este post adiciona ainda mais informações sobre o tema, com base em pesquisa e artigos que fornecem descrições de como avançar nesse sentido, porém ressalta que as especificidades da engenharia de tal coisa ainda estão para serem resolvidas.

Se gostou deste conteúdo, por favor, compartilhe este post. 

Sobre mim: aqui. Contato: aqui.

Abraços, @neigrando

Referências

  • Este post foi traduzido e levemente adaptado do artigo original em inglês “Can machines be self-aware? New research explains how this could happen” do blog The Conversation (26 de abril de 2023)
  • Post “Google DeepMind chief says ‘there’s a possibility AI may become self-aware” (opinião de Demis Hassabis no blog Independent.

Artigos relacionados

Cuidado com informações empresariais no ChatGPT

Na verdade, não coloque dados proprietários sigilosos ou pessoais sensíveis no bate-papo GPT.

A mesma história que aconteceu com a Samsung está acontecendo agora em empresas de todo o mundo, quer elas saibam ou não.

A Samsung permitiu que sua equipe usasse o ChatGPT para ajudá-los a escrever um código melhor. E, ao fazer isso, seus funcionários colocam código proprietário no ChatGPT e esse código agora está nas mãos da OpenAI. Além do problema do código fonte, a Samsung sofreu com o vazamento de transcrições de reuniões confidenciais.

É importante observar aqui que isso se aplica a qualquer coisa, não apenas ao código. Portanto, se você está escrevendo uma postagem de blog e a escreve no chat GPT, está fazendo a mesma coisa: está entregando seus dados para o OpenAI.

Então, isso significa que a OpenAI está intencionalmente roubando o IP de seus usuários?

Não.

Isso significa que os usuários do chat GPT e DALL-E não estão totalmente cientes de para que servem essas ferramentas e o que acontece quando você insere dados nelas.

Explicando

ChatGPT e DALL-E são projetos de pesquisa da OpenAI. Eles são usados ​​para ver como iríamos interagir com esses modelos.

E quando você escreve conteúdo especificamente nesses serviços, a OpenAI retém o direito de examinar seu conteúdo, ver a saída que vem dele e, em seguida, aprender com ele para criar serviços melhores.

Isso é claramente declarado pela OpenAI: “Quando você usa nossos serviços ao consumidor não API, bate-papo GPT e DALL-E, podemos usar os dados que você nos fornece para melhorar nossos modelos“.

Quando você insere dados no ChatGPT, eles podem ser visualizados pela equipe da OpenAI. Portanto, se você estiver colocando informações da empresa, incluindo informações proprietárias/sigilosas no bate-papo GPT, estará vazando essas informações para terceiros.

O que fazer então

Há duas opções:

  • Você pode usar a API em vez do chat GPT. A API é um serviço comercial. Portanto, se você colocar dados lá, eles não serão analisados ​​pelo OpenAI. Ainda assim, alguns cuidados profissionais devem ser observados.
  • Ou você desativa ativamente o rastreamento de dados por meio de um formulário (você o encontrará nos termos de serviço). Vide também o artigo de 25 de abril sobre ChatGPT e novas Opções de Privacidade e Proteção de Dados.

Resumindo, se você estiver trabalhando com dados sigilosos ou sensíveis da empresa ou dados proprietários ou propriedade intelectual de qualquer tipo, não use o ChatGPT.

Em vez disso, use uma das duas opções ou, melhor ainda, configure sua própria instância da API OpenAI em um espaço seguro como o Microsoft Azure.

Se você deseja aproveitar o poder da Inteligência Artificial, é um bom investimento envolver um profissional.

Fonte: Traduzido e adaptado de um post do Twitter de Morten Rand-Hendriksen

Outros cuidados

Considere também os clones do ChatGPT e outras versões de chatbots de modelos grandes de linguagem (LLMs) de empresas concorrentes à OpenAI. Verifique as informações do produto sobre confidencialidade dos dados fornecidos.

Considerações finais

Assim como muitos profissionais estou encantado ao mesmo tempo que assustado com as últimas novidades da Inteligência Artificial, em especial o ChatGPT que tem sido um sucesso no mundo todo desde seu lançamento e principalmente depois das atualizações e melhorias que foram implementadas, mas tudo isso ainda é muito novo e merece nosso cuidado e atenção.

Legislação e regulamentação sempre vêm depois de algum tempo da disponibilidade da tecnologia, então cabe a cada um usar de pensamento crítico e bom senso, além de observar os termos de uso e privacidade dos produtos. Use com moderação, rss.

Sobre mim: aqui. Contato: aqui.

Abraços, @neigrando

Caso da Samsung

Artigos relacionados