Poderiam as máquinas ser autoconscientes?

por Michael Timothy Bennett, The Conversation

Crédito da imagem: Michael Timothy Bennett/Generated using Midjourney, criada pelo Autor

Recentemente, no blog inglês Independent, houve uma postagem em que o chefe do Google DeepMind, Demis Hassabis, disse que “existe a possibilidade” de a inteligência artificial ganhar autoconsciência “um dia”.

Os filósofos ainda não chegaram a uma definição de consciência, mas se quisermos dizer por meio de autoconsciência, esse tipo de coisa, acho que existe a possibilidade de um dia existir na IA”, disse Hassabis em entrevista à CBS. 60 minutos.

Embora os sistemas de IA “definitivamente” não sejam sencientes hoje, de acordo com o chefe da Deepmind, ele disse que “é uma das coisas científicas fascinantes que vamos descobrir nesta jornada”.

Enquanto Hassabis, simplesmente emitiu uma opinião, no dia 26, o blog The Conversation postou um artigo mais fundamentado, sobre a possível autoconsciência de máquinas apresentando informações de uma nova pesquisa de Michael Timothy Bennett sobre como isto pode acontecer, que segue neste post.

Introdução

Para construir uma máquina, é preciso saber quais são suas partes e como elas se encaixam. Para entender a máquina, é preciso saber o que cada parte faz e como contribui para sua função. Em outras palavras, deve-se ser capaz de explicar a “mecânica” de como funciona.

De acordo com uma abordagem filosófica chamada mecanismo, os humanos são indiscutivelmente um tipo de máquina – e nossa capacidade de pensar, falar e entender o mundo é o resultado de um processo mecânico que não entendemos.

Para nos entendermos melhor, podemos tentar construir máquinas que imitem nossas habilidades. Ao fazer isso, teríamos uma compreensão mecanicista dessas máquinas. E quanto mais de nosso comportamento a máquina exibir, mais perto estaremos de ter uma explicação mecanicista de nossas próprias mentes.

Isso é o que torna a IA interessante do ponto de vista filosófico. Modelos avançados como GPT4 e Midjourney agora podem imitar a conversa humana, passar em exames profissionais e gerar belas imagens com apenas algumas palavras.

No entanto, apesar de todo o progresso, as perguntas permanecem sem resposta. Como podemos tornar algo autoconsciente ou consciente de que os outros estão cientes? O que é identidade? O que significa identidade?

Embora existam muitas descrições filosóficas concorrentes dessas coisas, todas elas resistiram à explicação mecanicista.

Em uma sequência de artigos aceitos para a 16ª Conferência Anual de Inteligência Artificial Geral em Estocolmo, o autor Michael Timothy Bennett propõe uma explicação mecanicista para esses fenômenos. Os artigos explicam como podemos construir uma máquina consciente de si mesma, dos outros, de si mesma como percebida pelos outros e assim por diante.

Inteligência e intenção

Muito do que chamamos de inteligência se resume a fazer previsões sobre o mundo com informações incompletas. Quanto menos informações uma máquina precisa para fazer previsões precisas, mais “inteligente” ela é.

Para qualquer tarefa, há um limite para quanta inteligência é realmente útil. Por exemplo, a maioria dos adultos é inteligente o suficiente para aprender a dirigir um carro, mas mais inteligência provavelmente não os tornará melhores motoristas.

Os artigos descrevem o limite superior de inteligência para uma determinada tarefa e o que é necessário para construir uma máquina que o atinja.

O autor chamou a ideia de Navalha de Bennett, que em termos não técnicos é que “as explicações não devem ser mais específicas do que o necessário“. Isso é diferente da interpretação popular da Navalha de Ockham (e suas descrições matemáticas), que é uma preferência por explicações mais simples.

A diferença é sutil, mas significativa. Em um experimento comparando a quantidade de dados que os sistemas de IA precisam para aprender matemática simples, a IA que preferiu explicações menos específicas superou a que prefere explicações mais simples em até 500%.

Explorar as implicações dessa descoberta me levou a uma explicação mecanicista do significado – algo chamado “pragmática griceana“. Este é um conceito em filosofia da linguagem que analisa como o significado está relacionado à intenção.

Para sobreviver, um animal precisa prever como seu ambiente, incluindo outros animais, agirá e reagirá. Você não hesitaria em deixar um carro sem vigilância perto de um cachorro, mas o mesmo não pode ser dito de seu almoço com bife de alcatra.

Ser inteligente em uma comunidade significa ser capaz de inferir a intenção dos outros, que decorre de seus sentimentos e preferências. Se uma máquina deveria atingir o limite superior de inteligência para uma tarefa que depende de interações com um ser humano, ela também teria que inferir corretamente a intenção.

E se uma máquina pode atribuir intenção aos eventos e experiências que acontecem com ela, isso levanta a questão da identidade e o que significa estar ciente de si mesmo e dos outros.

Causalidade e identidade

Vejo John vestindo uma capa de chuva quando chove. Se eu forçar John a usar uma capa de chuva em um dia ensolarado, isso trará chuva? Claro que não! Para um ser humano, isso é óbvio. Mas as sutilezas de causa e efeito são mais difíceis de ensinar a uma máquina (os leitores interessados podem conferir “The Book of Why”, de Judea Pearl e Dana Mackenzie).

Para raciocinar sobre essas coisas, uma máquina precisa aprender que “eu fiz acontecer” é diferente de “eu vi acontecer“. Normalmente, programaríamos esse entendimento nela.

No entanto, o trabalho explica como podemos construir uma máquina que funcione no limite superior da inteligência para uma tarefa. Tal máquina deve, por definição, identificar corretamente causa e efeito – e, portanto, também inferir relações causais. Os artigos do autor exploram exatamente como.

As implicações disso são profundas. Se uma máquina aprende “eu fiz isso acontecer“, então ela deve construir conceitos de “eu” (uma identidade para si mesma) e “isso.

As habilidades de inferir intenções, aprender causa e efeito e construir identidades abstratas estão todas ligadas. Uma máquina que atinge o limite superior de inteligência para uma tarefa deve exibir todas essas habilidades.

Esta máquina não apenas constrói uma identidade para si mesma, mas para cada aspecto de cada objeto que ajuda ou atrapalha sua capacidade de completar a tarefa. Ela pode então usar suas próprias preferências como base para prever o que os outros podem fazer. Isso é semelhante à como os humanos tendem a atribuir intenção a animais não humanos.

Então, o que isso significa para a IA?

Claro, a mente humana é muito mais do que um simples programa usado para conduzir experimentos na pesquisa. O trabalho fornece uma descrição matemática de um possível caminho causal para a criação de uma máquina que é indiscutivelmente autoconsciente. No entanto, as especificidades da engenharia de tal coisa estão longe de serem resolvidas.

Por exemplo, a intenção humana exigiria experiências e sentimentos semelhantes aos humanos, o que é algo difícil de projetar. Além disso, não podemos testar facilmente toda a riqueza da consciência humana. A consciência é um conceito amplo e ambíguo que abrange – mas deve ser distinguido – das afirmações mais restritas acima.

O autor diz ainda que forneceu uma explicação mecanicista dos aspectos da consciência – mas isso por si só não capta toda a riqueza da consciência como os humanos a experimentam. Este é apenas o começo, e pesquisas futuras precisarão expandir esses argumentos.

Enfim

Desde o início deste ano formos bombardeados com posts, vídeos e artigos acadêmicos com novidades sobre algoritmos e novas pesquisas, descobertas e experimentos científicos sobre a inteligência artificial, aprendizado de máquina e suas vertentes, inclusive com especulações de possibilidades futuras de uma máquina autoconsciente. Este post adiciona ainda mais informações sobre o tema, com base em pesquisa e artigos que fornecem descrições de como avançar nesse sentido, porém ressalta que as especificidades da engenharia de tal coisa ainda estão para serem resolvidas.

Se gostou deste conteúdo, por favor, compartilhe este post. 

Sobre mim: aqui. Contato: aqui.

Abraços, @neigrando

Referências

  • Este post foi traduzido e levemente adaptado do artigo original em inglês “Can machines be self-aware? New research explains how this could happen” do blog The Conversation (26 de abril de 2023)
  • Post “Google DeepMind chief says ‘there’s a possibility AI may become self-aware” (opinião de Demis Hassabis no blog Independent.

Artigos relacionados

Cuidado com informações empresariais no ChatGPT

Na verdade, não coloque dados proprietários sigilosos ou pessoais sensíveis no bate-papo GPT.

A mesma história que aconteceu com a Samsung está acontecendo agora em empresas de todo o mundo, quer elas saibam ou não.

A Samsung permitiu que sua equipe usasse o ChatGPT para ajudá-los a escrever um código melhor. E, ao fazer isso, seus funcionários colocam código proprietário no ChatGPT e esse código agora está nas mãos da OpenAI. Além do problema do código fonte, a Samsung sofreu com o vazamento de transcrições de reuniões confidenciais.

É importante observar aqui que isso se aplica a qualquer coisa, não apenas ao código. Portanto, se você está escrevendo uma postagem de blog e a escreve no chat GPT, está fazendo a mesma coisa: está entregando seus dados para o OpenAI.

Então, isso significa que a OpenAI está intencionalmente roubando o IP de seus usuários?

Não.

Isso significa que os usuários do chat GPT e DALL-E não estão totalmente cientes de para que servem essas ferramentas e o que acontece quando você insere dados nelas.

Explicando

ChatGPT e DALL-E são projetos de pesquisa da OpenAI. Eles são usados ​​para ver como iríamos interagir com esses modelos.

E quando você escreve conteúdo especificamente nesses serviços, a OpenAI retém o direito de examinar seu conteúdo, ver a saída que vem dele e, em seguida, aprender com ele para criar serviços melhores.

Isso é claramente declarado pela OpenAI: “Quando você usa nossos serviços ao consumidor não API, bate-papo GPT e DALL-E, podemos usar os dados que você nos fornece para melhorar nossos modelos“.

Quando você insere dados no ChatGPT, eles podem ser visualizados pela equipe da OpenAI. Portanto, se você estiver colocando informações da empresa, incluindo informações proprietárias/sigilosas no bate-papo GPT, estará vazando essas informações para terceiros.

O que fazer então

Há duas opções:

  • Você pode usar a API em vez do chat GPT. A API é um serviço comercial. Portanto, se você colocar dados lá, eles não serão analisados ​​pelo OpenAI. Ainda assim, alguns cuidados profissionais devem ser observados.
  • Ou você desativa ativamente o rastreamento de dados por meio de um formulário (você o encontrará nos termos de serviço). Vide também o artigo de 25 de abril sobre ChatGPT e novas Opções de Privacidade e Proteção de Dados.

Resumindo, se você estiver trabalhando com dados sigilosos ou sensíveis da empresa ou dados proprietários ou propriedade intelectual de qualquer tipo, não use o ChatGPT.

Em vez disso, use uma das duas opções ou, melhor ainda, configure sua própria instância da API OpenAI em um espaço seguro como o Microsoft Azure.

Se você deseja aproveitar o poder da Inteligência Artificial, é um bom investimento envolver um profissional.

Fonte: Traduzido e adaptado de um post do Twitter de Morten Rand-Hendriksen

Outros cuidados

Considere também os clones do ChatGPT e outras versões de chatbots de modelos grandes de linguagem (LLMs) de empresas concorrentes à OpenAI. Verifique as informações do produto sobre confidencialidade dos dados fornecidos.

Considerações finais

Assim como muitos profissionais estou encantado ao mesmo tempo que assustado com as últimas novidades da Inteligência Artificial, em especial o ChatGPT que tem sido um sucesso no mundo todo desde seu lançamento e principalmente depois das atualizações e melhorias que foram implementadas, mas tudo isso ainda é muito novo e merece nosso cuidado e atenção.

Legislação e regulamentação sempre vêm depois de algum tempo da disponibilidade da tecnologia, então cabe a cada um usar de pensamento crítico e bom senso, além de observar os termos de uso e privacidade dos produtos. Use com moderação, rss.

Sobre mim: aqui. Contato: aqui.

Abraços, @neigrando

Caso da Samsung

Artigos relacionados

O que é GPT-4 e como ele difere do ChatGPT?

A OpenAI, startup apoiada pela Microsoft, abalou o mundo quando lançou em 30 de novembro do ano passado o amplamente popular ChatGPT. Agora, na última atualização, a empresa lançou em 14 de março uma versão mais poderosa do modelo de inteligência artificial, o GPT-4, que sucede a versão anterior 3.5 usada no ChatGPT.

Em termos simples, o GPT-4 é multimodal, o que significa que pode gerar conteúdo a partir de prompts de imagem e texto. Na essência GPT-4 é uma máquina para criar texto. Mas é muito boa nisso, e ser muito boa em criar texto acaba sendo confundida como alguém capaz de “entender e raciocinar” sobre o mundo.

“GPT-4 pode resolver problemas difíceis com maior precisão, graças ao seu conhecimento geral mais amplo e habilidades de resolução de problemas”

O sistema pode passar no exame da ordem dos advogados, resolver quebra-cabeças lógicos e até dar uma receita para usar as sobras com base em uma foto da sua geladeira – mas seus criadores alertam que ele também pode espalhar fatos falsos, incorporar ideologias perigosas e até enganar as pessoas, fazendo tarefas em seu nome.

E assim:

  • se você der ao GPT-4 uma pergunta de um exame da ordem dos EUA, ele escreverá um ensaio que demonstra conhecimento jurídico;
  • se você lhe der uma molécula medicinal e pedir variações, parecerá aplicar conhecimentos bioquímicos;
  • e se você pedir para ele contar uma piada sobre um peixe, ele parecerá ter senso de humor – ou pelo menos uma boa memória para piadas ruins.

O GPT-4 vai além do ChatGPT, pois possui um banco de memória mais amplo e uma contagem máxima de tokens de 32.768, o que se traduz em cerca de 64.000 palavras ou 50 páginas de texto.

É o mesmo que ChatGPT?

Não exatamente. Se o ChatGPT é o carro, então e o GPT-4 é o motor: uma poderosa tecnologia geral que pode ser moldada para vários usos diferentes, inclusive para uso em outras ferramentas como o Bing.

Com relação a versão anterior 3.5:

  • ele pode responder melhor a perguntas de matemática,
  • é levado a dar respostas falsas com menos frequência,
  • pode pontuar bastante em testes padronizados

O GPT-4 supera o ChatGPT ao pontuar em percentis aproximados mais altos entre os participantes do teste”, disse o comunicado da OpenAI. “Passamos 6 meses tornando o GPT-4 mais seguro e mais alinhado. O GPT-4 tem 82% menos probabilidade de responder a solicitações de conteúdo não permitido e 40% mais probabilidade de produzir respostas factuais do que o GPT-3.5 em nossas avaliações internas“, disse o especialista da OpenAI.

O GPT-4 tem um senso de ética mais firmemente incorporado ao sistema do que a versão antiga: o ChatGPT pegou seu mecanismo original, GPT-3.5, e adicionou filtros na parte superior para tentar impedir que ele desse respostas a perguntas maliciosas ou prejudiciais. Agora, esses filtros são incorporados diretamente ao GPT-4, o que significa que o sistema se recusará educadamente a executar tarefas como classificar raças por atratividade, contar piadas sexistas ou fornecer diretrizes para sintetizar sarin.

O OpenAI incorporou mais feedback humano, incluindo o enviado pelos próprios usuários do ChatGPT, a fim de melhorar e aprimorar o comportamento do GPT-4. A empresa colaborou com mais de 50 especialistas para feedback inicial em domínios, incluindo segurança e proteção de IA.

De acordo com a OpenAI, mesmo com as melhorias feitas, GPT-4 tem algumas limitações semelhantes às de suas versões anteriores e é “menos capaz que os humanos em muitos cenários do mundo real“. O GPT-4 ainda luta com preconceitos sociais, alucinações e alertas adversários. Respostas imprecisas são conhecidas como “alucinações”, que têm sido um desafio para muitos programas de IA.

Aplicações

Mas o GPT-4 pode ser usado para alimentar mais do que chatbots, por exemplo:

  • Duolingo construiu uma versão dele em seu aplicativo de aprendizado de idiomas que pode explicar onde os alunos erraram, em vez de simplesmente dizer a eles a coisa certa a dizer;
  • Stripe está usando a ferramenta para monitorar sua sala de bate-papo em busca de golpistas;
  • Be My Eyes está usando um novo recurso, entrada de imagem, para construir uma ferramenta que pode descrever o mundo para uma pessoa cega e responder a perguntas de acompanhamento sobre isso.

O GPT-4 está incorporado à versão paga (US$ 20,00 por mês) ChatGPT Plus. Também está e disponível comercialmente para desenvolvedores de aplicações (Apps) via APIs (interfaces de programas de aplicação) pelo custo de US$ 0.0200 por 1000 tokens.

Veja mais no blog da OpenAI (inglês) em https://openai.com/product/gpt-4 e https://openai.com/research/gpt-4.

Sobre a tecnologia

O GPT-4 (Generative Pré-trained Transformer – versão 4), uma ferramenta de Processamento de Linguagem natural (NLP) assim como os anteriores, incluindo a versão 3.5 utilizada no ChatGPT, foi construído sobre uma classe de tecnologias chamada Modelos de Linguagem Grandes (LLMs).

Um LLM é uma arquitetura de modelo de rede neural baseada em um componente chamado transformador. As tecnologias de transformadores foram originalmente desenvolvidas pelo Google em 2017 e têm sido objeto de intensa pesquisa e desenvolvimento desde então. Os LLMs trabalham revisando enormes volumes de texto, identificando as maneiras como as palavras se relacionam umas com as outras e construindo um modelo que lhes permite reproduzir textos semelhantes.

É importante ressaltar que, quando fazem uma pergunta, eles não estão “procurando” uma resposta. Em vez disso, eles estão produzindo uma sequência de palavras ao prever qual palavra seguiria melhor a anterior, levando em consideração o contexto mais amplo das palavras anteriores a ela. Em essência, eles estão fornecendo uma resposta de “senso comum” a uma pergunta. Isso também é conhecido como IA Generativa.

Embora os LLMs mais poderosos tenham mostrado sua capacidade de produzir respostas amplamente precisas em uma gama surpreendentemente ampla de tarefas, a precisão factual dessas respostas não pode ser garantida.

Uma Rede Neural Artificial usada em Aprendizagem Profunda (Deep Learning) é composta por um grande número de “neurônios”, que são fórmulas matemáticas simples que passam os resultados de seus cálculos para um ou mais neurônios do sistema. As conexões entre esses neurônios recebem “pesos” que definem a força do sinal entre os neurônios. Esses pesos também são chamados de parâmetros.

Um dos modelos por trás do ChatGPT (gpt-3.5-turbo) tem 175 bilhões de parâmetros. O número de parâmetros do GPT-4 não foi informado.

A dimensão destes modelos tem consequências importantes para o seu desempenho, mas também o custo e a complexidade da sua utilização. Por um lado, modelos maiores tendem a produzir textos mais semelhantes aos humanos e são capazes de lidar com tópicos para os quais podem não ter sido especificamente preparados. Por outro lado, construir o modelo e usar o modelo é extremamente intensivo em termos computacionais.

Não é por acaso que os modelos maiores e de melhor desempenho vieram de empresas gigantes de tecnologia ou startups financiadas por essas empresas: o desenvolvimento desses modelos provavelmente custa bilhões de dólares em computação em nuvem.

O GPT-4 utiliza-se também de uma Aprendizagem por Reforço de Feedback Humano (RLHF), uma técnica usada para alinhar LLMs com intenções humanas, baseada no treinamento de um modelo de recompensa para imitar o feedback e as intenções humanas. Este treinamento usa pares de geração de prompts de um conjunto de dados predefinidos, que leva um prompt e sua conclusão correspondente para gerar uma única “recompensa” ou uma pontuação de quão boa foi a conclusão. Esse modelo de recompensa é então alimentado em um pipeline com um LLM pré-treinado ou ajustado para melhorar constantemente os resultados do LLM, com base nas intenções humanas.

Resumindo

O GPT-4 é uma nova versão do modelo de inteligência artificial criado pela OpenAI, que sucede o ChatGPT. O GPT-4 é multimodal, o que significa que pode gerar conteúdo a partir de prompts de imagem e texto, e possui um banco de memória mais amplo e uma contagem máxima de tokens de 32.768 (aproximadamente 50 páginas de texto). Ele é capaz de resolver problemas difíceis com maior precisão, graças ao seu conhecimento geral mais amplo e habilidades de resolução de problemas. Em comparação com o ChatGPT, o GPT-4 também possui um senso de ética mais firmemente incorporado ao sistema, e filtros incorporados para evitar respostas maliciosas ou prejudiciais. O GPT-4 pode ser utilizado para alimentar diferentes ferramentas, como chatbots, aplicativos de aprendizado de idiomas, monitoramento de salas de bate-papo e tecnologia assistiva para pessoas cegas. Ele está incorporado à versão paga do ChatGPT Plus e disponível comercialmente para desenvolvedores via APIs.

Se gostou deste conteúdo, por favor, compartilhe este post. 

Sobre mim: aqui. Contato: aqui.

Abraços, @neigrando

Referências

Este post têm como base os artigos do blog da OpenAI:

Bem como os seguintes posts de reportagem:

  • What is GPT-4 and how does it differ from ChatGPT? (The Guardian)
  • What is GPT-4 – multimodal AI – & how is it different from Microsoft’s ChatGPT? (Economic Times)
  • GPT-4 vs. ChatGPT-3.5: What’s the Difference? (PC magazine)

Artigos relacionados