Canvas para IA centrado no Humano

O pensamento estratégico e a modelagem de negócios inovadores, bem como a transformação organizacional com ênfase no digital há muitos anos fazem parte da minha profissional, como pode ser visto em www.strategius.com.br

No trabalho de pesquisa acadêmica com foco em negócios que fazemos no Núcleo Decide da FEA-USP, atualmente estamos pesquisando sobre o Uso da Inteligência Artificial na Tomada de Decisões Organizacionais e algo que sempre vem a nossas mentes e diálogos entre os pesquisadores são as questões éticas do uso da IA e a preocupação com o lado humano, que deve ser sempre considerado ao se pensar em soluções IA para quaisquer problemas apresentados.

Para minha surpresa, encontrei e li recentemente um artigo de Albéric Maillet que traz estas questões sobre projetos e soluções de IA apresentando um canvas para facilitar o pensar e praticar soluções centradas no humano.

Uma ferramenta para ajudá-lo a navegar em sua transformação digital usando a Inteligência Artificial (IA) com o contexto humano em mente.

Segue uma versão traduzida e adaptada do texto do artigo original:

O potencial da IA para empresas em crescimento é irrevogável. Com nuvem, segurança cibernética e big data, a IA é considerada a principal prioridade para investimentos em tecnologia nos últimos anos. Convergindo cada vez mais com outras tecnologias em vigor, a IA está impulsionando a próxima geração de negócios por estar na vanguarda de quase toda transformação digital. Com 9 entre 10 executivos de todo o mundo descrevendo a IA como uma ferramenta importante para resolver os desafios estratégicos de suas organizações, a corrida em direção à promessa de ouro de crescimento exponencial é real.

Apesar de ser um dos defensores mais ativos, o próprio pioneiro da IA, Yoshua Bengio, emitiu recentemente um alerta contra a busca cega dessa nova tecnologia brilhante. O pensamento de curto prazo no desenvolvimento da IA ​​sem qualquer forma de regulamentação e consideração de seus potenciais efeitos sistêmicos pode levar a implicações imprevistas nas arenas sociais, éticas e políticas.

Como a tecnologia ainda está em sua infância, é difícil prever o impacto em termos de perda de empregos ou deslocamento – o McKinsey Global Institute sugere que, em 2030, agentes inteligentes e robôs poderiam eliminar até 30 por cento do trabalho humano mundial em um período recente estudo de dois anos. Seja qual for a extensão, é responsabilidade dos líderes empresariais garantir que seu desenvolvimento seja pautado, a cada etapa, pela preocupação com seus efeitos sobre os seres humanos. Antes de abraçá-lo sem pensar como se fosse uma “bala de prata“, os iniciadores da mudança precisam ter certeza de que estão resolvendo os problemas certos onde as máquinas podem trazer valor real, e fazendo isso de uma forma que eleve as capacidades humanas em vez de deslocá-las. Em vez de olhar para ele como uma parte isolada da organização cuja função central é otimizar o processo em vigor, precisamos abordá-lo como a nova base de um conjunto interconectado de elementos que precisam ser equilibrados de forma coerente para realmente agregar valor significativo.

Esse pensamento de longo prazo e mentalidade sistêmica não são apenas bons em uma época em que agilidade e velocidade são os fundamentos dos negócios modernos, eles são fatores de sucesso. De fato, outro estudo recente da McKinsey relatou a falta de estratégia, antes da falta de recursos, como o maior desafio para a adoção de IA.

Prefiro ter perguntas que não podem ser respondidas do que respostas que não podem ser questionadas”, disse o físico e ganhador do prêmio Nobel Richard Feynman. Um processo de estratégia sempre começa com o questionamento: 1) para nos ajudar a ganhar perspectiva, 2) para superar potenciais vieses cognitivos, 3) para ter certeza de não pular para a solução antes de realmente entender o problema. Algumas questões:

  • Como a IA pode ajudá-lo com o problema que você está tentando resolver?
  • Quais são os limites do que podemos fazer com IA?
  • Quais tarefas os humanos fazem melhor em comparação com as máquinas?

Nesta época de pressa e mudanças rápidas, nunca foi tão importante fazer uma pausa. Considerando o que os efeitos da introdução da IA ​​aos humanos fariam, é um bom lugar para começar a ajudar a definir uma visão abrangente e os primeiros passos para a implementação.

Por que esse canvas?

Identificar como usar IA para provocar mudanças na sua organização ou a experiência do consumidor, é um desafio complexo para quem está começando neste campo sem ferramentas ou roteiro estabelecido. As oportunidades de aplicabilidade são amplas e priorizar onde agir primeiro pode parecer opressor sem um ponto de partida claro.

Quer sejam funcionários, clientes ou partes interessadas externas, a intenção desta ferramenta é convidar os envolvidos a refletir sobre a transformação da IA ​​do ponto de vista das pessoas que serão afetadas primeiro. O Canvas IA deve ser usado como uma bússola e guia nesta jornada, revelando os efeitos em cascata da transformação no contexto mais amplo da organização, provocando conversas sobre as implicações de projetar um sistema de IA autopreservável, resiliente e bem equilibrado.

A IA está trazendo mudanças estruturais na forma como as empresas operam, que vai muito além das considerações tecnológicas. O desenvolvimento de uma mentalidade de design com este canvas deve ajudar a prever como a digitalização movida a IA impactará as partes de construção da organização. Esperançosamente, este canvas também facilitará a abordagem da IA ​​como um campo interdisciplinar, criando uma linguagem comum e servindo como um ponto de partida para a discussão que vai além das disciplinas de ciência da computação e engenharia.

Com os desafios culturais e comportamentais no topo da lista das barreiras mais significativas para a eficácia digital, inclusão, transparência e abertura são requisitos indispensáveis ​​ao projetar novos modelos digitais. As empresas têm a responsabilidade de educar e envolver seus funcionários para evitar qualquer forma de ignorância que possa aumentar a incerteza ou mal-entendido sobre o valor da IA, o que se espera que esta ferramenta facilite.

“Design é muito mais do que simplesmente montar, encomendar ou mesmo editar; é agregar valor e significado, iluminar, simplificar, esclarecer, modificar, dignificar, dramatizar, persuadir e talvez até divertir” – Paul Rand

Como usar o Canvas IA

Este canvas é composto por 10 blocos de construção. Começa-se definindo quem será o público para o qual está tentando resolver um problema (“Projetado para”). Pode ser o cliente ou um departamento específico da organização. Depois de escolher as pessoas trabalha-se no canvas, da parte superior direita para a esquerda, terminando com as três caixas na parte inferior.

1. Tarefas a serem realizadas

Da mesma forma que a teoria Jobs-To-Be-Done de Clayton Christensen, que inspirou esta ferramenta, um dos objetivos é garantir uma compreensão profunda do problema que se propõe resolver, mesmo antes de considerar a IA. Nesta primeira seção, a intenção é identificar o problema que deseja abordar para o seu público-alvo.

Pergunta:

  • O que você está tentando realizar?

2. Promessa da IA

Nesta seção, lista-se os benefícios de usar IA em sua organização para a tarefa que você está tentando realizar. É um processo que será simplificado? Os dados inativos serão limpos e aproveitados? Ou uma etapa específica da jornada do cliente será aprimorada? Considera-se os ganhos de introduzir a automação para o público para o qual se está projetando.

Para começar o pensamento:

  • Como a IA pode ajudá-lo com o problema que você está tentando resolver?
  • Quais benefícios o uso de IA pode trazer para sua organização?
  • Como o uso de IA pode ajudá-lo a atingir seu objetivo ou completar sua tarefa?

3. Benefícios para humanos

Com base no que você escreveu na seção anterior, agora liste as dores que serão aliviadas para os agentes humanos graças à introdução da IA. Sejam funcionários ou clientes, considere os pontos de dor que irão embora ou serão aliviados para permitir que sejam “mais humanos”.

Para começar o pensamento:

  • Como os agentes humanos que fazem parte do seu processo podem se beneficiar do uso de IA?
  • O que a IA está liberando nas capacidades de seus agentes humanos?
  • Quais tarefas repetitivas que seus agentes humanos estão executando podem ser eliminadas?

4. Atividades de máquina

Na mesma linha da seção anterior, lista-se as atividades exclusivas da máquina que tirarão o máximo proveito da introdução de algoritmos para resolver seus problemas. São atividades perigosas demais para serem realizadas por humanos? É detectar padrões ocultos em conjuntos de dados complexos que estão fora do alcance das capacidades analíticas humanas? Ou está trazendo velocidade e precisão para realizar uma atividade repetitiva em escala?

Para começar o pensamento:

  • Quais tarefas em seu processo são mais adequadas para máquinas em vez de humanos?
  • Como você pode fazer o melhor uso da precisão e exatidão da máquina?
  • Quais limitações das habilidades humanas podem ser tomadas por máquinas em seu processo?

5. Atividades humanas

Agora, liste as atividades humanas exclusivas que os funcionários continuarão fazendo. Considere as tarefas que são mais adequadas para humanos em vez de máquinas, exigindo julgamento, criatividade ou experiência. Se os humanos desaparecerem totalmente do processo por causa do uso da automação, considerar atividades como interrogar a saída da máquina ou supervisionar o desempenho do algoritmo. Sempre há espaço para a humanidade.

Para começar o pensamento:

  • Em qual tecnologia de IA permite que seus agentes humanos se concentrem?
  • Como você pode fazer o melhor uso do julgamento, flexibilidade e criatividade dos agentes humanos?
  • Quais atividades em que a IA não pode ser usada devem ser superadas por seus agentes humanos?

“Seu trabalho em um mundo de máquinas inteligentes é garantir que eles façam o que você deseja, tanto na entrada (estabelecendo as metas) quanto na saída (verificando se você obteve o que pediu).” – Pedro Domingos

6. Colaboração

Nesta seção, queremos examinar as atividades híbridas em que humanos e máquinas trabalharão juntos para resolver seu problema. Considera-se as oportunidades em que os humanos ajudam as máquinas e as máquinas ajudam os humanos. Eles trabalham lado a lado e interagem, em última análise, a nova tecnologia aumenta a produtividade dos funcionários.

Para começar o pensamento:

  • Qual é o papel de seus agentes humanos em supervisionar o desempenho da máquina e refinar o modelo?
  • Como você pode usar as informações de seus agentes humanos para melhorar a eficácia de sua máquina?
  • Qual é a relação entre seus agentes humanos e sua máquina?

7. Reforço humano

Em última análise, não se quer que a máquina execute tarefas desconectada do resto da sua organização. Os benefícios devem ser transversais e permitir ampliar as capacidades dos agentes humanos para desencadear novos níveis de produtividade ao mesmo tempo. Procura-se oportunidades de aproveitar todo o potencial de uma organização homem-máquina, onde o pessoal é capaz de aumentar as capacidades (ou “humanidade”) aprendendo com a produção da máquina.

Para começar o pensamento:

  • Como a IA pode influenciar o trabalho de seus agentes humanos?
  • Como a IA pode aprimorar seus agentes humanos, adicionando às suas capacidades e melhorando seu processo de tomada de decisão?
  • Que ciclo de feedback você vai construir entre a máquina e seus agentes humanos para aumentar sua inteligência e habilidades?

8. Pensamento crítico e preconceitos (vieses cognitivos)

O pensamento crítico é uma das muitas habilidades cognitivas humanas que nunca serão dominadas pelas máquinas e que nos torna verdadeiramente únicos. Nesta seção, deve-se considerar as medidas que implementará para lidar com os potenciais pontos cegos em seu modelo de IA. Identifique onde o pessoal precisa continuar desempenhando um papel influente, porque isso não pode ser totalmente entregue às máquinas. Precisa-se ter certeza de que está realmente sintonizado com o funcionamento de sua IA para evitar o problema da “caixa preta”.

Para começar o pensamento:

  • Quais são os limites do que você pode fazer com IA em seu processo?
  • Quais decisões importantes ou complexas não podem ser assumidas por máquinas em seu processo?
  • Como você pode aplicar o pensamento crítico ao desempenho de sua máquina e superar seus potenciais preconceitos?

9. Considerações e implicações

A IA é uma oportunidade promissora, mas também apresenta riscos se cair em mãos erradas. Como nossas vidas se tornarão ainda mais dependentes da IA ​​em rede em sistemas digitais complexos, é importante prestar atenção às possíveis preocupações éticas, morais e sociais que podem surgir. Nesta seção, lista-se as considerações que precisam ser abordadas para garantir que você projete uma IA responsável que corresponda aos seus valores.

Para começar o pensamento:

  • Como você pode garantir que sua IA seja desenvolvida de maneira responsável, segura e confiável?
  • Como você pode abordar as questões sociais que a maneira como você está usando IA trazem?
  • Quais normas morais, éticas ou filosóficas devem ser levadas em consideração?

10. Gestão de mudanças

Conforme discutido anteriormente, implementar IA em uma organização pode provocar mudanças profundas e não pode acontecer sem um plano de ação claro. Para construir confiança e facilitar a aceitação da nova tecnologia, é fundamental reservar um tempo para considerar como os processos serão reinventados, como será comunicado a proposta de valor do uso de máquinas – para os funcionários ou clientes – e desenvolver os talentos das equipes. Liste as medidas que serão implementadas para dar o passo em direção ao futuro da organização com tecnologia de IA.

Para começar o pensamento:

  • Como você gerenciará as ansiedades de seus funcionários que podem estar preocupados com a interrupção de suas funções?
  • Como você treinará novamente sua força de trabalho para garantir uma transição tranquila de sua empresa para a era da inteligência artificial?
  • Como você comunicará aos clientes a diferença entre suas experiências humanas e mecânicas?

Conclusão

Transformar organizações usando novas tecnologias é uma tarefa desafiadora, especialmente quando planos claros ainda não existem. Este canvas não fornecerá todas as respostas, mas espera-se que possa desempenhar o papel de um ponto de partida em sua jornada. Como humanos, é nosso dever projetar sistemas que celebrem e elevem nossas qualidades humanas.

Criar a legitimidade da IA ​​exige que desaceleremos e nos envolvamos em uma discussão aberta sobre suas implicações. As apostas são muito altas para abraçar a retórica “mova-se rápido, quebre as coisas“. Em última análise, incluir seu pessoal e obter seus feedbacks sobre sua visão ajudará a mudar as percepções negativas da IA ​​alimentada pela cultura pop, mas também ajudará você a explicar os resultados potenciais de adotar a nova tecnologia. É hora de mudar o tópico do qual os trabalhos serão eliminados para como a IA deve ser implementada para aprimorar as capacidades humanas. Parar de pensar em robôs como substitutos humanos, mas começar a pensar neles como parceiros com um conjunto de habilidades diferente.

Nesses empreendimentos, o design centrado no ser humano – e sua promessa de construir novas soluções feitas sob medida para atender às necessidades das pessoas para as quais está sendo criado – é uma ferramenta essencial para os criadores de mudanças que desejam criar bases saudáveis ​​para um futuro viável onde os humanos são realmente apreciados, e não escravos das máquinas.

“Pensamos muito e sentimos muito pouco. Mais do que máquinas, precisamos de humanidade. Mais do que inteligência, precisamos de bondade e gentileza. Sem essas qualidades, a vida será violenta e tudo estará perdido.” ―Charlie Chaplin

Nesse caso, o público para o qual estamos modelando o negócio usando o canvas é o departamento de RH, que está considerando implementar um assistente de IA para criar um ambiente de trabalho com bem-estar estável.

Clique aqui em Human-Centered AI Canvas para baixar uma versão em PDF do canvas.

Referências

Observação: Este artigo trata-se de uma versão traduzida e adaptada do artigo original: “Introducing the Human-Centered AI Canvas“, por Albéric Maillet.

Artigos Relacionados

Para melhores decisões: Use Algoritmos

Iniciando com um resumo: O surgimento da tomada de decisão algorítmica é uma coisa boa? Parece haver um quadro crescente de autores, acadêmicos e jornalistas que responderia negativamente. No cerne deste trabalho está a preocupação de que os algoritmos são frequentemente ferramentas opacas, tendenciosas e inexplicáveis ​​utilizadas no interesse do poder institucional. Essas críticas e investigações costumam ser perspicazes e esclarecedoras, e fizeram um bom trabalho em nos desiludir da noção de que algoritmos são puramente objetivos. Mas há um padrão entre esses críticos, que raramente perguntam se os sistemas que analisam funcionariam bem sem algoritmos. E essa é a questão mais relevante para profissionais e formuladores de políticas: como o viés e o desempenho dos algoritmos se comparam aos dos seres humanos? Não é segredo que os algoritmos são tendenciosos. Mas os humanos que eles estão substituindo são significativamente mais tendenciosos. Afinal, de onde vêm os preconceitos institucionais se não dos humanos que tradicionalmente estiveram no comando?

Uma revolução silenciosa está ocorrendo

Em contraste com grande parte da cobertura da imprensa sobre inteligência artificial, essa revolução não é sobre a ascensão de um exército androide consciente. Em vez disso, é caracterizado por um aumento constante na automação de processos de decisão tradicionalmente baseados em humanos em todas as organizações em todo o país. Embora avanços como AlphaGo Zero tornem as manchetes cativantes, é o aprendizado de máquina bastante convencional e as técnicas estatísticas – mínimos quadrados comuns, regressão logística, árvores de decisão – que estão agregando valor real aos resultados financeiros de muitas organizações. As aplicações do mundo real variam de diagnósticos médicos e sentenças judiciais a recrutamento profissional e alocação de recursos em órgãos públicos.

Esta revolução é uma coisa boa? Parece haver um quadro crescente de autores, acadêmicos e jornalistas que responderia negativamente. Os títulos de livros desse gênero incluem “Weapons of Math Destruction“, “Automating Inequality” e “The Black Box Society“. Também houve uma enxurrada de artigos de formato longo, como “Machine Bias“, “Austerity Is an Algorithm” e “Are Algorithms Building the New Infrastructure of Racism?” No cerne deste trabalho está a preocupação de que os algoritmos são frequentemente ferramentas opacas, tendenciosas e inexplicáveis ​​utilizadas no interesse do poder institucional. Então, até que ponto devemos nos preocupar com a ascensão moderna dos algoritmos?

Essas críticas e investigações são frequentemente perspicazes e esclarecedoras, e fizeram um bom trabalho em nos desiludir da noção de que algoritmos são puramente objetivos. Mas há um padrão entre esses críticos, que raramente perguntam se os sistemas que analisam funcionariam bem sem algoritmos. E essa é a questão mais relevante para profissionais e formuladores de políticas: como o viés e o desempenho dos algoritmos se comparam ao status quo? Em vez de simplesmente perguntar se os algoritmos têm falhas, devemos perguntar como essas falhas se comparam às dos seres humanos.

O que a pesquisa diz?

Há um grande número de pesquisas sobre tomada de decisão algorítmica que remonta a várias décadas. E todos os estudos existentes sobre esse tópico têm uma conclusão notavelmente semelhante: os algoritmos são menos tendenciosos e mais precisos do que os humanos que estão substituindo. Abaixo está uma amostra da pesquisa sobre o que acontece quando algoritmos recebem o controle de tarefas tradicionalmente realizadas por humanos:

  • Em 2002, uma equipe de economistas estudou o impacto dos algoritmos de subscrição automatizados no setor de empréstimos hipotecários. Suas principais descobertas foram “que os sistemas [de subscrição automatizada] preveem com mais precisão a inadimplência do que os subscritores manuais” e “que essa maior precisão resulta em taxas de aprovação de mutuários mais altas, especialmente para candidatos mal atendidos”. Em vez de marginalizar os compradores residenciais tradicionalmente mal atendidos, o sistema algorítmico, na verdade, beneficiou mais esse segmento de consumidores.
  • Uma conclusão semelhante foi alcançada por Bo Cowgill, da Columbia Business School, quando estudou o desempenho de um algoritmo de seleção de empregos em uma empresa de software (pesquisa futura). Quando a empresa implementou o algoritmo para decidir quais candidatos deveriam obter entrevistas, o algoritmo na verdade favoreceu os candidatos “não tradicionais” muito mais do que os rastreadores humanos. Em comparação com os humanos, o algoritmo exibiu significativamente menos preconceito contra candidatos que estavam sub-representados na empresa (como aqueles sem referências pessoais ou diplomas de universidades de prestígio).
  • No contexto das audiências de fiança pré-julgamento da cidade de Nova York, uma equipe de proeminentes cientistas da computação e economistas determinou que os algoritmos têm o potencial de alcançar decisões significativamente mais equitativas do que os juízes que atualmente tomam decisões sobre fiança, com “reduções nas taxas de prisão [de ] até 41,9% sem aumento nas taxas de criminalidade.” Eles também descobriram que em seu modelo “todas as categorias de crime, incluindo crimes violentos, mostram reduções [nas taxas de prisão]; e esses ganhos podem ser alcançados ao mesmo tempo em que reduz as disparidades raciais”.
  • A revista New York Times publicou recentemente uma longa história para responder à pergunta: “Um algoritmo pode dizer quando as crianças estão em perigo?” Acontece que a resposta é “sim” e que os algoritmos podem realizar essa tarefa com muito mais precisão do que os humanos. Em vez de exacerbar os preconceitos raciais perniciosos associados a alguns serviços do governo, “a experiência de Allegheny sugere que sua ferramenta de triagem é menos ruim para avaliar preconceitos do que os rastreadores humanos”.
  • Por fim, examinando dados históricos sobre empresas de capital aberto, uma equipe de professores de finanças começou a construir um algoritmo para escolher os melhores membros do conselho para uma determinada empresa. Os pesquisadores não apenas descobriram que as empresas teriam um desempenho melhor com membros do conselho selecionados por algoritmos, mas em comparação com o algoritmo proposto, eles “descobriram que as empresas [sem algoritmos] tendem a escolher conselheiros que têm muito mais probabilidade de serem homens, têm uma grande rede , tem muita experiência em conselhos, atualmente serve em mais conselhos e tem experiência em finanças”.

Em cada um desses estudos de caso, os cientistas de dados fizeram o que parece uma coisa alarmante: eles treinaram seus algoritmos em dados passados ​​que certamente são influenciados por preconceitos históricos. Então, o que está acontecendo aqui? Como é possível que em tantas áreas diferentes – aplicativos de crédito, triagens de empregos, justiça criminal, alocação de recursos públicos e governança corporativa – os algoritmos possam reduzir o preconceito, quando muitos comentaristas nos dizem que os algoritmos deveriam fazer o oposto?

Seres humanos são tomadores de decisão notavelmente ruins

Um segredo não tão oculto por trás dos algoritmos mencionados acima é que eles realmente são tendenciosos. Mas os humanos que eles estão substituindo são significativamente mais tendenciosos. Afinal, de onde vêm os preconceitos institucionais se não dos humanos que tradicionalmente estiveram no comando?
Mas os humanos não podem ser tão ruins, certo? Sim, podemos ser tendenciosos, mas certamente há alguma medida de desempenho em que somos bons tomadores de decisão. Infelizmente, décadas de pesquisa psicológica em julgamento e tomada de decisão demonstraram repetidamente que os humanos são notavelmente maus julgadores de qualidade em uma ampla gama de contextos. Graças ao trabalho pioneiro de Paul Meehl (e trabalho de acompanhamento de Robyn Dawes), sabemos desde pelo menos os anos 1950 que modelos matemáticos muito simples superam supostos especialistas em prever resultados importantes em ambientes clínicos.

Em todos os exemplos mencionados acima, os humanos que costumavam tomar decisões eram tão ruins que substituí-los por algoritmos aumentava a precisão e reduzia os preconceitos institucionais. Isso é o que os economistas chamam de melhoria de Pareto, em que uma política vence a alternativa em todos os resultados com que nos importamos. Embora muitos críticos gostem de sugerir que as organizações modernas buscam a eficiência operacional e maior produtividade em detrimento da equidade e justiça, todas as evidências disponíveis nesses contextos sugerem que não existe tal compensação: os algoritmos oferecem resultados mais eficientes e mais equitativos. Se algo deveria alarmar você, deveria ser o fato de que tantas decisões importantes estão sendo tomadas por seres humanos que sabemos serem inconsistentes, tendenciosos e extremamente ruins.

Melhorando o Status Quo

É claro que devemos fazer todo o possível para erradicar o preconceito institucional e sua influência perniciosa nos algoritmos de tomada de decisão. As críticas à tomada de decisão algorítmica geraram uma rica nova onda de pesquisas em aprendizado de máquina que leva mais a sério as consequências sociais e políticas dos algoritmos. Existem novas técnicas emergentes em estatística e aprendizado de máquina que são projetadas especificamente para abordar as preocupações em torno da discriminação algorítmica. Há até uma conferência acadêmica todos os anos em que os pesquisadores não apenas discutem os desafios éticos e sociais do aprendizado de máquina, mas também apresentam novos modelos e métodos para garantir que os algoritmos tenham um impacto positivo na sociedade. Este trabalho provavelmente se tornará ainda mais importante à medida que algoritmos menos transparentes, como o aprendizado profundo, se tornarem mais comuns.

Mas mesmo que a tecnologia não consiga resolver totalmente os males sociais do preconceito institucional e da discriminação preconceituosa, as evidências analisadas aqui sugerem que, na prática, ela pode desempenhar um papel pequeno, mas mensurável, na melhoria do status quo. Este não é um argumento para absolutismo algorítmico ou fé cega no poder das estatísticas. Se descobrirmos em alguns casos que os algoritmos têm um grau inaceitavelmente alto de viés em comparação com os processos de tomada de decisão atuais, então não há mal nenhum em seguir as evidências e manter o paradigma existente. Mas o compromisso de seguir as evidências tem um viés e devemos estar dispostos a aceitar que – em alguns casos – os algoritmos farão parte da solução para reduzir os vieses institucionais.

Portanto, da próxima vez que você ler uma manchete sobre os perigos do viés algorítmico, lembre-se de olhar no espelho e lembre-se de que os perigos do viés humano são provavelmente ainda piores.

Para uma visão mais ampla sobre IA, não deixe de ver os artigos relacionados abaixo.

Se gostou, por favor, compartilhe. Abraço, @neigrando

Sobre mim: aqui, Contato: aqui.

Referências

Observação: Este artigo trata-se de uma versão traduzida e adaptada do artigo original:

  • Want Less-Biased Decisions? Use Algorithms, by Alex P. Miller (HBR, July 2018)

Alguns livros interessantes sobre IA:

  • LEE, Kai-Fu. AI Super-Powers: China, Silicon Valley, New World Order.
  • BOSTROM, Nick. Superinteligência: Caminhos, perigos e estratégias para um novo mundo.

Artigos Relacionados

Economia de Tokens e Organizações Descentralizadas Autônomas

Blockchain e contratos inteligentes são tecnologias de governança que têm o potencial de fornecer níveis mais altos de transparência enquanto reduzem a burocracia com código auto-impositivo. Eles podem minimizar os principais dilemas existentes das organizações e os riscos morais subsequentes. Os tokens de redes distribuídas fornecem incentivos para alinhar interesses automaticamente na ausência de terceiros.

As DAOs (Descentralized Autonomous Organizations) enfrentam um antigo problema de governança, ao qual cientistas e economistas políticos se referem como o dilema do agente principal. Isso ocorre quando o agente de uma organização tem o poder de tomar decisões impactando outra pessoa ou entidade na organização. Alguns exemplos podem ser gerentes que agem em nome de acionistas ou políticos que agem em nome de cidadãos. Nessas configurações, o risco moral ocorre quando uma pessoa corre mais riscos do que normal, porque outras arcam com o custo desses riscos. Mais geralmente, ocorre quando o agente age em seu próprio interesse, e não no interesse de quem representa, porque o representado não pode controlar completamente as ações do agente. Esse dilema geralmente aumenta quando há assimetria de informações subjacente em jogo.

Organizações tradicionais VS. DAOs

Nas empresas tradicionais, todos os agentes de uma empresa possuem contratos de trabalho que regulam seu relacionamento com a organização e entre si. Seus direitos e obrigações são regulados por contratos legais e aplicados por um sistema legal que está sujeito às leis que regem o país em que residem. Se algo der errado ou se alguém não cumprir sua parte na barganha, o contrato legal definirá quem pode ser processado e por que, em um tribunal.

As DAOs, por outro lado, envolvem um conjunto de pessoas interagindo entre si de acordo com um protocolo de código aberto autoaplicável. Manter a rede segura e executar outras tarefas de rede é recompensado com os tokens de rede nativos. Blockchains e contratos inteligentes reduzem os custos de transação do gerenciamento com níveis mais altos de transparência, alinhando os interesses de todas as partes interessadas pelas regras de consenso vinculadas ao token nativo. O comportamento individual é incentivado com um token para contribuir coletivamente para um objetivo comum. Os membros de uma DAO não são vinculados por uma entidade legal, nem firmam contratos legais formais. Em vez disso, são orientados por incentivos vinculados aos tokens da rede e regras totalmente transparentes que são escritas na peça de software, que é imposta pelo consenso da máquina. Não há acordos bilaterais. Existe apenas uma lei em vigor – o protocolo ou contrato inteligente – que regula o comportamento de todos os participantes da rede.

Ao contrário das empresas tradicionais, estruturadas de maneira descendente, com muitas camadas de coordenação administrativa e burocrática, as DAOs fornecem um sistema operacional para pessoas e instituições que não se conhecem nem confiam umas nas outras, que podem viver em diferentes áreas geográficas, falam idiomas diferentes e, portanto, estão sujeitos a jurisdições diferentes. Em vez de contratos legais que gerenciam as relações das pessoas, na Rede Bitcoin, todos os acordos são na forma de código aberto que é auto-imposto pelo consenso majoritário de todos os atores da rede. As DAOs não têm uma estrutura hierárquica, exceto o código. Uma vez implantada, essa entidade é independente de seu criador e não pode ser censurada por uma única entidade, mas por uma maioria predefinida dos participantes da organização. As regras da maioria exata são definidas no protocolo de consenso ou no contrato inteligente e variam de caso de uso para caso de uso. Em alguns países, como a Áustria, por exemplo, há tendências na literatura jurídica de ver as DAOs como uma parceria de direito civil.

Uma DAO pode ser formalizada por um contrato inteligente. Os casos de uso variam de simples a complexos. A complexidade depende do número de partes interessadas, bem como do número e da complexidade dos processos dentro dessa organização que serão regidos pelo contrato inteligente. Dependendo do objetivo e das regras de governança da organização, esses casos de uso podem ter uma semelhança com empresas ou estados-nação. Quanto mais regras de governança centralizadas, mais se assemelha a uma empresa tradicional. Em uma configuração mais descentralizada, as regras de governança podem se parecer com estados-nação, direcionando automaticamente o comportamento com incentivos e desincentivos simbólicos. Nesses casos, as regras de governança de tokens incentivam e dirigem uma rede de atores sem intermediários centralizados, substituindo assim a necessidade de organizações de cima para baixo gerenciadas por um grupo de pessoas por um código auto-impositivo. Tais organizações descentralizadas podem usar o sistema legal para alguma proteção da propriedade física, mas esse uso é secundário aos mecanismos de segurança preventivos que os contratos inteligentes oferecem. Uma pilha complexa de tecnologias, orientada por protocolos de consenso, deve ser implementada para criar uma infraestrutura autônoma em funcionamento. Seus tokens de protocolo nativo permitem que surjam tribos distribuídas da Internet.

As DAOs são de código aberto, portanto transparentes e, em teoria, incorruptíveis. Todas as transações da organização são registradas e mantidas em uma blockchain. Os interesses dos membros da organização são – se projetados corretamente – alinhados pelas regras de incentivo vinculadas ao token nativo. As propostas seguem o caminho principal para a tomada de decisões em uma DAO, que são votadas pelo consenso majoritário dos atores envolvidos da rede. Dessa forma, as DAOs podem ser vistas como organismos distribuídos, ou tribos distribuídas da Internet, que vivem na Internet e existem de forma autônoma, mas também dependem fortemente de indivíduos especializados ou organizações menores para executar determinadas tarefas que não podem ser substituídas pela automação. Provavelmente veremos muito mais DAOs, com uma ampla variedade de propósitos, evoluindo sobre a tecnologia que o Bitcoin foi pioneiro. Em combinação com a “Internet das Coisas“, a governança de propriedade inteligente também pode ser integrada diretamente a blockchain, potencialmente permitindo que organizações descentralizadas controlem veículos, cofres e edifícios.

A Rede Bitcoin pode ser considerada a primeira organização verdadeira descentralizada e autônoma, coordenada por um protocolo de consenso que qualquer pessoa é livre para adotar. Ela fornece um sistema operacional para dinheiro sem bancos e gerentes de banco e permanece resistente a ataques e tolerante a falhas desde que o primeiro bloco foi criado em 2009. Nenhuma entidade central controla o Bitcoin, o que significa que enquanto as pessoas continuarem participando da rede, apenas uma falta de energia em todo o mundo poderia desligar o Bitcoin. O protocolo blockchain subjacente permite uma rede de incentivos, alimentada pelas regras de governança vinculadas ao seu token criptográfico. Esses conjuntos de regras de governança de tokens da camada de consenso permitem a coordenação automatizada e transparente de um grupo díspar de pessoas que não se conhecem ou confiam umas nas outras. A Rede Bitcoin mostrou que os tokens podem ser usados ​​como um meio de comportamento de programação, conhecido como direcionador do comportamento econômico dos nós da rede. Esse mecanismo de incentivo provou ser um motivador na execução de serviços para uma rede.

Com o surgimento da Ethereum Network, o conceito de DAOs subiu a pilha de tecnologia do protocolo blockchain para o contrato inteligente. Enquanto antes era necessário uma rede blockchain com um protocolo de consenso resistente a ataques para criar um DAO, contratos inteligentes tornavam a criação de DAOs facilmente programáveis, com apenas algumas linhas de código e sem a necessidade de configurar sua própria infraestrutura blockchain.

Outlook

Argumenta-se que não existe uma organização totalmente descentralizada e autônoma. Dependendo das regras de governança, existem diferentes níveis de descentralização. Embora a rede possa ser geograficamente descentralizada e ter muitos atores independentes, mas iguais, as regras de governança escritas no contrato inteligente ou no protocolo blockchain sempre serão um ponto de centralização e perda de autonomia direta. Os DAOs podem ser arquitetonicamente descentralizados (atores independentes executam Nós diferentes) e são geograficamente descentralizados (sujeitos a diferentes jurisdições), mas eles são logicamente centralizados (o protocolo). A questão de como atualizar o código – quando e se necessário – é muitas vezes delegada a um conjunto de especialistas que entendem os meandros técnico-legais do código e, portanto, representam um ponto de centralização.

Referências

Observação: Este artigo trata-se de uma versão traduzida e adaptada do artigo original:

  • Tokenized Networks: What is a DAO?, by Shermin Voshmgir (autor do livro: Token Economy)

Para ir um pouco mais a fundo, recomento estes dois livros de negócios

O primeiro para que deseja conhecer mais da filosofia e visão do blockchain, sem precisar entrar em detalhes técnicos:

  • Blockchain Revolution: How the Technology behind Bitcoin and other Cryptocurrencies is Changing the World, by Don Tapscott and Alex Tapscott

Este outro livro de negócios, tem um foco maior na Economia de Tokens:

  • Token Economy: How blockchain and Smart Contracts Revolutions the Economy, by Shermin Voshmgir

E este é para quem quer conhecer a parte técnica do blockchain:

  • Mastering Blockchain: Distributed ledger technology, descentralization and smart contracts explained, by Imran Bashir

Outro artigo sobre Processos de Negócios: