Dando continuidade aos posts sobre o uso da inteligência artificial no mundo dos negócios, segue este conteúdo com foco em governança que enfatiza as questões relacionadas ao risco, além de apresentar nove passos no desenvolvimento de um modelo de IA.
A IA responsável atingiu o pico?
Não é segredo que a pandemia acelerou a adoção e, mais criticamente, o desejo das organizações de adotar recursos de inteligência artificial (IA). No entanto, é notavelmente difícil fazer a IA funcionar. Apenas 6% das organizações conseguiram operacionalizar a IA, de acordo com a recente pesquisa global de IA responsável da PwC com mais de 1.000 participantes de organizações líderes nos EUA, Reino Unido, Japão e Índia. Mais da metade das empresas na pesquisa disseram que ainda estão experimentando e não se comprometem com grandes investimentos em recursos de IA.
Mas as empresas que têm uma estratégia de IA incorporada podem implantar aplicativos em escala de maneira mais confiável, com adoção mais ampla em toda a empresa, do que aquelas que não têm. Empresas maiores (mais de US$ 1 bilhão), em particular, são significativamente mais propensas a explorar novos casos de uso para IA (39%), aumentando seu uso de IA (38%) e treinando funcionários para usar IA (35%).
IA responsável
Embora alguns desafios à operacionalização sejam técnicos ou limitados por conjuntos de habilidades, uma lacuna de confiança continua sendo um inibidor.
Uma grande tendência é incorporar práticas de “IA responsável” para preencher essa lacuna de confiança. A IA responsável compreende as ferramentas, processos e pessoas necessárias para controlar os sistemas de IA e governá-los adequadamente de acordo com o ambiente em que gostaríamos de operar e é implementado usando recursos técnicos e processuais para abordar preconceitos, explicabilidade, robustez, segurança e proteção preocupações (entre outras coisas). A intenção da IA responsável, que às vezes é chamada ou confundida com IA confiável, ética da IA ou IA benéfica, é desenvolver sistemas de IA e análise metodicamente, permitindo sistemas documentados e de alta qualidade que reflitam as crenças e valores de uma organização e minimizando danos não intencionais
IA responsável na empresa
A apreciação das novas preocupações que a IA pode representar para uma organização levou a um aumento significativo nas atividades de mitigação de riscos. As organizações estão buscando estratégias para mitigar os riscos de aplicativos individuais, bem como os riscos mais amplos impostos aos negócios ou à sociedade, que os clientes e os reguladores estão cada vez mais exigentes (Figura 1). Esses riscos são experimentados no nível do aplicativo, incluindo instabilidade de desempenho e viés na tomada de decisões de IA; o nível de negócios, como risco empresarial ou financeiro; e o nível nacional, como deslocamento de empregos da automação e desinformação. Para lidar com esses riscos e muito mais, as organizações estão usando uma variedade de medidas de mitigação de riscos, começando com medidas ad hoc e avançando para um processo de governança mais estruturado. Mais de um terço das empresas (37%) têm estratégias e políticas para lidar com o risco de IA, um forte aumento em relação a 2019 (18%).
[Figura 1 – Taxonomia do risco
Apesar dessa ênfase crescente na mitigação de riscos, as organizações ainda estão debatendo como governar a IA. Apenas 19% das empresas da pesquisa têm um processo formal documentado que é reportado a todos os stakeholders; 29% possuem um processo formal apenas para tratar de um evento específico; e o saldo tem apenas um processo informal ou nenhum processo claramente definido.
Parte dessa discrepância se deve à falta de clareza em torno da propriedade da governança da IA. A quem pertence este processo? Quais são as responsabilidades dos desenvolvedores, da função de conformidade ou gerenciamento de riscos e da auditoria interna?
Bancos e outras organizações já sujeitas à supervisão regulatória de seus algoritmos tendem a ter funções robustas (equipes de “segunda linha”) que podem validar modelos de forma independente. Outros, no entanto, precisam contar com equipes de desenvolvimento separadas, porque a segunda linha não possui as habilidades apropriadas para revisar sistemas de IA. Algumas dessas organizações estão optando por reforçar suas equipes de segunda linha com mais conhecimento técnico, enquanto outras estão criando diretrizes mais robustas para garantia de qualidade na primeira linha.
Independentemente da responsabilidade, as organizações exigem uma metodologia de desenvolvimento padrão, completa com estágios em pontos específicos, para permitir o desenvolvimento e monitoramento de IA de alta qualidade (Figura 2). Essa metodologia também se estende às equipes de compras, já que muitos sistemas de IA entram nas organizações por meio de um fornecedor ou plataforma de software.
Figura 2 – Estágios em um processo de desenvolvimento de um modelo em IA
A conscientização sobre os riscos da IA complementa outra tendência de considerar a ética da tecnologia – adotar práticas para desenvolvimento, aquisição, uso e monitoramento de IA orientados por uma mentalidade de “o que você deve fazer” em vez de “o que você pode fazer”.
Embora haja uma série de princípios éticos para IA, dados e tecnologia, a justiça continua sendo um princípio fundamental. Trinta e seis por cento dos entrevistados da pesquisa identificam o viés algorítmico como uma área de foco principal de risco e 56% acreditam que podem lidar adequadamente com os riscos de viés. À medida que as empresas amadurecem na adoção da IA, elas também tendem a adotar o viés algorítmico como foco principal, dada a experiência no desenvolvimento de IA e a conscientização sobre os problemas relacionados aos riscos da IA. A justiça é classificada como o quinto princípio mais importante para empresas maduras em IA versus estar em oitavo lugar para organizações menos maduras. Outros princípios incluem segurança, proteção, privacidade, responsabilidade, explicabilidade e agência humana. As abordagens organizacionais para implementar a IA e a ética de dados tendem a se concentrar em iniciativas restritas que são consideradas isoladamente e utilizam ferramentas pontuais, como avaliações de impacto e códigos de conduta. Grandes empresas com uso maduro de IA são significativamente mais propensas a investir em uma variedade de iniciativas, incluindo a realização de avaliações de impacto (62%), a criação de um conselho ético (60%) e o fornecimento de treinamento ético (47%). Esse impulso sinaliza um reconhecimento de que várias iniciativas internas seriam necessárias para operacionalizar a IA responsável.
O que as organizações podem fazer
Estabeleça princípios para orientar: Um conjunto de princípios éticos adotados e apoiados pela liderança fornece uma estrela norte para a organização. Os princípios por si só, no entanto, não são suficientes para incorporar práticas responsáveis de IA. As partes interessadas precisam considerar os princípios no contexto de seu trabalho diário para projetar políticas e práticas que toda a empresa possa apoiar.
Considere a propriedade da governança: Felizmente, muitos líderes nas organizações estão interessados em estabelecer práticas de governança para IA e dados. No entanto, sem especificar um proprietário para essa governança, é provável que uma organização se depare com um problema diferente – práticas discretas que podem estar em conflito umas com as outras. Identifique quais equipes devem projetar abordagens de governança e concorde com um proprietário e um processo para identificar atualizações nas políticas existentes.
Desenvolva um processo bem definido e integrado para dados, modelo e ciclo de vida de software: implemente processos padronizados para desenvolvimento e monitoramento, com etapas específicas para indicar onde as aprovações e revisões são necessárias para prosseguir (Figura 2). Esse processo deve se conectar aos mecanismos de governança de dados e privacidade existentes, bem como ao ciclo de vida de desenvolvimento de software.
Quebre os silos: alinhe os grupos de partes interessadas necessários para conectar as equipes com o objetivo de compartilhar ideias e práticas de liderança. Crie inventários comuns para IA e dados para o processo de governança e use este exercício como uma oportunidade para considerar mudanças estruturais ou realinhamentos que possam permitir que os negócios funcionem melhor.
Fique de olho no clima regulatório em rápida mudança: não são apenas clientes, investidores e funcionários que exigem práticas responsáveis. Os reguladores estão tomando conhecimento e propondo legislação nos níveis estadual, regulador, nacional e supranacional. Algumas regulamentações decorrem de esforços expandidos de proteção de dados e privacidade, algumas de reguladores específicos em áreas restritas de casos de uso (como bancos) e algumas de um desejo mais geral de melhorar a responsabilidade (como Estratégia Brasileira de Inteligência Artificial -EBIA- do MTIC e legislação atual sobre IA). Manter o ritmo dessas regulamentações é fundamental para identificar futuras atividades de conformidade.
Com essas ações, as organizações estarão melhor posicionadas para lidar com os riscos de IA de maneira ágil.
Se gostou, por favor, compartilhe! Um abraço, @neigrando
Conte comigo em seus projetos. Sobre mim: aqui. Contato: aqui.
Referência
Este artigo trata-se da adaptação, redução e tradução, do artigo, em inglês, da Havard Business Review: “How Organizations Can Mitigate the Risks of AI“, pela PwC (2021).
Recentemente, buscando informações atualizadas sobre o a utilização da Inteligência Artificial (IA) pelas organizações como pesquisa adicional de um trabalho do Núcleo Decide (FEA-USP e CNPq) sobre o Uso da IA na Tomada de Decisões Organizacionais, e para a disciplina Fundamentos de IA que estarei ministrando em MBA da ESPM, me deparei com diversos artigos e relatórios sobre o tema, mas em especial este me chamou a atenção e desejei compartilhar neste blog, mantendo a referência ao relatório original.
Em dezembro de 2021 e janeiro de 2022, a O’Reilly pediu aos destinatários de seus boletins informativos de dados e IA que participassem de uma pesquisa anual sobre adoção de IA. Estavam particularmente interessados no que mudou desde o ano passado.
As empresas estão adiantadas na adoção da IA?
Elas têm aplicativos de trabalho em produção?
Elas estão usando ferramentas como o AutoML para gerar modelos e outras ferramentas para otimizar a implantação de IA?
Também queriam ter uma ideia de para onde a IA está indo. O hype claramente mudou para blockchains e NFTs. A IA está nas notícias com bastante frequência, mas o ritmo constante de novos avanços e técnicas ficou muito mais silencioso.
Em comparação com o ano passado, um número significativamente menor de pessoas respondeu. Isso é provavelmente um resultado do tempo. A pesquisa deste ano foi realizada durante a temporada de festas (8 de dezembro de 2021 a 19 de janeiro de 2022, embora tenham recebido muito poucas respostas no ano novo); o ano passado foi de 27 de janeiro de 2021 a 12 de fevereiro de 2021. Pandemia ou não, os horários de feriados sem dúvida limitaram o número de entrevistados.
Os resultados foram uma surpresa maior, no entanto. Apesar do número menor de entrevistados, os resultados foram surpreendentemente semelhantes a 2021. Além disso, se você voltar mais um ano, os resultados de 2021 foram surpreendentemente semelhantes a 2020. Isso mudou pouco na aplicação da IA aos problemas corporativos? Talvez. Consideramos a possibilidade de que os mesmos indivíduos respondessem em 2021 e 2022. Isso não seria surpreendente, já que ambas as pesquisas foram divulgadas por meio de listas de e-mail – e algumas pessoas gostam de responder a pesquisas. Mas não foi esse o caso.
Quando nada muda, há espaço para preocupação: certamente não estamos em um espaço “para cima e para a direita”. Mas isso é apenas um artefato do ciclo do hype? Afinal, independentemente do valor ou importância de qualquer tecnologia a longo prazo, ela só pode receber atenção exagerada da mídia por um tempo limitado. Ou há problemas mais profundos que corroem os fundamentos da adoção da IA?
Adoção de IA em geral
Perguntaram aos participantes sobre o nível de adoção de IA em sua organização. Estruturam as respostas a essa pergunta de maneira diferente dos anos anteriores, nos quais ofereceram quatro respostas: não usar IA, considerar IA, avaliar IA e ter projetos de IA em produção (que chamaram de “maduras”). Este ano foi combinado “avaliar IA” e “considerar IA”; achávaram que a diferença entre “avaliar” e “considerar” era, na melhor das hipóteses, mal definida e, se não sabiam o que isso significava, os entrevistados também não saberiam. Mantiveram a pergunta sobre projetos em produção e usaram as palavras “em produção” em vez de “prática madura” para falar sobre os resultados deste ano.
Apesar da mudança na pergunta, as respostas foram surpreendentemente semelhantes às do ano passado. A mesma porcentagem de entrevistados disse que suas organizações tinham projetos de IA em produção (26%). Significativamente mais disseram que não estavam usando IA: isso passou de 13% em 2021 para 31% na pesquisa deste ano. Não está claro o que essa mudança significa. É possível que seja apenas uma reação à mudança nas respostas; talvez os entrevistados que estavam “considerando” a IA pensassem que “considerar realmente significa que não a estamos usando”. Também é possível que a IA esteja se tornando parte do kit de ferramentas, algo que os desenvolvedores usam sem pensar duas vezes. Os profissionais de marketing usam o termo IA; desenvolvedores de software tendem a dizer aprendizado de máquina. Para o cliente, o importante não é como o produto funciona, mas o que ele faz. Já existe muita IA incorporada em produtos nos quais nunca pensamos.
Desse ponto de vista, muitas empresas com IA em produção não possuem um único especialista ou desenvolvedor de IA. Qualquer pessoa que use o Google, Facebook ou Amazon (e, presumo, a maioria de seus concorrentes) para publicidade está usando IA. Como serviço inclui-se a IA empacotada de maneiras que podem não se parecer com redes neurais ou aprendizado profundo. Se você instalar um produto de atendimento ao cliente inteligente que usa GPT-3, nunca verá um hiperparâmetro para ajustar, mas implantou um aplicativo de IA. Não esperamos que os entrevistados digam que têm “aplicativos de IA implantados” se sua empresa tiver uma relação de publicidade com o Google, mas a IA está lá e é real, mesmo que seja invisível.
Esses aplicativos invisíveis são o motivo da mudança? A IA está desaparecendo nas paredes, como nosso encanamento (e, aliás, nossas redes de computadores)? Teremos motivos para pensar nisso ao longo deste artigo.
Independentemente disso, pelo menos em alguns setores, as atitudes parecem estar se solidificando contra a IA, e isso pode ser um sinal de que estamos nos aproximando de outro “inverno da IA”. Acredita-se que não, dado que o número de entrevistados que relataram IA em produção é constante e ligeiramente superior. No entanto, é um sinal de que a IA passou para o próximo estágio do ciclo de hype. Quando as expectativas sobre o que a IA pode oferecer estão no auge, todos dizem que estão fazendo isso, estejam ou não realmente. E uma vez que você chega ao vale, ninguém diz que está usando, mesmo que agora esteja.
Adoção e Maturidade da IA
A borda de fuga do ciclo de hype tem consequências importantes para a prática da IA. Quando era notícia todos os dias, a IA não precisava provar seu valor; foi o suficiente para ser interessante. Mas uma vez que o hype acabou, a IA precisa mostrar seu valor na produção, em aplicativos reais: é hora de provar que pode fornecer valor comercial real, seja economia de custos, aumento de produtividade ou mais clientes. Isso sem dúvida exigirá melhores ferramentas para colaboração entre sistemas de IA e consumidores, melhores métodos para treinar modelos de IA e melhor governança para dados e sistemas de IA.
Adoção pelos setores econômicos
A distribuição dos entrevistados por setor foi quase a mesma do ano passado. As maiores porcentagens de entrevistados eram dos setores de hardware de computador e serviços financeiros (ambos com cerca de 15%, embora o hardware de computador tenha uma ligeira vantagem), educação (11%) e saúde (9%). Muitos entrevistados relataram seu setor como “Outro”, que foi a terceira resposta mais comum. Infelizmente, essa categoria vaga não é muito útil, pois apresentava setores que iam da academia ao atacado, e incluíam algumas coisas exóticas, como drones e vigilância – intrigantes, mas difíceis de tirar conclusões com base em uma ou duas respostas. (Além disso, se você estiver trabalhando em vigilância, você realmente vai contar às pessoas?) Houve mais de 100 respostas únicas, muitas das quais se sobrepuseram aos setores da indústria que listamos. Observa-se uma história mais interessante quando analisa-se a maturidade das práticas de IA nesses setores. Os setores de varejo e serviços financeiros tiveram as maiores porcentagens de entrevistados relatando aplicativos de IA em produção (37% e 35%, respectivamente). Esses setores também tiveram o menor número de entrevistados relatando que não estavam usando IA (26% e 22%). Isso faz muito sentido intuitivo: quase todos os varejistas estabeleceram uma presença online, e parte dessa presença está fazendo recomendações de produtos, um aplicativo clássico de IA. A maioria dos varejistas que usam serviços de publicidade online dependem muito da IA, mesmo que não considerem usar um serviço como o Google “IA em produção”. A IA certamente está lá e está gerando receita, estejam eles cientes disso ou não. Da mesma forma, as empresas de serviços financeiros foram as primeiras a adotar a IA: a leitura automatizada de cheques foi um dos primeiros aplicativos corporativos de IA, datando muito antes do atual aumento no interesse da IA.
Educação e governo foram os dois setores com o menor número de entrevistados relatando projetos de IA em produção (9% para ambos). Ambos os setores tiveram muitos entrevistados relatando que estavam avaliando o uso da IA (46% e 50%). Esses dois setores também tiveram a maior porcentagem de entrevistados relatando que não estavam usando IA. Esses são setores em que o uso apropriado de IA pode ser muito importante, mas também são áreas em que muitos danos podem ser causados por sistemas de IA inadequados. E, francamente, ambas as áreas são atormentadas pela infraestrutura de TI desatualizada. Portanto, não é de surpreender que vejamos muitas pessoas avaliando a IA, mas também não é de surpreender que relativamente poucos projetos tenham entrado em produção.
Adoção da IA pelos Setores
Como seria de esperar, os entrevistados de empresas com IA em produção relataram que uma parcela maior de seu orçamento de TI foi gasta em IA do que os entrevistados de empresas que estavam avaliando ou não usando IA. 32% dos entrevistados com IA em produção relataram que suas empresas gastaram mais de 21% de seu orçamento de TI em IA (18% relataram que 11% a 20% do orçamento de TI foi para IA; 20% relataram 6% a 10%). Apenas 12% dos entrevistados que avaliaram a IA relataram que suas empresas estavam gastando mais de 21% do orçamento de TI em projetos de IA. A maioria dos entrevistados que avaliaram a IA veio de organizações que estavam gastando menos de 5% de seu orçamento de TI em IA (31%); na maioria dos casos, “avaliar” significa um compromisso relativamente pequeno. (E lembre-se de que aproximadamente metade de todos os entrevistados estava no grupo de “avaliação”.)
A grande surpresa foi entre os entrevistados que relataram que suas empresas não estavam usando IA. Você esperaria que sua despesa de TI fosse zero e, de fato, mais da metade dos entrevistados (53%) selecionaram 0%–5%; supõe-se que isso significa 0. Outros 28% marcaram “Não aplicável”, também uma resposta razoável para uma empresa que não está investindo em IA. Mas um número mensurável teve outras respostas, incluindo 2% (10 entrevistados) que indicaram que suas organizações estavam gastando mais de 21% de seus orçamentos de TI em projetos de IA. 13% dos entrevistados que não usam IA indicaram que suas empresas estavam gastando de 6% a 10% em IA, e 4% desse grupo estimaram despesas de IA na faixa de 11% a 20%. Portanto, mesmo quando nossos entrevistados relatam que suas organizações não estão usando IA, descobrimos que eles estão fazendo algo: experimentando, considerando ou “chutando os pneus”. Essas organizações avançarão para a adoção nos próximos anos? Isso é uma incógnita, mas a IA pode estar penetrando em organizações que estão na retaguarda da curva de adoção (a chamada “maioria tardia”).
Orçamento de TI alocado para IA
Gargalos
Questionaram os entrevistados quais eram os maiores gargalos para a adoção da IA. As respostas foram surpreendentemente semelhantes às do ano passado. Em conjunto, os entrevistados com IA em produção e os entrevistados que estavam avaliando a IA dizem que os maiores gargalos foram a falta de pessoas qualificadas e a falta de dados ou problemas de qualidade de dados (ambos em 20%), seguidos por encontrar casos de uso apropriados (16%).
Observar as práticas “em produção” e “avaliando” separadamente fornece uma imagem mais sutil. Os entrevistados cujas organizações estavam avaliando a IA eram muito mais propensos a dizer que a cultura da empresa é um gargalo, um desafio que Andrew Ng abordou em uma edição recente de seu boletim informativo. Eles também eram mais propensos a ver problemas na identificação de casos de uso apropriados. Isso não é surpreendente: se você tem IA em produção, você superou pelo menos parcialmente os problemas com a cultura da empresa e encontrou pelo menos alguns casos de uso para os quais a IA é apropriada.
Os entrevistados com IA em produção eram significativamente mais propensos a apontar a falta de dados ou a qualidade dos dados como um problema. Suspeitamos que este seja o resultado de uma experiência duramente conquistada. Os dados sempre parecem muito melhores antes de você tentar trabalhar com eles. Quando você suja as mãos, vê onde estão os problemas. Encontrar esses problemas e aprender a lidar com eles é um passo importante para desenvolver uma prática de IA verdadeiramente madura. Esses entrevistados eram um pouco mais propensos a ver problemas com a infraestrutura técnica – e, novamente, entender o problema de construir a infraestrutura necessária para colocar a IA em produção vem com a experiência.
Os entrevistados que estão usando IA (os grupos “avaliando” e “em produção” – ou seja, todos que não se identificaram como “não usuários”) concordaram com a falta de pessoas qualificadas. A escassez de cientistas de dados treinados foi prevista há anos. Na pesquisa de adoção de IA do ano passado, notamos que finalmente vimos essa escassez acontecer e esperamos que ela se torne mais aguda. Este grupo de respondentes também estava de acordo sobre questões legais. Apenas 7% dos entrevistados em cada grupo listaram isso como o gargalo mais importante, mas está na mente dos entrevistados.
E ninguém está se preocupando muito com o ajuste de hiperparâmetros.
Gargalos de Adoção da IA
Analisando um pouco mais a dificuldade de contratar para IA, descobrimos que os entrevistados com IA em produção viram as lacunas de habilidades mais significativas nessas áreas: modelagem de ML e ciência de dados (45%), engenharia de dados (43%) e manutenção de um conjunto de casos de uso de negócios (40%). Podemos reformular essas habilidades como desenvolvimento principal de IA, construção de pipelines de dados e gerenciamento de produtos. O gerenciamento de produtos para IA, em particular, é uma especialização importante e ainda relativamente nova que requer a compreensão dos requisitos específicos dos sistemas de IA.
Governança de IA
Entre os entrevistados com produtos de IA em produção, o número daqueles cujas organizações tinham um plano de governança para supervisionar como os projetos são criados, medidos e observados foi aproximadamente o mesmo daqueles que não tinham (49% sim, 51% não) . Entre os entrevistados que estavam avaliando a IA, relativamente poucos (apenas 22%) tinham um plano de governança.
O grande número de organizações sem governança de IA é preocupante. Embora seja fácil supor que a governança de IA não seja necessária se você estiver apenas fazendo alguns experimentos e projetos de prova de conceito, isso é perigoso. Em algum momento, sua prova de conceito provavelmente se transformará em um produto real e, então, seus esforços de governança serão atualizados. É ainda mais perigoso quando você depende de aplicativos de IA em produção. Sem formalizar algum tipo de governança de IA, é menos provável que você saiba quando os modelos estão ficando obsoletos, quando os resultados são tendenciosos ou quando os dados foram coletados de forma inadequada.
Embora não foi perguntado sobre governança de IA na pesquisa do ano passado e, consequentemente, não possamos fazer comparações ano a ano, perguntamos aos entrevistados que tinham IA em produção quais riscos eles verificaram. Não vimos quase nenhuma mudança. Alguns riscos aumentaram um ou dois pontos percentuais e alguns diminuíram, mas a ordenação permaneceu a mesma. Os resultados inesperados continuaram sendo o maior risco (68%, abaixo dos 71%), seguidos de perto pela Interpretabilidade do modelo e degradação do modelo (ambos 61%). Vale a pena notar que resultados inesperados e degradação do modelo são problemas de negócios. Interpretabilidade, privacidade (54%), justiça (51%) e segurança (46%) são questões humanas que podem ter um impacto direto nos indivíduos. Embora possa haver aplicativos de IA em que privacidade e justiça não sejam problemas (por exemplo, um sistema incorporado que decide se os pratos da sua máquina de lavar louça estão limpos), as empresas com práticas de IA claramente precisam dar maior prioridade ao impacto humano da IA .
Também surpreende-se ao ver que a segurança permanece no final da lista (42%, inalterada em relação ao ano passado). A segurança está finalmente sendo levada a sério por muitas empresas, mas não pela IA. No entanto, a IA tem muitos riscos exclusivos: envenenamento de dados, entradas maliciosas que geram previsões falsas, modelos de engenharia reversa para expor informações privadas e muito mais. Após os muitos ataques caros do ano passado contra empresas e seus dados, não há desculpa para ser negligente em relação à segurança cibernética. Infelizmente, parece que as práticas de IA demoram a se recuperar.
Governança e consciência de risco certamente são questões que observaremos no futuro. Se as empresas que desenvolvem sistemas de IA não adotam algum tipo de governança, estão arriscando seus negócios. A IA estará controlando você, com resultados imprevisíveis – resultados que incluem cada vez mais danos à sua reputação e grandes julgamentos legais. O menor desses riscos é que a governança será imposta pela legislação, e aqueles que não praticam a governança de IA precisarão se atualizar.
Ferramentas
Quando analisamos as ferramentas utilizadas pelos entrevistados que trabalham em empresas com IA em produção, nossos resultados foram muito semelhantes aos do ano passado. TensorFlow e scikit-learn são os mais usados (ambos 63%), seguidos por PyTorch, Keras e AWS SageMaker (50%, 40% e 26%, respectivamente). Todos eles estão dentro de alguns pontos percentuais dos números do ano passado, normalmente alguns pontos percentuais abaixo. Os entrevistados foram autorizados a selecionar várias entradas; este ano, o número médio de entradas por respondente pareceu ser menor, explicando a queda nas porcentagens (embora não saibamos por que os entrevistados verificaram menos entradas).
Parece haver alguma consolidação no mercado de ferramentas. Embora seja ótimo torcer pelos azarões, as ferramentas na parte inferior da lista também caíram um pouco: AllenNLP (2,4%), BigDL (1,3%) e Ray da RISELab (1,8%). Novamente, as mudanças são pequenas, mas cair um por cento quando você está apenas em 2% ou 3% para começar pode ser significativo – muito mais significativo do que a queda do scikit-learn de 65% para 63%. Ou talvez não; quando você tem apenas 3% dos entrevistados, pequenas flutuações aleatórias podem parecer grandes.
Ferramentas usadas pelos entrevistados com IA em produção
Automatizando ML
Foi dada uma atenção adicional nas ferramentas para gerar modelos automaticamente. Essas ferramentas são comumente chamadas de “AutoML” (embora esse também seja um nome de produto usado pelo Google e pela Microsoft). Eles existem há alguns anos; a empresa que desenvolve o DataRobot, uma das ferramentas mais antigas para automatizar o aprendizado de máquina, foi fundada em 2012. Embora construir modelos e programar não sejam a mesma coisa, essas ferramentas fazem parte do movimento “low code”. As ferramentas AutoML atendem a necessidades semelhantes: permitir que mais pessoas trabalhem efetivamente com IA e eliminar o trabalho penoso de fazer centenas (se não milhares) de experimentos para ajustar um modelo.
Até agora, o uso do AutoML era uma parte relativamente pequena do cenário. Esta é uma das poucas áreas em que vemos uma diferença significativa entre este ano e o ano passado. No ano passado, 51% dos entrevistados com IA em produção disseram que não estavam usando ferramentas AutoML. Este ano, apenas 33% responderam “Nenhuma das opções acima” (e não escreveram uma resposta alternativa).
Os entrevistados que estavam “avaliando” o uso de IA parecem estar menos inclinados a usar ferramentas AutoML (45% responderam “Nenhuma das opções acima”). No entanto, houve algumas exceções importantes. Os entrevistados que avaliaram o ML eram mais propensos a usar o Azure AutoML do que os entrevistados com ML em produção. Isso se encaixa em relatos anedóticos de que o Microsoft Azure é o serviço de nuvem mais popular para organizações que estão migrando para a nuvem. Também vale a pena notar que o uso do Google Cloud AutoML e do IBM AutoAI foi semelhante para os entrevistados que estavam avaliando IA e para aqueles que tinham IA em produção. Para os entrevistados, pequenas flutuações aleatórias podem parecer grandes.
Uso de ferramentas de AutoML
Implantação e monitoramento de IA
Também parece haver um aumento no uso de ferramentas automatizadas para implantação e monitoramento entre os entrevistados com IA em produção. “Nenhuma das opções acima” ainda foi a resposta escolhida pela maior porcentagem de entrevistados (35%), mas caiu em relação aos 46% de um ano atrás. As ferramentas que eles estavam usando eram semelhantes às do ano passado: MLflow (26%), Kubeflow (21%) e TensorFlow Extended (TFX, 15%). O uso de MLflow e Kubeflow aumentou desde 2021; O TFX caiu um pouco. Amazon SageMaker (22%) e TorchServe (6%) foram dois novos produtos com uso significativo; A SageMaker, em particular, está pronta para se tornar líder de mercado. Não vimos mudanças significativas ano a ano para Domino, Seldon ou Cortex, nenhum dos quais tinha uma participação de mercado significativa entre nossos entrevistados. (BentoML é novo em nossa lista.)
Ferramentas usadas para implantar e monitorar a IA
Viu-se resultados semelhantes quando foram analisadas ferramentas automatizadas para controle de versão de dados, ajuste de modelo e rastreamento de experimentos. Novamente, vimos uma redução significativa na porcentagem de entrevistados que selecionaram “Nenhuma das opções acima”, embora ainda fosse a resposta mais comum (40%, abaixo dos 51%). Um número significativo disse que estava usando ferramentas caseiras (24%, acima dos 21%). O MLflow foi a única ferramenta sobre a qual perguntamos que parecia estar conquistando os corações e mentes de nossos entrevistados, com 30% relatando que a usaram. Todo o resto estava abaixo de 10%. Um mercado saudável e competitivo? Talvez. Certamente há muito espaço para crescer, e não acreditamos que o problema de versionamento de dados e modelos tenha sido resolvido ainda.
IA em uma encruzilhada
Agora que analisamos todos os dados, onde está a IA no início de 2022 e onde estará daqui a um ano? Você poderia argumentar bem que a adoção da IA parou. Não acredita-se que seja o caso. Nem os capitalistas de risco; um estudo da OCDE, Investimentos de Capital de Risco em Inteligência Artificial, diz que em 2020, 20% de todos os fundos de capital de risco foram para empresas de IA. Apostaríamos que esse número também permanece inalterado em 2021. Mas o que estamos perdendo? A IA corporativa está estagnada?
Andrew Ng, em seu boletim The Batch, pinta um quadro otimista. Ele aponta para o Relatório de Índice de IA de Stanford para 2022, que diz que o investimento privado quase dobrou entre 2020 e 2021. Ele também aponta o aumento da regulamentação como evidência de que a IA é inevitável: é uma parte inevitável da vida do século XXI. Concorda-se que a IA está em todos os lugares e, em muitos lugares, nem é vista. Como mencionado, as empresas que usam serviços de publicidade de terceiros quase certamente usam IA, mesmo que nunca escrevam uma linha de código. Está incorporado no aplicativo de publicidade. A IA invisível – IA que se tornou parte da infraestrutura – não vai desaparecer. Por sua vez, isso pode significar que estamos pensando na implantação da IA da maneira errada. O importante não é se as organizações implantaram IA em seus próprios servidores ou nos de outra pessoa. O que devemos realmente medir é se as organizações estão usando IA de infraestrutura incorporada em outros sistemas fornecidos como serviço. A IA como serviço (incluindo a IA como parte de outro serviço) é uma parte inevitável do futuro.
Mas nem toda IA é invisível; alguns são muito visíveis. A IA está sendo adotada de algumas maneiras que, até o ano passado, consideravam-se inimagináveis. Estamos familiarizados com chatbots, e a ideia de que a IA pode nos dar chatbots melhores não foi exagerada. Mas o Copilot do GitHub foi um choque: não esperávamos que a IA escrevesse software. Vimos (e escrevemos sobre) a pesquisa que levou ao Copilot, mas não acreditávamos que se tornaria um produto tão cedo. O que é mais chocante? Ouvimos dizer que, para algumas linguagens de programação, até 30% do novo código está sendo sugerido pela ferramenta de programação de IA Copilot da empresa. No início, muitos programadores pensaram que o Copilot não era mais do que um truque inteligente de festa da IA. Isso claramente não é o caso. O Copilot se tornou uma ferramenta útil em pouco tempo e, com o tempo, só ficará melhor.
Outras aplicações de grandes modelos de linguagem – atendimento automatizado ao cliente, por exemplo – estão sendo lançadas (nossa pesquisa não deu atenção suficiente a elas). Resta saber se os humanos se sentirão melhor em interagir com o atendimento ao cliente orientado por IA do que com humanos (ou bots horrivelmente com scripts). Há uma dica intrigante de que os sistemas de IA são melhores em fornecer más notícias aos humanos. Se precisarmos ouvir algo que não queremos ouvir, preferimos que venha de uma máquina sem rosto.
Começa-se a ver mais adoção de ferramentas automatizadas para implantação, juntamente com ferramentas para controle de versão de dados e modelos. Isso é uma necessidade; se a IA for implantada na produção, é necessário ser capaz de implantá-la de forma eficaz, e as modernas lojas de TI não veem com bons olhos os processos artesanais artesanais.
Há muitos outros lugares em que esperamos ver a IA implantada, tanto visível quanto invisível. Algumas dessas aplicações são bastante simples e de baixa tecnologia. Alguns carros de quatro anos mostra o limite de velocidade no painel. Há várias maneiras de fazer isso, mas depois de algumas observações, ficou claro que se tratava de um simples aplicativo de visão computacional. (O carro relataria velocidades incorretas se um sinal de limite de velocidade fosse desfigurado e assim por diante.) Provavelmente não é a rede neural mais sofisticada, mas não há dúvida de que teríamos chamado isso de IA alguns anos atrás. Onde mais? Termostatos, lava-louças, geladeiras e outros aparelhos? Frigoríficos inteligentes eram uma piada não muito tempo atrás; agora você pode comprá-los.
Também viu-se a IA chegando a dispositivos menores e mais limitados. Carros e geladeiras têm energia e espaço aparentemente ilimitados para trabalhar. Mas e quanto a pequenos dispositivos como telefones? Empresas como o Google se esforçaram muito para executar a IA diretamente no telefone, fazendo trabalhos como reconhecimento de voz e previsão de texto e realmente treinando modelos usando técnicas como aprendizado federado – tudo sem enviar dados privados de volta à nuvem. As empresas que não podem fazer pesquisas de IA na escala do Google estão se beneficiando desses desenvolvimentos? ainda não sabemos. Provavelmente não, mas isso pode mudar nos próximos anos e representaria um grande passo à frente na adoção da IA.
Se gostou, por favor, compartilhe! Um abraço, @neigrando
Conte comigo em seus projetos. Sobre mim: aqui. Contato: aqui.
Referência
Este artigo trata-se da adaptação, redução e tradução, do relatório original, em inglês, da O’Reilly: “AI Adoption in the Enterprise 2022“, por Mike Loukides.
Redes neurais artificiais são sistemas de computação inspirados nas redes neurais biológicas que constituem o cérebro humano.
Elas podem parecer novas e excitantes, mas o campo em si não é novo. Frank Rosenblatt, um psicólogo americano, conceituou e tentou construir uma máquina que responde como a mente humana em 1958, a qual ele nomeou “Perceptron”.
Depois disso, graças aos recursos computacionais atuais, tais redes neurais foram modernizadas, incluindo arquiteturas de rede aprimoradas e mais profundas e estão sendo utilizadas no aprendizado profundo (deep learning), que é a base para grande parte do atual boom da Inteligência Artificial.
Para os propósitos práticos, as redes neurais artificiais aprendem pelo exemplo, de maneira semelhante às suas contrapartes biológicas. As entradas externas são recebidas, processadas e acionadas de forma similar a do cérebro humano.
A estrutura em camadas das redes neurais
Sabemos que diferentes seções do cérebro humano estão conectadas para processar vários tipos de informação. Essas partes do cérebro são organizadas hierarquicamente em níveis. À medida que a informação entra no cérebro, cada camada, ou nível, de neurônios faz seu trabalho específico de processar as informações recebidas, derivar insights e transmiti-los para a camada seguinte e mais sênior.
Por exemplo, quando você passa por uma padaria, seu cérebro responderá ao aroma de pão recém assado em etapas:
Entrada de dados: O cheiro de pão quentinho
Pensamento: Isso me lembra minha infância
Tomada de decisão: acho que vou comprar um pouco desse pão
Memória: Mas eu já almocei
Raciocínio: Talvez eu pudesse fazer um lanche
Ação: Posso comer um pedaço desse pão, por favor?
É assim que o cérebro funciona em etapas. As redes neurais artificiais funcionam de maneira semelhante. As redes neurais tentam simular essa abordagem de várias camadas para processar várias entradas de informações e basear decisões nelas.
No nível celular ou neurônio individual, as funções são ajustadas. Os neurônios são as células nervosas do cérebro. As células nervosas têm extensões finas conhecidas como dendritos. Eles recebem sinais e os transmitem para o corpo celular. O corpo celular processa os estímulos e toma a decisão de acionar sinais para outros neurônios na rede. Se a célula decidir fazê-lo, a extensão no corpo celular conhecida como axônio conduzirá o sinal para outras células por meio de transmissão química. O funcionamento das redes neurais é inspirado na função dos neurônios em nosso cérebro, embora o mecanismo tecnológico de ação seja diferente do biológico.
Como as redes neurais funcionam de forma semelhante ao cérebro humano
Uma rede neural artificial em sua forma mais básica tem três camadas de neurônios. A informação flui de um para o outro, assim como no cérebro humano:
A camada de entrada: o ponto de entrada dos dados no sistema
A(s) camada(s) oculta(s): onde a informação é processada
A camada de saída: onde o sistema decide como proceder com base nos dados
Redes neurais artificiais mais complexas terão várias camadas, algumas ocultas.
A rede neural funciona por meio de uma coleção de nós ou unidades conectadas, assim como os neurôniosartificiais. Esses nós modelam vagamente a rede de neurônios no cérebro animal. Assim como sua contraparte biológica, um neurônioartificial recebe um sinal na forma de estímulo, processa-o e sinaliza outros neurônios conectados a ele. Mas as similaridades acabam aí.
Observação: “O termo ‘rede neural’ refere-se à neurobiologia, mas embora alguns dos conceitos centrais da aprendizagem profunda tenham sido desenvolvidos em parte inspirando-se em nossa compreensão do cérebro (em particular, o córtex visual), os modelos de aprendizagem profunda não são modelos do cérebro. Não há evidências de que o cérebro implemente algo parecido com os mecanismos de aprendizado usados nos modelos modernos de aprendizado profundo. Para nossos propósitos, o aprendizado profundo é uma estrutura matemática para aprender representações de dados.”
O funcionamento do neurônio e da rede neural artificial
Um neurônio artificial é o menor bloco de construção em todas as redes neurais profundas.
Em uma rede neural artificial, o neurônio artificial recebe como entrada um ou mais estímulos na forma de sinais que são números reais (x1, x2, …). A saída (y) de cada neurônio é calculada usando alguns pesos fixos (w1, w2, …), uma polarização (b) e uma função de ativação definida (f) não linear da soma de suas entradas (∑).
As conexões entre os neurônios são chamadas de arestas.
Tanto os neurônios quanto as arestas têm um peso. Este parâmetro se ajusta e muda à medida que o aprendizado prossegue.
O peso aumenta ou diminui a força do sinal em uma conexão.
Os neurônios podem ter um limiar. Um sinal é enviado somente se o sinal agregado cruzar esse limite.
Como mencionado anteriormente, os neurônios se agregam em camadas. Diferentes camadas podem realizar diferentes modificações em suas entradas. Os sinais passam da primeira camada (a camada de entrada) para a última camada (a camada de saída) da maneira discutida acima, às vezes depois de percorrer as camadas várias vezes.
As redes neurais contêm inerentemente algum tipo de regra de aprendizado, que modifica os pesos das conexões neurais de acordo com os padrões de entrada com os quais são apresentadas, assim como uma criança em crescimento aprende a reconhecer animais a partir de exemplos de animais.
Redes neurais e aprendizado profundo (deep learning)
É impossível falar sobre redes neurais sem mencionar o aprendizado profundo. Os termos “redes neurais” e “aprendizado profundo” são frequentemente usados de forma intercambiável, embora sejam distintos um do outro. No entanto, os dois estão intimamente ligados, pois um depende do outro para funcionar. Se as redes neurais não existissem, o aprendizado profundo também não existiria, pois:
O aprendizado profundo é a vanguarda de uma entidade que já está na vanguarda, a inteligência artificial (IA).
O aprendizado profundo é diferente do aprendizado de máquina, projetado para ensinar os computadores a processar e aprender com os dados.
Com o aprendizado profundo, o algoritmo do computador treina a si mesmo continuamente para processar dados, aprender com eles e criar mais recursos. As múltiplas camadas de redes neurais artificiais mais complexas são o que tornam isso possível.
As redes neurais complexas contêm uma camada de entrada e uma camada de saída, assim como as redes neurais de forma simples, mas também contêm várias camadas ocultas. Portanto, elas são chamados de redes neurais profundas e são propícias ao aprendizado profundo.
Um sistema de aprendizado profundo aprende a si mesmo e se torna mais “conhecido” à medida que avança, filtrando informações através de várias camadas ocultas, de maneira semelhante ao cérebro humano com todas as suas complexidades.
Por que o Deep Learning é importante para as organizações
O aprendizado profundo é como a nova corrida do ouro ou a mais recente descoberta de petróleo no mundo da tecnologia. O potencial do aprendizado profundo despertou o interesse de grandes corporações estabelecidas, bem como startups nascentes e tudo mais. Por quê?
Faz parte do panorama geral orientado por dados, em particular, graças ao aumento da importância de big data. Se você pensa em dados derivados da Internet como petróleo bruto armazenado em bancos de dados, data warehouses e data lakes, esperando para ser perfurado com várias ferramentas de análise de dados, o aprendizado profundo é a refinaria de petróleo que pega os dados brutos e os converte em produtos úteis.
O aprendizado profundo é o objetivo final em um mercado inundado de ferramentas analíticas em um mundo de dados: sem uma unidade de processamento eficiente e de última geração, extrair qualquer coisa de valor simplesmente não é possível.
O aprendizado profundo tem o potencial de substituir os humanos automatizando tarefas repetitivas. No entanto, o aprendizado profundo não pode substituir os processos de pensamento de um cientista ou engenheiro humano criando e mantendo aplicativos de aprendizado profundo, pelo menos por enquanto.
Fazendo a distinção entre aprendizado de máquina e outros tipos de aprendizado
Aprendizado de máquina. Como exatamente as máquinas aprendem? A resposta curta: Algoritmos.
Alimentamos algoritmos, que são conjuntos de regras usadas para ajudar os computadores a realizar operações de resolução de problemas, por meio de grandes volumes de dados. Geralmente, quanto mais dados são fornecidos a um algoritmo de aprendizado de máquina, mais preciso ele se torna. Estes algoritmos são divididos em categorias, conforme eles interagem com os dados. Trata-se de treinar algoritmos como regressão linear, K-means, árvores de decisão, Random Forest, algoritmo K-neest neighbors (KNN) e máquina de vetor de suporte ou algoritmo SVM.
Esses algoritmos vasculham conjuntos de dados, aprendendo à medida que avançam para se adaptar a novas situações e procurar padrões de dados interessantes e perspicazes. Os dados são o substrato chave para que esses algoritmos funcionem da melhor maneira possível.
Aprendizado Supervisionado. Os conjuntos de dados usados para treinar o aprendizado de máquina podem ser rotulados.
Por exemplo, considere milhares de fotos de animais rotuladas. O algoritmo é treinando e “aprende” com estas fotos para que possa reconhecer imagens de animais que ainda não viu. Isso vale para imagens médicas, rostos, inadimplência de empréstimos, apólices de seguro de alto risco e muito mais.
Outro exemplo, um computador verificando uma caixa de entrada de e-mails em busca de spam pode ter sido treinado a partir de um conjunto de dados rotulado para entender quais e-mails são spam e quais são legítimos.
Isso é chamado de aprendizado supervisionado. Exemplos clássicos de técnicas de aprendizado supervisionado são regressão linear, máquinas de vetor de suporte (SVM), K-NN (neest neighbors ou vizinhos mais próximos), árvores de decisão e classificação.
Aprendizado não supervisionado. É feito com dados que não são rotulados. É uma técnica popular para usar quando não se sabe o que esperar, mas deseja que a IA molde os dados em agrupamentos (clusters) com base em sua “intuição”. Em outras palavras, o aprendizado não supervisionado é ótimo para encontrar padrões nos dados – coisas que “parecem semelhantes” – e permitir que você decida o que os padrões significam; um algoritmo de agrupamento como K-means é um ótimo exemplo.
Aprendizado Semissupervisionado. É uma área de interesse crescente porque leva muito tempo para curar dados rotulados bons e limpos. Usando o aprendizado semissupervisionado, pode-se aumentar os dados rotulados com novos dados ou misturar dados rotulados e não rotulados.
Redes Neurais e Lógica Fuzzy. É importante fazer a distinção entre redes neurais e lógica fuzzy. A lógica fuzzy permite tomar decisões concretas com base em dados imprecisos ou ambíguos. Por outro lado, as redes neurais tentam incorporar processos de pensamento semelhantes aos humanos para resolver problemas sem primeiro projetar modelos matemáticos.
Como as redes neurais diferem da computação convencional?
Para entender melhor como a computação funciona com uma rede neural artificial, um computador convencional e suas informações de processo de software devem ser entendidos.
Um computador possui um processador central que pode endereçar uma série de locais de memória onde os dados e instruções são armazenados. O processador lê as instruções e quaisquer dados de que a instrução precise de dentro dos endereços de memória. A instrução é então executada e os resultados salvos em um local de memória especificado.
Em um sistema serial ou paralelo padrão, as etapas computacionais são determinísticas, sequenciais e lógicas. Além disso, o estado de uma determinada variável pode ser rastreado de uma operação para outra.
O funcionamento nas redes neurais. Em contraste, as redes neurais artificiais não são sequenciais nem necessariamente determinísticas. Elas não contêm nenhum processador central complexo. Em vez disso, elas são compostas de vários processadores simples que recebem a soma ponderada de suas entradas de outros processadores.
As redes neurais não executam instruções programadas. Elas respondem em paralelo (de forma simulada ou real) ao padrão de entradas apresentado a elas.
Nestas redes as informações estão contidas no estado geral de ativação da rede. O conhecimento é representado pela própria rede, que é literalmente mais do que a soma de seus componentes individuais.
Vantagens das redes neurais sobre as técnicas convencionais
Espera-se que as redes neurais se auto treinem de maneira bastante eficiente no caso de problemas em que os relacionamentos são dinâmicos ou não lineares. Essa capacidade é aprimorada ainda mais se os padrões de dados internos forem fortes. Também depende até certo ponto da própria aplicação.
As redes neurais são uma alternativa analítica às técnicas padrão um tanto limitadas a ideias como suposições estritas de linearidade, normalidade e independência variável.
A capacidade das redes neurais de examinar uma variedade de relacionamentos torna mais fácil para o usuário modelar rapidamente fenômenos que podem ter sido bastante difíceis, ou mesmo impossíveis, de compreender de outra forma.
Limitações das Redes Neurais
Existem alguns problemas específicos dos quais os usuários em potencial devem estar cientes, particularmente em conexão com redes neurais de retropropagação e alguns outros tipos de redes.
Processo não é explicável. As redes neurais de retropropagação têm sido referidas como a caixa preta definitiva. Além de delinear a arquitetura geral e possivelmente usar alguns números aleatórios como propagação, tudo o que o usuário precisa fazer é fornecer a entrada, manter um treinamento e receber a saída. Alguns pacotes de software permitem que os usuários experimentem o progresso da rede ao longo do tempo. A própria aprendizagem nestes casos progride por conta própria.
A saída final é uma rede treinada (modelo) que é autônoma no sentido de que não fornece equações ou coeficientes que definem uma relação além de sua própria matemática interna. A própria rede é a equação final do relacionamento.
Mais lento para treinar. As redes de retropropagação tendem a ser mais lentas para treinar do que outros tipos de redes e, às vezes, exigem milhares de iterações. Isso porque a unidade central de processamento da máquina deve calcular a função de cada nó e conexão separadamente. Isso pode ser muito complicado e causar problemas em redes muito grandes que contêm uma grande quantidade de dados. No entanto, as máquinas contemporâneas funcionam rápido o suficiente para contornar a maioria desses problema.
Aplicações de Redes Neurais
As redes neurais são aproximadores universais. Eles funcionam melhor se o sistema tiver uma alta tolerância a erros.
As redes neurais são úteis:
Para entender associações ou descobrir elementos regulares dentro de um conjunto de padrões
Onde os dados são enormes, seja em volume ou na diversidade de parâmetros
As relações entre as variáveis são vagamente compreendidas
Onde as abordagens convencionais falham na descrição de relacionamentos
Considerações finais
A inteligência artificial é a tecnologia mais poderosa disponível para a humanidade atualmente, e o maior erro que qualquer um pode cometer é ignorá-la. E esse belo paradigma aqui apresentado sobre redes neurais artificiais profundas, inspirado na biologia é um dos desenvolvimentos tecnológicos mais elegantes de nossa era.