Na verdade, não coloque dados proprietários sigilosos ou pessoais sensíveis no bate-papo GPT.
A mesma história que aconteceu com a Samsung está acontecendo agora em empresas de todo o mundo, quer elas saibam ou não.
A Samsung permitiu que sua equipe usasse o ChatGPT para ajudá-los a escrever um código melhor. E, ao fazer isso, seus funcionários colocam código proprietário no ChatGPT e esse código agora está nas mãos da OpenAI. Além do problema do código fonte, a Samsung sofreu com o vazamento de transcrições de reuniões confidenciais.
É importante observar aqui que isso se aplica a qualquer coisa, não apenas ao código. Portanto, se você está escrevendo uma postagem de blog e a escreve no chat GPT, está fazendo a mesma coisa: está entregando seus dados para o OpenAI.
Então, isso significa que a OpenAI está intencionalmente roubando o IP de seus usuários?
Não.
Isso significa que os usuários do chat GPT e DALL-E não estão totalmente cientes de para que servem essas ferramentas e o que acontece quando você insere dados nelas.
Explicando
ChatGPT e DALL-E são projetos de pesquisa da OpenAI. Eles são usados para ver como iríamos interagir com esses modelos.
E quando você escreve conteúdo especificamente nesses serviços, a OpenAI retém o direito de examinar seu conteúdo, ver a saída que vem dele e, em seguida, aprender com ele para criar serviços melhores.
Isso é claramente declarado pela OpenAI: “Quando você usa nossos serviços ao consumidor não API, bate-papo GPT e DALL-E, podemos usar os dados que você nos fornece para melhorar nossos modelos“.
Quando você insere dados no ChatGPT, eles podem ser visualizados pela equipe da OpenAI. Portanto, se você estiver colocando informações da empresa, incluindo informações proprietárias/sigilosas no bate-papo GPT, estará vazando essas informações para terceiros.
O que fazer então
Há duas opções:
Você pode usar a API em vez do chat GPT. A API é um serviço comercial. Portanto, se você colocar dados lá, eles não serão analisados pelo OpenAI. Ainda assim, alguns cuidados profissionais devem ser observados.
Ou você desativa ativamente o rastreamento de dados por meio de um formulário (você o encontrará nos termos de serviço). Vide também o artigo de 25 de abril sobre ChatGPT e novas Opções de Privacidade e Proteção de Dados.
Resumindo, se você estiver trabalhando com dados sigilosos ou sensíveis da empresa ou dados proprietários ou propriedade intelectual de qualquer tipo, não use o ChatGPT.
Em vez disso, use uma das duas opções ou, melhor ainda, configure sua própria instância da API OpenAI em um espaço seguro como o Microsoft Azure.
Se você deseja aproveitar o poder da Inteligência Artificial, é um bom investimento envolver um profissional.
Fonte: Traduzido e adaptado de um post do Twitter de Morten Rand-Hendriksen
Outros cuidados
Considere também os clones do ChatGPT e outras versões de chatbots de modelos grandes de linguagem (LLMs) de empresas concorrentes à OpenAI. Verifique as informações do produto sobre confidencialidade dos dados fornecidos.
Considerações finais
Assim como muitos profissionais estou encantado ao mesmo tempo que assustado com as últimas novidades da Inteligência Artificial, em especial o ChatGPT que tem sido um sucesso no mundo todo desde seu lançamento e principalmente depois das atualizações e melhorias que foram implementadas, mas tudo isso ainda é muito novo e merece nosso cuidado e atenção.
Legislação e regulamentação sempre vêm depois de algum tempo da disponibilidade da tecnologia, então cabe a cada um usar de pensamento crítico e bom senso, além de observar os termos de uso e privacidade dos produtos. Use com moderação, rss.
A OpenAI, startup apoiada pela Microsoft, abalou o mundo quando lançou em 30 de novembro do ano passado o amplamente popular ChatGPT. Agora, na última atualização, a empresa lançou em 14 de março uma versão mais poderosa do modelo de inteligência artificial, o GPT-4, que sucede a versão anterior 3.5 usada no ChatGPT.
Em termos simples, o GPT-4 é multimodal, o que significa que pode gerar conteúdo a partir de prompts de imagem e texto. Na essência GPT-4 é uma máquina para criar texto. Mas é muito boa nisso, e ser muito boa em criar texto acaba sendo confundida como alguém capaz de “entender e raciocinar” sobre o mundo.
“GPT-4 pode resolver problemas difíceis com maior precisão, graças ao seu conhecimento geral mais amplo e habilidades de resolução de problemas”
O sistema pode passar no exame da ordem dos advogados, resolver quebra-cabeças lógicos e até dar uma receita para usar as sobras com base em uma foto da sua geladeira – mas seus criadores alertam que ele também pode espalhar fatos falsos, incorporar ideologias perigosas e até enganar as pessoas, fazendo tarefas em seu nome.
E assim:
se você der ao GPT-4 uma pergunta de um exame da ordem dos EUA, ele escreverá um ensaio que demonstra conhecimento jurídico;
se você lhe der uma molécula medicinal e pedir variações, parecerá aplicar conhecimentos bioquímicos;
e se você pedir para ele contar uma piada sobre um peixe, ele parecerá ter senso de humor – ou pelo menos uma boa memória para piadas ruins.
O GPT-4 vai além do ChatGPT, pois possui um banco de memória mais amplo e uma contagem máxima de tokens de 32.768, o que se traduz em cerca de 64.000 palavras ou 50 páginas de texto.
É o mesmo que ChatGPT?
Não exatamente. Se o ChatGPT é o carro, então e o GPT-4 é o motor: uma poderosa tecnologia geral que pode ser moldada para vários usos diferentes, inclusive para uso em outras ferramentas como o Bing.
Com relação a versão anterior 3.5:
ele pode responder melhor a perguntas de matemática,
é levado a dar respostas falsas com menos frequência,
pode pontuar bastante em testes padronizados
“O GPT-4 supera o ChatGPT ao pontuar em percentis aproximados mais altos entre os participantes do teste”, disse o comunicado da OpenAI. “Passamos 6 meses tornando o GPT-4 mais seguro e mais alinhado. O GPT-4 tem 82% menos probabilidade de responder a solicitações de conteúdo não permitido e 40% mais probabilidade de produzir respostas factuais do que o GPT-3.5 em nossas avaliações internas“, disse o especialista da OpenAI.
O GPT-4 tem um senso de ética mais firmemente incorporado ao sistema do que a versão antiga: o ChatGPT pegou seu mecanismo original, GPT-3.5, e adicionou filtros na parte superior para tentar impedir que ele desse respostas a perguntas maliciosas ou prejudiciais. Agora, esses filtros são incorporados diretamente ao GPT-4, o que significa que o sistema se recusará educadamente a executar tarefas como classificar raças por atratividade, contar piadas sexistas ou fornecer diretrizes para sintetizar sarin.
O OpenAI incorporou mais feedback humano, incluindo o enviado pelos próprios usuários do ChatGPT, a fim de melhorar e aprimorar o comportamento do GPT-4. A empresa colaborou com mais de 50 especialistas para feedback inicial em domínios, incluindo segurança e proteção de IA.
De acordo com a OpenAI, mesmo com as melhorias feitas, GPT-4 tem algumas limitações semelhantes às de suas versões anteriores e é “menos capaz que os humanos em muitos cenários do mundo real“. O GPT-4 ainda luta com preconceitos sociais, alucinações e alertas adversários. Respostas imprecisas são conhecidas como “alucinações”, que têm sido um desafio para muitos programas de IA.
Aplicações
Mas o GPT-4 pode ser usado para alimentar mais do que chatbots, por exemplo:
Duolingo construiu uma versão dele em seu aplicativo de aprendizado de idiomas que pode explicar onde os alunos erraram, em vez de simplesmente dizer a eles a coisa certa a dizer;
Stripe está usando a ferramenta para monitorar sua sala de bate-papo em busca de golpistas;
Be My Eyes está usando um novo recurso, entrada de imagem, para construir uma ferramenta que pode descrever o mundo para uma pessoa cega e responder a perguntas de acompanhamento sobre isso.
O GPT-4 está incorporado à versão paga (US$ 20,00 por mês) ChatGPT Plus. Também está e disponível comercialmente para desenvolvedores de aplicações (Apps) via APIs (interfaces de programas de aplicação) pelo custo de US$ 0.0200 por 1000 tokens.
O GPT-4 (Generative Pré-trained Transformer – versão 4), uma ferramenta de Processamento de Linguagem natural (NLP) assim como os anteriores, incluindo a versão 3.5 utilizada no ChatGPT, foi construído sobre uma classe de tecnologias chamada Modelos de Linguagem Grandes (LLMs).
Um LLM é uma arquitetura de modelo de rede neural baseada em um componente chamado transformador. As tecnologias de transformadores foram originalmente desenvolvidas pelo Google em 2017 e têm sido objeto de intensa pesquisa e desenvolvimento desde então. Os LLMs trabalham revisando enormes volumes de texto, identificando as maneiras como as palavras se relacionam umas com as outras e construindo um modelo que lhes permite reproduzir textos semelhantes.
É importante ressaltar que, quando fazem uma pergunta, eles não estão “procurando” uma resposta. Em vez disso, eles estão produzindo uma sequência de palavras ao prever qual palavra seguiria melhor a anterior, levando em consideração o contexto mais amplo das palavras anteriores a ela. Em essência, eles estão fornecendo uma resposta de “senso comum” a uma pergunta. Isso também é conhecido como IA Generativa.
Embora os LLMs mais poderosos tenham mostrado sua capacidade de produzir respostas amplamente precisas em uma gama surpreendentemente ampla de tarefas, a precisão factual dessas respostas não pode ser garantida.
Uma Rede Neural Artificial usada em Aprendizagem Profunda (Deep Learning) é composta por um grande número de “neurônios”, que são fórmulas matemáticas simples que passam os resultados de seus cálculos para um ou mais neurônios do sistema. As conexões entre esses neurônios recebem “pesos” que definem a força do sinal entre os neurônios. Esses pesos também são chamados de parâmetros.
Um dos modelos por trás do ChatGPT (gpt-3.5-turbo) tem 175 bilhões de parâmetros. O número de parâmetros do GPT-4 não foi informado.
A dimensão destes modelos tem consequências importantes para o seu desempenho, mas também o custo e a complexidade da sua utilização. Por um lado, modelos maiores tendem a produzir textos mais semelhantes aos humanos e são capazes de lidar com tópicos para os quais podem não ter sido especificamente preparados. Por outro lado, construir o modelo e usar o modelo é extremamente intensivo em termos computacionais.
Não é por acaso que os modelos maiores e de melhor desempenho vieram de empresas gigantes de tecnologia ou startups financiadas por essas empresas: o desenvolvimento desses modelos provavelmente custa bilhões de dólares em computação em nuvem.
O GPT-4 utiliza-se também de uma Aprendizagem por Reforço de Feedback Humano (RLHF), uma técnica usada para alinhar LLMs com intenções humanas, baseada no treinamento de um modelo de recompensa para imitar o feedback e as intenções humanas. Este treinamento usa pares de geração de prompts de um conjunto de dados predefinidos, que leva um prompt e sua conclusão correspondente para gerar uma única “recompensa” ou uma pontuação de quão boa foi a conclusão. Esse modelo de recompensa é então alimentado em um pipeline com um LLM pré-treinado ou ajustado para melhorar constantemente os resultados do LLM, com base nas intenções humanas.
Resumindo
O GPT-4 é uma nova versão do modelo de inteligência artificial criado pela OpenAI, que sucede o ChatGPT. O GPT-4 é multimodal, o que significa que pode gerar conteúdo a partir de prompts de imagem e texto, e possui um banco de memória mais amplo e uma contagem máxima de tokens de 32.768 (aproximadamente 50 páginas de texto). Ele é capaz de resolver problemas difíceis com maior precisão, graças ao seu conhecimento geral mais amplo e habilidades de resolução de problemas. Em comparação com o ChatGPT, o GPT-4 também possui um senso de ética mais firmemente incorporado ao sistema, e filtros incorporados para evitar respostas maliciosas ou prejudiciais. O GPT-4 pode ser utilizado para alimentar diferentes ferramentas, como chatbots, aplicativos de aprendizado de idiomas, monitoramento de salas de bate-papo e tecnologia assistiva para pessoas cegas. Ele está incorporado à versão paga do ChatGPT Plus e disponível comercialmente para desenvolvedores via APIs.
Se gostou deste conteúdo, por favor, compartilhe este post.
Recentemente foi realizado o Same Control Summit 2023 da GoNew conduzido por Anderson Godz, evento em que tive o prazer de palestrar sobre Tendências Tecnológicas junto com nosso caro amigo Flávio Pripas. Um retorno positivo de amigos sobre o conteúdo da palestra me incentivou a compartilhá-lo neste post, pois diz respeito à tecnologias que estão contribuindo com a transformação de organizações no mundo todo.
Sabemos bem que a transformação digital dos negócios começa pela cultura, com a mudança de modelos mentais de líderes e gestores, passando pela estratégia, seguindo por modelos de negócio, processos e outros elementos organizacionais que visam mudanças significativas e no aperfeiçoamento de produtos e serviços para uma melhor experiência de seus clientes. E só depois vem a tecnologia para a implementação de tais iniciativas.
Ao levantar relatórios de tendências de tecnologia fornecidos por diversas consultorias e artigos da Harvard Business Review entre outros materiais, usando da minha experiência em negócios e tecnologia, escolhi estas 10 tecnologias para usar em minha palestra, como segue, dando uma ênfase na Inteligência Artificial (IA) a qual sou pesquisador pelo Núcleo Decide da FEA-USP/CNPq e professor da disciplina Fundamentos de IA pela ESPM.
Inteligência Artificial
Deixando de lado muitas das definições conhecidas sobre Inteligência Artificial (IA), podemos dizer resumidamente que se trata de sistemas de computador capazes de executar tarefas que normalmente requerem inteligência humana.
IA Generativa
A IA generativa é uma forma de IA que aprende uma representação digital de artefatos a partir de dados de amostra e a utiliza para gerar artefatos novos, originais e realistas que mantêm uma semelhança com os dados de treinamento, mas não os repetem: DALL-E 2, Midjourney, Stable Diffusion e Imagen se destacaram na área de artes em 2022. Ao final do ano passado o lançamento do incrível ChatGPT (da OpenAI) conseguiu um milhão de usuários em 5 dias, pela facilidade de uso e habilidade desta aplicação Web para responder questões e até mesmo código em linguagem de computador.
Resumidamente, como funciona? O ChatGPT, por exemplo, é uma aplicação que utiliza um modelo de linguagem grande (Large Language Model – LLM) que inclui técnicas de aprendizado profundo (Deep Learning) para gerar um texto fácil de ler por um ser humano. É baseado na arquitetura GPT (Generative Pré-trained Transformer), que usa uma rede neural transformadora para processar e gerar texto. O modelo é pré-treinado em um conjunto massivo de texto, de livros, artigos, e websites, assim ele pode identificar padrões e estrutura da linguagem natural. Quando feita uma pergunta ou fornecido um texto como ponto inicial (Prompt), o modelo usa seu conhecimento adquirido no treinamento para gerar texto que continua o que foi dado como entrada de forma coerente e natural.
Isto levou a mídia dizer que 2023 será o ano da IA, por ter atingido pessoas e organizações do mundo todo, com um deslumbramento entusiástico, mesmo sabendo-se de algumas limitações, questões éticas, inconsistências e até mesmo erros que tecnologias em maturação podem gerar inicialmente.
IA Aplicada
A IA Aplicada é usada para resolver problemas de classificação, previsão e controle que automatizam, adicionam ou aumentam casos de uso de negócios do mundo real.
Longe de se pensar em uma IA genérica, ou até mesmo Singularidade (tempo em que a IA poderá eventualmente superar a capacidade humana), a IA aplicada é mais focada e restrita a problemas e necessidades organizacionais específicos, e atualmente está presente em praticamente todos os setores da economia e árias funcionais das organizações (operações, marketing, recursos humanos, finanças e outros). Em alguns casos a IA aplicada trata de automação de máquinas (robótica), sistemas e processos operacionais, mas na maioria dos casos atuais ela atua junto aos profissionais humanos, gerando informações para tomada de decisão melhores no dia-a-dia.
A IA aplicada envolve máquinas que exibem inteligência, abrangendo vários campos interconectados da tecnologia:
Aprendizado de Máquina (ML): subcampo da IA que usa métodos estatísticos e algoritmos para aprender com os dados;
Visão computacional: Subcampo de ML usando dados visuais, como imagens, vídeos e sinais 3-D, extraindo informações complexas e obtendo interpretações ricas;
Processamento de Linguagem Natural (NLP): Subcampo de ML que envolve processamento, geração e compreensão de dados baseados em linguagem, como texto escrito e palavra falada;
Aprendizado por reforço profundo: combinação de aprendizado profundo e aprendizado por reforço, no qual um agente toma decisões em um ambiente incerto usando algoritmos complexos inspirados em redes neurais cerebrais;
Grafo de conhecimento: Coleção de pontos de dados estruturados em uma rede para mostrar relacionamentos complexos entre si.
Muito do que se faz na IA aplicada é produzido via um subcampo da IA, conhecido como Aprendizado de Máquina ou Machine Learning que na sua essência funciona resumidamente da seguinte forma:
Muitos DADOS >> ALGORITMO >> MODELO (treinamento)
Novo Dado >> MODELO >> Resultado (execução)
Ou seja, a partir de muitos dados tratados apropriadamente e de um algoritmo pré-definido e configurado é feito o treinamento de aprendizagem da máquina, que gera um modelo que será posteriormente usado nas aplicações com novos dados para produzir os resultados desejados.
Empresas de grande porte, geralmente possuem infraestrutura tecnológica e profissionais qualificados (cientistas de dados, engenheiros e desenvolvedores) para tratar seus próprios dados e gerar seus próprios modelos, localmente ou via serviços cognitivos disponíveis em plataformas de desenvolvimento em nuvem.
Empresas de menor porte, já usufruem da IA, quando seus vendedores acessam aplicativos como Waze ou Google Maps para visitarem seus clientes, ou quando usam outros aplicativos ou sistemas que se utilizam de algoritmos e modelos prontos de inteligência artificial de forma “invisível”.
Apenas para exemplificar segue abaixo alguns casos de uso que utilizam as tecnologias de IA apresentadas acima.
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 66 bilhões, enquanto que em 2021 foram investido US$ 165 bilhões em IA aplicada.
IA Descentralizada
IA descentralizada é a tendência de expandir o acesso a tecnologias avançadas de IA que estavam tradicionalmente disponíveis apenas para empresas com acesso a conjuntos de dados maciços, centralizados e proprietários.
Segundo a McKinsey, para o CIO ou CTO, o foco precisará estar em como retrabalhar suas arquiteturas para incorporar facilmente interfaces de programação de aplicativos (APIs), por exemplo, de OpenAI, Stability.AI – para incorporar “inteligência” em uma faixa mais ampla de aplicativos e processos.
IA Adaptável
A IA adaptável permite a mudança de comportamento do modelo após a implantação usando feedback em tempo real.
Segundo o Gartner, ela é usada para treinar continuamente os modelos e aprender em ambientes de desenvolvimento e em tempo de execução, com base em novos dados e metas ajustadas.
Celular 5G/6G, redes sem fio de baixa potência, satélites de baixa órbita terrestre e outras tecnologias suportam uma série de soluções digitais que podem impulsionar o crescimento e a produtividade em todos os setores.
Isso ajuda as redes a:
aumentar a cobertura geográfica,
reduzir a latência,
reduzir o consumo de energia,
aumentar a taxa de transferência de dados, e
aumentar a eficiência do espectro.
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 212 bilhões, enquanto que em 2021 foram investido US$ 166 bilhões em Conectividade Avançada.
Internet das Coisas (IoT)
Internet das Coisas (IoT) em 2023, com muitos novos dispositivos tendo a capacidade de se comunicar e operar uns com os outros sem a necessidade de intervenção humana.
Isso significa que os ambientes doméstico e de trabalho em um futuro próximo estarão repletos de dispositivos interconectados digitalmente entre si. Com as velocidades alucinantes e a latência aprimorada das redes 5G, mais e mais dispositivos e serviços serão conectados uns aos outros.
Além de alimentar com dados sistemas e aplicações IA/ML na Indústria 4.0 (IIoT), é muito usada na computação de borda e em dispositivos vestíveis (wearables).
As tecnologias de mobilidade visam melhorar a eficiência e sustentabilidade do transporte terrestre e aéreo de pessoas e bens.
A mobilidade é definida por várias arenas em 4 dimensões disruptivas de mobilidade (ACES) e tecnologias adjacentes que permitem um transporte mais sustentável e eficiente.
ACES:
tecnologias Autônomas
tecnologias de veículos Conectados
tecnologias de Eletrificação
Soluções inteligentes de mobilidade
Tecnologias adjacentes:
tecnologias leves (exemplo: fibra de carbono)
descarbonização da cadeia de valor
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 139 bilhões, enquanto que em 2021 foram investido US$ 236 bilhões em Mobilidade.
Computação em Nuvem e Borda
A computação em nuvem (cloud) e de borda (edge) envolve a distribuição de cargas de trabalho de computação em datacenters remotos e nós locais de rede para melhorar a soberania, autonomia, produtividade de recursos, latência e segurança dos dados.
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 88 bilhões, enquanto que em 2021 foram investido US$ 136 bilhões em Computação em Nuvem e Borda.
Web3
A Web3 inclui plataformas e aplicativos que permitem mudanças em direção a uma internet futura e descentralizada com padrões e protocolos abertos, protegendo os direitos de propriedade digital, fornecendo aos usuários maior propriedade de seus dados e catalisando novos modelos de negócios.
Ela é baseada em um conjunto de protocolos mais descentralizados e governados pela comunidade que pode representar uma mudança de paradigma de autoridade e propriedade para indivíduos com implicações potencialmente de longo alcance.
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 20 bilhões, enquanto que em 2021 foram investido US$ 110 bilhões em Web3.
Realidades Imersivas
As tecnologias de realidade imersiva usam tecnologias de detecção e computação espacial para ajudar os usuários a “ver o mundo de maneira diferente” por meio de realidade mista ou aumentada ou “ver um mundo diferente” por meio de realidade virtual.
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 10 bilhões, enquanto que em 2021 foram investido US$ 30 bilhões em Realidades Imersivas.
Energia Limpa
As soluções de energia limpa ajudam a atingir emissões líquidas zero de gases de efeito estufa em toda a cadeia de valor de energia, desde a geração de energia até o armazenamento e distribuição de energia.
Entre os campos de atuação de energia limpa temos:
Sistemas de armazenamento estacionários
Rede Inteligente (Smart Grid)
Infraestrutura de carga (doméstica ou distribuída em postos de abastecimento de veículos)
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 258 bilhões, enquanto que em 2021 foram investido US$ 257 bilhões em Energia Limpa.
Bioengenharia
A convergência de tecnologias biológicas e de informação melhora a saúde e o desempenho humano, transforma as cadeias de valor alimentar e cria produtos e serviços inovadores.
É definida por 4 arenas: biomoléculas, biossistemas, interfaces de biomáquinas e biocomputação; nos últimos anos, biomoléculas e biossistemas experimentaram desenvolvimentos generalizados.
Segundo a McKinsey, em 2018 foram investidos pelas organizações US$ 37 bilhões, enquanto que em 2021 foram investido US$ 72 bilhões em Energia Limpa.
Tecnologias Combinadas
Segundo a Harvard Business Review, para os executivos em 2023, o desafio não é apenas apostar em tendências individuais ou potencializar o talento da engenharia de software, mas pensar em como todas essas tecnologias podem criar novas possibilidades quando usadas em conjunto ou de forma convergente.
Exemplos:
Carro Elétrico Autônomo – computação em nuvem e em borda, IA e ML aplicadas que permitem a tomada de decisão autônoma e a lógica de condução; energia limpa e consumo sustentável que criam o núcleo da eletrificação de veículos por meio de novos compostos leves e avanços na capacidade da bateria, …
Vacinas de MRNA – uma combinação de tecnologias de bioengenharia, como genômica, IA aplicada e a industrialização de ML – aplicadas a outras doenças.
… muitas empresas combinam tecnologias diversas em seus projetos
Considerações finais
O conhecimento sobre Novas Tecnologias não é mais um tema apenas para especialistas de tecnologia, cabe a líderes, gestores, conselheiros e consultores acompanharem as tendências, inovações tecnológicas e principalmente os casos de uso de tais tecnologias em suas áreas funcionais e em empresas de seus setores de atuação.