A Inteligência Artificial remonta mais de décadas de existência e desenvolvimento no mundo acadêmico e corporativo, porém foi em 2022 que ganhou fama no varejo com a criação do Chat GPT, uma Inteligência Artificial Generativa Pré-Treinada, que busca responder de forma humanizada a questões domésticas e corriqueiras.
Imagem e conceito extraídos do próprio GPT:
Modelos utilizados em GPT são chamados de LLMs, Large Language Models, ou Modelos de Linguagem Grandes em tradução livre, e se deve ao fato de serem treinados em grandes quantidades de dados textuais e serem capazes de gerar texto quase humano de alta qualidade.
GPT, Generative Pre-trained Transformer, seria um tipo de modelo de linguagem usado em inteligência artificial que foi treinado em uma enorme quantidade de texto para gerar texto novo.
Generative: Significa que o modelo pode gerar novos conteúdos, como textos, códigos, scripts, músicas, etc. Ele não se limita a repetir informações que já viu, mas é capaz de criar algo original, ou quase, com base no que aprendeu.
Pre-trained: Indica que o modelo foi treinado com uma enorme quantidade de dados antes de ser utilizado para tarefas específicas. Esse pré-treinamento permite que o modelo tenha uma compreensão profunda do uso da linguagem humana e seja capaz de realizar diversas tarefas relacionadas à linguagem.
Transformer: Refere-se à arquitetura neural do modelo, que é especialmente eficaz para lidar com sequências de dados, como texto. Essa arquitetura permite que o modelo capture relações complexas entre as palavras e gere textos mais coerentes e contextualmente relevantes.
Em modelos de linguagem como o GPT os dados são processados utilizando uma técnica conhecida como Aprendizado Profundo (Deep Learning), que se baseia em redes neurais artificiais com múltiplas camadas.
Para entender melhor, vamos desmembrar o processo:
- Coleta e Preparação dos Dados: Com atenção ao item de Tokenização, que é o grande diferencial nesta nova tecnologia.
- Coleta: Enormes quantidades de texto são coletadas da internet, livros, artigos e outras fontes.
- Limpeza: Os dados são limpos e pré-processados para remover ruídos, inconsistências e formatações desnecessárias.
- Tokenização: O texto é dividido em unidades menores chamadas tokens (palavras, partes de palavras ou caracteres), que são a entrada básica para a rede neural.
- Treinamento da Rede Neural: A matemática e estatística fazendo suas mágicas com bilhões de tokens de entrada e suas possíveis saídas com pesos e previsões.
- Arquitetura Transformer: Os GPTs utilizam a arquitetura Transformer, que é especialmente eficaz para lidar com sequências de dados como o texto.
- Aprendizado Supervisionado: A rede neural é treinada em um conjunto de dados rotulados, onde a entrada é uma sequência de tokens e a saída é a próxima palavra provável na sequência.
- Backpropagation: Através de um processo iterativo chamado backpropagation, a rede ajusta seus pesos internos para minimizar a diferença entre as previsões e as respostas corretas.
- Geração de Texto: Veja que aqui a estatística é essencial (próxima palavra mais provável, e não a criação de um texto pensado)
- Prompt: O usuário fornece um prompt ou contexto inicial.
- Predição: A rede neural utiliza o prompt para prever a próxima palavra mais provável, adicionando-a à sequência.
- Iteração: Esse processo se repete várias vezes, gerando uma sequência de palavras que formam o texto final.
Conceitos postos, vamos ao mundo real dos investimentos.
Muito se espera em ganho de produtividade e mudança no uso da tecnologia com a implementação de Inteligência Artificial, porém poucos sabem como as empresas se beneficiarão, de fato, com o uso da mesma, e nem como as empresas fornecedoras da tecnologia se rentabilizarão.
Fato que historicamente vimos acontecer em diversos momento pretéritos, como na criação e explosão da internet, década de 90, onde milhares de empresas e soluções foram criadas, e a maior parte delas, incluindo as mais disruptoras, ficaram pelo caminho.
Não há dúvidas sobre o uso massivo e benéfico da inteligência artificial como um todo, porém especificamente o GPT para uso pessoal, ainda tem um custo altíssimo para um resultado financeiro duvidoso, além de ainda estar em discussão se seria necessário estudar todos os textos e conteúdos mundiais para respostas corriqueiras e específicas para uma região, país ou tema. A própria empresa Meta usa um LLM dezenas de vezes menor que os concorrentes, logo um custo computacional bem menor, e obtém resultados semelhantes, com razoável assertividade, para grande parte das aplicações de cunho pessoal.
Me parece que num curto prazo estão fazendo apostas altas demais para algumas dessas empresas, porém no longo prazo as apostas são pequenas visto o potencial para os próximos 10 a 15 anos.
Se você pensar em aproveitar o “boom” da IA olhe além dos aplicativos de GPT.
No segmento de tecnologia de médio e longo prazos veja as empresas que ofertarão soluções reais para seus clientes, seja em ganho de produtividade como tem feito a Microsoft e Adobe, de processo como a Zebra, ou com solução puramente de IA como tem feito a Palantir, sempre acompanhada de perto aqui no clube pelo Cardoso.
No curto prazo ainda há muita demanda pela construção de novos datacenters que consumirão equipamentos como servidores, chips e de conectividade, na parte lógica, e serviços gerais realizados por empresas como Brookfield Asset Management, que recentemente fez um acordo energético de U$10 bilhões com a Microsoft em um projeto conjunto com a gestora BlackRock.
Então se você quer investir em IA olhe de forma mais ampla, inclusive em empresas da economia real, que tendem a se beneficiar no curto prazo fornecendo serviços e produtos, e no longo prazo com ganho de produtividade e inovação de soluções.
O assunto é extenso, e sempre que possível compartilharei minhas visões e ideias de empresas e mercado.
Excelente artigo, Edgar! Continue compartilhando tua visão com o clube. Obrigado!
Muito bom Edgar, obrigado
Excelente artigo. Um dos segmentos de maior potencial hoje, se não o maior! Estou sempre de olho rs…