Como funciona o ChatGPT?

Por Leandro Lopes
Como funciona o ChatGPT?
Como funciona o ChatGPT?

Mergulhamos profundamente no funcionamento interno do popular chatbot de IA, ChatGPT. Se você quiser saber como sua mágica de IA generativa acontece, continue lendo.

Google, Wolfram Alpha e ChatGPT interagem com os usuários por meio de um campo de entrada de texto de uma única linha e fornecem resultados de texto. O Google retorna resultados de pesquisa, uma lista de páginas da web e artigos que (espero) fornecerão informações relacionadas às consultas de pesquisa. O Wolfram Alpha geralmente fornece respostas matemáticas e relacionadas à análise de dados.

O ChatGPT, por outro lado, fornece uma resposta com base no contexto e na intenção por trás da pergunta do usuário. Você não pode, por exemplo, pedir ao Google para escrever uma história ou pedir ao Wolfram Alpha para escrever um módulo de código, mas o ChatGPT pode fazer esse tipo de coisa.

Fundamentalmente, o poder do Google é a capacidade de fazer enormes pesquisas em bancos de dados e fornecer uma série de correspondências. O poder do Wolfram Alpha é a capacidade de analisar questões relacionadas a dados e realizar cálculos com base nessas questões. O poder do ChatGPT é a capacidade de analisar consultas e produzir respostas e resultados completos com base na maioria das informações baseadas em texto acessíveis digitalmente do mundo – pelo menos informações que existiam no momento do treinamento antes de 2021.

Neste artigo, veremos como o ChatGPT pode produzir essas respostas completas. Começaremos examinando as principais fases da operação do ChatGPT e, em seguida, abordaremos alguns dos principais componentes da arquitetura de IA que fazem tudo funcionar.

Além das fontes citadas neste artigo (muitos dos quais são os trabalhos de pesquisa originais por trás de cada uma das tecnologias), usei o próprio ChatGPT para me ajudar a criar este backgrounder. Eu fiz muitas perguntas. Algumas respostas são parafraseadas dentro do contexto geral desta discussão.

As duas fases principais da operação do ChatGPT

Vamos usar o Google como uma analogia novamente. Quando você pede ao Google para procurar algo, provavelmente sabe que não – no momento em que você pergunta – sai e vasculha toda a web em busca de respostas. Em vez disso, o Google pesquisa em seu banco de dados as páginas que correspondem a essa solicitação. O Google efetivamente tem duas fases principais: a fase de busca e coleta de dados e a fase de interação/pesquisa do usuário.

Grosso modo, o ChatGPT funciona da mesma maneira. A fase de coleta de dados é chamada de pré-treinamento, enquanto a fase de responsividade do usuário é chamada de inferência. A mágica por trás da IA ​​generativa e a razão pela qual ela explodiu repentinamente é que a maneira como o pré-treinamento funciona de repente provou ser extremamente escalável.

Pré-treinamento da IA

De um modo geral (porque entrar em detalhes levaria muito tempo), os AIs pré-treinam usando duas abordagens principais: supervisionado e não supervisionado. Para a maioria dos projetos de IA até a safra atual de sistemas generativos de IA, como o ChatGPT, foi usada a abordagem supervisionada.

O pré-treinamento supervisionado é um processo em que um modelo é treinado em um conjunto de dados rotulado, onde cada entrada é associada a uma saída correspondente.

Por exemplo, uma IA pode ser treinada em um conjunto de dados de conversas de atendimento ao cliente, onde as perguntas e reclamações do usuário são rotuladas com as respostas apropriadas do representante de atendimento ao cliente. Para treinar a IA, perguntas como “Como posso redefinir minha senha?” seria fornecido como entrada do usuário e respostas como “Você pode redefinir sua senha visitando a página de configurações da conta em nosso site e seguindo as instruções”. seria fornecido como saída.

Em uma abordagem de treinamento supervisionado , o modelo geral é treinado para aprender uma função de mapeamento que pode mapear entradas para saídas com precisão. Esse processo é frequentemente usado em tarefas de aprendizado supervisionado, como classificação, regressão e rotulagem de sequência.

Como você pode imaginar, há limites para como isso pode escalar. Os treinadores humanos teriam que ir muito longe para antecipar todas as entradas e saídas. O treinamento pode levar muito tempo e ser limitado em especialização no assunto.

Mas, como descobrimos, o ChatGPT tem muito poucos limites em termos de experiência no assunto. Você pode pedir a ele para escrever um currículo para o personagem Chief Miles O’Brien de Star Trek, explicar a física quântica, escrever um código , escrever uma pequena ficção e comparar os estilos de governo dos ex-presidentes dos Estados Unidos Estados.

Seria impossível prever todas as perguntas que seriam feitas, então realmente não há como o ChatGPT ter sido treinado com um modelo supervisionado. Em vez disso, o ChatGPT usa pré-treinamento não supervisionado – e isso muda o jogo.

O pré-treinamento não supervisionado é o processo pelo qual um modelo é treinado em dados em que nenhuma saída específica está associada a cada entrada. Em vez disso, o modelo é treinado para aprender a estrutura e os padrões subjacentes nos dados de entrada sem nenhuma tarefa específica em mente.

Esse processo é frequentemente usado em tarefas de aprendizado não supervisionadas, como agrupamento, detecção de anomalias e redução de dimensionalidade. No contexto da modelagem de linguagem, o pré-treinamento não supervisionado pode ser usado para treinar um modelo para entender a sintaxe e a semântica da linguagem natural, de modo que possa gerar um texto coerente e significativo em um contexto de conversação.

É aqui que o conhecimento aparentemente ilimitado do ChatGPT se torna possível. Como os desenvolvedores não precisam saber as saídas que vêm das entradas, tudo o que precisam fazer é despejar mais e mais informações no mecanismo de pré-treinamento do ChatGPT, que é chamado de modelagem de linguagem baseada em transformador.

Sugestão de Leitura: Por que SEO demora tanto?

Arquitetura do transformador

A arquitetura do transformador é um tipo de rede neural usada para processar dados de linguagem natural. Uma rede neural simula a maneira como um cérebro humano funciona, processando informações por meio de camadas de nós interconectados. Pense em uma rede neural como um time de hóquei: cada jogador tem uma função, mas eles passam o disco para frente e para trás entre jogadores com funções específicas, todos trabalhando juntos para marcar o gol.

A arquitetura do transformador processa sequências de palavras usando ” autoatenção ” para pesar a importância de diferentes palavras em uma sequência ao fazer previsões. A auto-atenção é semelhante à maneira como um leitor pode olhar para uma frase ou parágrafo anterior em busca do contexto necessário para entender uma nova palavra em um livro. O transformador olha para todas as palavras em uma sequência para entender o contexto e as relações entre as palavras.

O transformador é composto de várias camadas , cada uma com várias subcamadas. As duas subcamadas principais são a camada de auto-atenção e a camada de feedforward. A camada de auto-atenção calcula a importância de cada palavra na sequência, enquanto a camada de feedforward aplica transformações não lineares aos dados de entrada. Essas camadas ajudam o transformador a aprender e entender as relações entre as palavras em uma sequência.

Durante o treinamento, o transformador recebe dados de entrada, como uma frase, e é solicitado a fazer uma previsão com base nessa entrada. O modelo é atualizado com base em quão bem sua previsão corresponde à saída real. Por meio desse processo, o transformador aprende a entender o contexto e as relações entre as palavras em uma sequência, tornando-o uma ferramenta poderosa para tarefas de processamento de linguagem natural, como tradução de linguagem e geração de texto.

Vamos discutir os dados que são alimentados no ChatGPT primeiro e, em seguida, dar uma olhada na fase de interação do usuário do ChatGPT e da linguagem natural.

Conjuntos de dados de treinamento do ChatGPT

O conjunto de dados usado para treinar o ChatGPT é enorme. O ChatGPT é baseado na arquitetura GPT-3 (Generative Pre-trained Transformer 3). Agora, a abreviação GPT faz sentido, não é? É generativo, o que significa que gera resultados, é pré-treinado, o que significa que se baseia em todos os dados que ingere e usa a arquitetura transformadora que avalia as entradas de texto para entender o contexto.

Sugestão de Leitura: GPT: O significado das siglas

O GPT-3 foi treinado em um conjunto de dados chamado WebText2 , uma biblioteca de mais de 45 terabytes de dados de texto. Quando você pode comprar um disco rígido de 16 terabytes por menos de US$ 300 , um corpus de 45 terabytes pode não parecer tão grande. Mas o texto ocupa muito menos espaço de armazenamento do que fotos ou vídeos.

Essa enorme quantidade de dados permitiu que o ChatGPT aprendesse padrões e relacionamentos entre palavras e frases em linguagem natural em uma escala sem precedentes, o que é uma das razões pelas quais é tão eficaz em gerar respostas coerentes e contextualmente relevantes às consultas do usuário.

Embora o ChatGPT seja baseado na arquitetura GPT-3, ele foi ajustado em um conjunto de dados diferente e otimizado para casos de uso de conversação. Isso permite fornecer uma experiência mais personalizada e envolvente para os usuários que interagem com ele por meio de uma interface de bate-papo.

Por exemplo, a OpenAI (desenvolvedores do ChatGPT) lançou um conjunto de dados chamado Persona-Chat , projetado especificamente para treinar modelos de conversação de IA como o ChatGPT. Este conjunto de dados consiste em mais de 160.000 diálogos entre dois participantes humanos, com cada participante atribuído a uma persona única que descreve seus antecedentes, interesses e personalidade. Isso permite que o ChatGPT aprenda a gerar respostas personalizadas e relevantes para o contexto específico da conversa.

Além do Persona-Chat, existem muitos outros conjuntos de dados de conversação que foram usados ​​para ajustar o ChatGPT. Aqui estão alguns exemplos:

Cornell Movie Dialogs Corpus : um conjunto de dados contendo conversas entre personagens em roteiros de filmes. Inclui mais de 200.000 trocas de conversa entre mais de 10.000 pares de personagens de filmes, cobrindo uma ampla gama de tópicos e gêneros.

Ubuntu Dialogue Corpus : uma coleção de diálogos entre usuários que buscam suporte técnico e a equipe de suporte da comunidade Ubuntu. Ele contém mais de 1 milhão de diálogos, tornando-o um dos maiores conjuntos de dados publicamente disponíveis para pesquisa em sistemas de diálogo.

DailyDialog : uma coleção de diálogos entre humanos em uma variedade de tópicos, variando de conversas da vida cotidiana a discussões sobre questões sociais. Cada diálogo no conjunto de dados consiste em vários turnos e é rotulado com um conjunto de informações de emoção, sentimento e tópico.

Além desses conjuntos de dados, o ChatGPT foi treinado em uma grande quantidade de dados não estruturados encontrados na Internet, incluindo sites, livros e outras fontes de texto. Isso permitiu que o ChatGPT aprendesse sobre a estrutura e os padrões da linguagem em um sentido mais geral, que poderia ser ajustado para aplicativos específicos, como gerenciamento de diálogos ou análise de sentimentos.

O ChatGPT é um modelo distinto que foi treinado usando uma abordagem semelhante à série GPT, mas com algumas diferenças na arquitetura e nos dados de treinamento. O ChatGPT tem 1,5 bilhão de parâmetros, o que é menor do que os 175 bilhões de parâmetros do GPT-3.

No geral, os dados de treinamento usados ​​para ajustar o ChatGPT são tipicamente de natureza conversacional e especificamente selecionados para incluir diálogos entre humanos, o que permite ao ChatGPT aprender como gerar respostas naturais e envolventes em um formato de conversação.

Pense no treinamento não supervisionado do ChatGPT desta maneira: ele foi alimentado com muitos dados e deixado por conta própria para encontrar padrões e dar sentido a tudo. Este é o mecanismo que permitiu que os novos sistemas de IA generativos aumentassem tão rapidamente.

Enquanto o trabalho pesado para a IA generativa do ChatGPT está sendo feito pelo pré-treinamento, ele também deve ser capaz de entender as perguntas e construir respostas a partir de todos esses dados. Isso é feito pela fase de inferência, que consiste no processamento de linguagem natural e no gerenciamento de diálogos.

E quanto ao envolvimento humano no pré-treinamento?

Apesar da escalabilidade inerente do pré-treinamento não supervisionado, há alguma evidência de que a assistência humana pode ter estado envolvida na preparação do ChatGPT para uso público.

A grande revelação foi em um artigo na revista TIME que discutiu o uso de “rotuladores de dados” humanos que ganham entre US$ 1,32 e US$ 2/hora no Quênia. De acordo com o relatório da TIME, era responsabilidade desses trabalhadores escanear o conteúdo horripilante e sexualmente explícito da Internet para sinalizá-lo para o treinamento do ChatGPT.

Outro artigo , publicado no Martechpost, um boletim informativo de IA, afirma que o modelo de linguagem grande foi treinado usando um processo chamado Aprendizagem por Reforço de Feedback Humano (RLHF). De acordo com o artigo, “o processo de treinamento envolveu um modelo inicial ajustado usando aprendizado supervisionado, com treinadores humanos desempenhando o papel de usuário e assistente de IA”.

Existem algumas sutilezas aqui, quando se trata do significado da palavra “treinamento”. De acordo com o próprio ChatGPT, “OpenAI não usou aprendizado por reforço com feedback humano para me treinar. Em vez disso, fui pré-treinado usando uma combinação de técnicas de aprendizado não supervisionado e supervisionado, como modelagem de linguagem, codificação automática e previsão de sequência. Meu o treinamento envolveu o processamento de grandes quantidades de dados de texto da internet, o que me permitiu aprender padrões e relações entre palavras e frases.”

A IA continuou: “No entanto, uma vez que fui pré-treinado, pesquisadores e desenvolvedores podem usar o aprendizado por reforço com feedback humano para me ajustar para tarefas ou domínios específicos, como responder a perguntas ou gerar texto. Nesses casos, os humanos podem fornecer feedback na forma de recompensas ou penalidades, que podem ser usadas para atualizar meus parâmetros e melhorar meu desempenho em tarefas semelhantes no futuro.”

Isso parece se encaixar nos relatórios Marktechpost e TIME, pois o pré-treinamento inicial não foi supervisionado, permitindo que uma quantidade enorme de dados fosse alimentada no sistema. Mas, ao construir as respostas de diálogo que se comunicam com os usuários (mais sobre isso abaixo), os mecanismos de resposta foram aparentemente treinados nos tipos de respostas e treinados para filtrar material inapropriado – e esse treinamento parece ter sido assistido por humanos.

Processamento de linguagem natural

O processamento de linguagem natural (NLP) se concentra em permitir que os computadores entendam, interpretem e gerem a linguagem humana. Com o crescimento exponencial de dados digitais e o uso crescente de interfaces de linguagem natural, a PNL tornou-se uma tecnologia crucial para muitos negócios.

As tecnologias NLP podem ser usadas para uma ampla gama de aplicações, incluindo análise de sentimentos , chatbots, reconhecimento de fala e tradução. Ao alavancar a PNL, as empresas podem automatizar tarefas, melhorar o atendimento ao cliente e obter insights valiosos de comentários de clientes e postagens de mídia social.

Um dos principais desafios na implementação da PNL é lidar com a complexidade e ambigüidade da linguagem humana . Os algoritmos de PNL precisam ser treinados em grandes quantidades de dados para reconhecer padrões e aprender as nuances da linguagem. Eles também precisam ser continuamente refinados e atualizados para acompanhar as mudanças no contexto e no uso da linguagem.

A tecnologia funciona dividindo as entradas de linguagem, como frases ou parágrafos, em componentes menores e analisando seus significados e relacionamentos para gerar insights ou respostas. As tecnologias de PNL usam uma combinação de técnicas, incluindo modelagem estatística, aprendizado de máquina e aprendizado profundo , para reconhecer padrões e aprender com grandes quantidades de dados para interpretar e gerar linguagem com precisão.

Sugestão de Leitura: Com que frequência o Google Analytics é atualizado?

Você deve ter notado que o ChatGPT pode fazer perguntas de acompanhamento para esclarecer sua intenção ou entender melhor suas necessidades e fornecer respostas personalizadas que levam em consideração todo o histórico da conversa.

É assim que o ChatGPT pode ter conversas em vários turnos com os usuários de uma forma natural e envolvente. Envolve o uso de algoritmos e técnicas de aprendizado de máquina para entender o contexto de uma conversa e mantê-la em várias trocas com o usuário.

O gerenciamento de diálogo é um aspecto importante do processamento de linguagem natural porque permite que os programas de computador interajam com as pessoas de uma maneira que pareça mais uma conversa do que uma série de interações pontuais. Isso pode ajudar a criar confiança e envolvimento com os usuários e, em última análise, levar a melhores resultados para o usuário e para a organização que usa o programa.

Os profissionais de marketing, é claro, querem expandir a forma como a confiança é construída, mas essa também é uma área que pode ser assustadora porque é uma maneira de uma IA ser capaz de manipular as pessoas que a usam.

Conclusão sobre Como funciona o ChatGPT

Embora estejamos empurrando 2.500 palavras, esta ainda é uma visão geral muito rudimentar de tudo o que acontece dentro do ChatGPT. Dito isso, talvez agora você entenda um pouco mais sobre por que essa tecnologia explodiu nos últimos meses. A chave para tudo isso é que os dados em si não são “supervisionados” e a IA é capaz de pegar o que foi alimentado e dar sentido a isso.

Incrível, realmente.

Para encerrar, alimentei um rascunho de todo este artigo para o ChatGPT e pedi à IA para descrever o artigo em uma frase. Aqui você vai:

O ChatGPT é como o primo inteligente do Google e do Wolfram Alpha, que pode fazer coisas que eles não podem, como escrever histórias e codificar módulos.

Supõe-se que o ChatGPT seja uma tecnologia sem ego, mas se essa resposta não lhe der arrepios, você não está prestando atenção. Bem Vindo ao mundo da Inteligência Artificial!

Subscription Form

Assine nossa Newsletter!

Fique por dentro das últimas atualizações de desempenho do WordPress e da web.
Direto para sua caixa de entrada a cada duas semanas.

Compatilhe este Conteúdo
Seguir
É especialista em WordPress com mais de 12 anos de experiência no CMS, além de experiência em provedores de hospedagem, banco de dados, front-end e back-end em desenvolvimento web. Trabalhou ou teve participação em projetos ligado à empresas: Hopi Hari, iG, entre muitos outros