Índice
Para além do ChatGPT: Compreender o funcionamento da IA
A melhor maneira de dominar uma tecnologia é compreender o seu funcionamento. Embora a Inteligência Artificial (IA) possa parecer uma ferramenta mágica, onde resultados surgem quase sem esforço aparente, o mundo empresarial exige cautela e uma compreensão técnica mais profunda.
Os sistemas de inteligência artificial existem há muito tempo. No entanto, foi apenas com o lançamento do ChatGPT que o grande público compreendeu o seu verdadeiro potencial. O ChatGPT foi o primeiro produto de massificação global devido a uma característica crucial: a capacidade de compreender linguagem natural. Isso permite que qualquer pessoa dê instruções em linguagem comum para gerar conteúdos novos — como textos, imagens e sons. Este tipo de tecnologia é chamado de IA Generativa. Até então, os sistemas de IA eram focados em tarefas específicas e limitadas, sendo capazes apenas de detetar padrões ou aplicar regras pré-definidas, sem a capacidade de criar conteúdo inédito.
Podemos dizer que, até recentemente, a IA funcionava apenas como um conjunto de peças de LEGO: tudo o que criávamos dependia de blocos pré-definidos. Já a IA generativa assemelha-se à plasticina: uma matéria maleável que nos permite moldar qualquer forma, mas que exige controlo, pois essa mesma liberdade pode gerar resultados indesejados se não houver supervisão.
Um modelo de IA generativa é construído a partir de um vasto volume de dados provenientes de diversas fontes, como livros, artigos e fóruns; essencialmente, qualquer conteúdo digital serve como base para o treino. A partir desses dados, arquiteturas complexas — as chamadas redes neurais — são treinadas. Basicamente, trata-se de uma estrutura que mapeia a relação estatística entre unidades de informação. Podemos simplificar dizendo que, na rede neural, a palavra “casa” possui uma forte correlação (um “peso” elevado) com a palavra “telhado”, pois costumam aparecer no mesmo contexto. Esta primeira etapa é majoritamente automatizada e envolve o ajuste de biliões de parâmetros internos. Aqui, tanto a qualidade quanto a quantidade dos dados são cruciais. Na fase seguinte, ocorre o ajuste fino (fine-tuning), onde humanos interagem com o modelo, avaliam as respostas e fornecem feedback para que ele se torne mais útil, seguro e adequado às normas humanas.
Quando inserimos um prompt, o modelo tenta mapear essas palavras na sua rede neural e prever a sequência de elementos mais provável para completar a resposta. Existe também um componente de aleatoriedade (conhecido como temperature), para que o sistema não seja repetitivo. Como o processo é baseado em probabilidades, o contexto do prompt é fundamental para situar o assunto e obter respostas precisas.
É aqui que surgem as chamadas alucinações. Uma alucinação ocorre quando o modelo não possui informação suficiente ou quando a pergunta contém dados ambíguos; o sistema, programado para ser útil e fornecer uma resposta, acaba por “adivinhar”, misturando conceitos e inventando factos. Um sistema de IA pode agir como aquele colega “sabichão” que evita admitir ignorância e tenta responder com algo que pareça plausível, mesmo sendo falso.
Contudo, existem técnicas para mitigar estas alucinações, semelhantes à forma como lidamos com esse colega: podemos pedir a cadeia de raciocínio (Chain of Thought) que o levou àquela conclusão ou solicitar as fontes utilizadas. Podemos também pedir que ele valide ou refute as suas próprias ideias. A um nível mais técnico, é possível ajustar parâmetros para controlar a criatividade: valores baixos tornam o modelo mais determinístico e previsível (ideal para tarefas lógicas), enquanto valores altos aumentam a criatividade, mas elevam o risco de alucinação. Existem ainda outros parâmetros que permitem restringir o tamanho da resposta ou penalizar repetições. Nas interfaces comuns (como o ChatGPT online), estes ajustes costumam ser automáticos, mas são fundamentais em ambientes de desenvolvimento.
Um pequeno detalhe técnico: os modelos não processam “palavras”, mas sim tokens. O termo “palavra” é usado apenas para facilitar a compreensão. Um token pode ser uma palavra inteira, uma sílaba, um caractere ou até um sinal de pontuação. Esta decomposição permite que o modelo seja mais eficiente e ágil. Por exemplo, a palavra “rapidamente” pode ser dividida nos tokens [“rapi”, “da”, “mente”], permitindo que partes desses componentes sejam reutilizadas em outros contextos, otimizando o processamento.
Compreender estes conceitos é vital para a implementação estratégica da IA. Por exemplo, se uma empresa utiliza um agente de IA para responder e-mails automaticamente, é imperativo que este esteja “domesticado”. Esta domesticação envolve a escolha do modelo correto, a inserção de dados específicos da empresa e a definição de regras claras sobre o que o agente pode ou não fazer. Devemos tratar um agente de IA como um colaborador extremamente eficiente, mas que interpreta tudo de forma literal. Se não for explicitamente instruído a evitar respostas provocatórias ou ofensivas, ele poderá fazê-lo, baseando-se em padrões aprendidos em fóruns online durante o seu treino. Embora os modelos atuais possuam filtros de segurança robustos, nenhuma filtragem é infalível.
Em suma, o objetivo não é apresentar um cenário pessimista, mas sim um olhar realista. A IA é uma ferramenta extraordinária que permite poupar tempo e recursos; contudo, para tirar o melhor partido dela, é necessário compreender os seus mecanismos, os seus riscos e as suas limitações.
-
Criado por Sérgio Nóbrega

