Chat GPT
O ChatGPT – História, Funcionamento e Práticas de Prompting
Introdução
Nesta seção do curso, abordaremos o ChatGPT, um dos modelos de linguagem mais avançados desenvolvidos pela OpenAI. Exploraremos sua origem, evolução, funcionamento, licenças disponíveis e práticas recomendadas para a criação de prompts eficazes. Este conteúdo é voltado para profissionais de diversas áreas que desejam compreender e utilizar o ChatGPT de forma eficiente em suas atividades.
Histórico e Evolução do ChatGPT
Origem e Desenvolvimento
O ChatGPT é um chatbot baseado em modelos de linguagem desenvolvidos pela OpenAI, uma organização de pesquisa em inteligência artificial fundada em 2015 por Elon Musk, Sam Altman, Greg Brockman, entre outros. A missão da OpenAI é garantir que a inteligência artificial geral beneficie toda a humanidade.
O ChatGPT foi lançado publicamente em 30 de novembro de 2022, baseado no modelo GPT-3.5. Desde então, passou por diversas atualizações, incluindo o GPT-4, lançado em março de 2023, e o GPT-4o (“o” de “omni”), anunciado em maio de 2024. O GPT-4o é capaz de processar texto, imagens e áudio, oferecendo respostas mais rápidas e precisas. (Wikipedia)

Linha do tempo das versões do ChatGPT / GPT
Fase inicial – GPTs fundamentais
-
GPT-1 (junho de 2018) – Lançamento da primeira versão da série GPT pela OpenAI.
-
GPT-2 (fevereiro de 2019; versão completa em novembro de 2019) – Modelo mais robusto, inicialmente contido por questões de segurança e liberação completa posteriormente.
-
GPT-3 (junho de 2020) – Modelo ampliado que representou salto significativo em capacidade de geração de texto.
Transição para uso conversacional – GPT-3.5 e ChatGPT
-
GPT-3.5 (março de 2022) – Inclui versões como text-davinci-002 e -003. O ChatGPT foi desenvolvido com base neste modelo.
-
ChatGPT (30 de novembro de 2022) – Lançamento oficial da interface conversacional que popularizou o uso de LLMs.
Expansão e aprimoramentos – GPT-4 e versões relacionadas
-
GPT-4 (14 de março de 2023) – Disponível inicialmente para assinantes ChatGPT Plus; trouxe entendimento de imagem e texto, maior sofisticação.
-
Lançamentos complementares e melhorias subsequentes:
-
ChatGPT Plus (1 de fevereiro de 2023) – Plano de assinatura para acesso privilegiado.
-
API de ChatGPT (1 de março de 2023) – Integração do ChatGPT via API pública.
-
ChatGPT Enterprise (28 de agosto de 2023) – Versão dedicada para uso corporativo com segurança ampliada e acesso ilimitado ao GPT-4.
-
Custom GPTs (6 de novembro de 2023) – Ferramenta para criação de agentes personalizados pelo usuário.
-
GPT Store e ChatGPT Team (10 de janeiro de 2024) – Loja de GPTs customizados e ambiente colaborativo.
-
Substituição dos plugins por GPTs customizados (9 de abril de 2024).
-
Era multimodal – GPT-4o e suas variantes
-
GPT-4o (13 de maio de 2024) – “Omni” multimodal: texto, imagem, áudio; gratuito com limites e mais potente que GPT-4.
-
GPT-4o mini (18 de julho de 2024) – Versão reduzida e mais econômica, substituiu o GPT-3.5 na interface.
-
GPT Image 1 (março–abril de 2025) – Nova ferramenta nativa de geração de imagem dentro do ecossistema GPT-4o.
Modelos racionais – série “o”
-
o1-preview (setembro de 2024) – Modelo experimental com foco em raciocínio estruturado, melhor em programação, matemática e ciências.
-
o1 (5 de dezembro de 2024) – Versão completa do modelo “pensante” o1, com maior raciocínio científico e responsabilidade.
-
o3, o4-mini, o3-mini, etc. (abril de 2025) – Geração de modelos mais eficientes com raciocínio elevado e integração de ferramentas como web, Python, imagem, arquivo e agentes.
GPT-4.5 “Orion”
-
Lançamento: 27 de fevereiro de 2025 – Maior capacidade, menos erros factuais, padrões criativos aprimorados.
-
Descontinuado em 7 de agosto de 2025, com chegada do GPT-5.
GPT-4.1
-
Lançamento na API: 14 de abril de 2025, com variantes mini e nano para diferentes cenários.
-
Disponível no ChatGPT (14 de maio de 2025) para usuários Plus, Pro e Team.
GPT-5 – Modelo de ponta
-
Lançamento: 7 de agosto de 2025 – Modelo mais avançado, multimodal (texto, imagem, áudio, vídeo), com janela de contexto de até um milhão de tokens, memória persistente e novas personalidades (Cynic, Robot, Listener, Nerd).
-
Disponível para todos os usuários (gratuitos e pagos) com seleção automática do modelo ideal para cada requisição.
Contexto adicional recente
-
Em agosto de 2025, a OpenAI reviu rapidamente a remoção de modelos antigos (como GPT-4o e 4.5), mantendo-os disponíveis após forte reação da comunidade.
Estrutura e Funcionamento
O ChatGPT utiliza modelos de linguagem treinados com grandes volumes de texto para prever a próxima palavra em uma sequência, permitindo a geração de respostas coerentes e contextualmente relevantes. O treinamento envolve aprendizado supervisionado e aprendizado por reforço com feedback humano (RLHF), onde treinadores humanos avaliam e ajustam as respostas do modelo para melhorar sua qualidade. (Wikipedia)

Licenças e Funcionalidades
Versão Gratuita
A versão gratuita do ChatGPT oferece acesso ao modelo GPT-3.5, permitindo interações textuais básicas. É adequada para tarefas simples, como responder perguntas gerais, redigir textos curtos e realizar traduções básicas.
ChatGPT Plus
O ChatGPT Plus é uma assinatura paga que oferece acesso ao modelo GPT-4, com respostas mais precisas e rápidas, além de maior disponibilidade durante períodos de alta demanda. Em março de 2023, o serviço foi lançado com um custo mensal de US$20. (Brain Pod AI)
| Critério | Versão Gratuita | Versão Plus (US$ 20/mês) |
| Modelo Disponível | GPT-3.5 | GPT-4 (versão GPT-4-turbo) |
| Velocidade de Resposta | Mais lenta, especialmente em horários de pico | Mais rápida, especialmente em horários de pico |
| Acesso em Alta Demanda | Pode ficar indisponível | Prioridade no acesso, mesmo em alta demanda |
| Qualidade das Respostas | Boa para tarefas simples e gerais | Superior, com maior precisão e profundidade |
| Capacidade de Memória | Memória desativada (sem histórico de contexto entre sessões) | Memória ativada, lembrando preferências e histórico de uso |
| Interação Multimodal | Apenas texto | Texto, imagem, código e, em breve, áudio |
| Acesso a Ferramentas | Não disponível | Sim – com ferramentas como Navegador (web browsing), Análise de código (Python), e Visualização de arquivos |
| Criação de GPTs Personalizados | Limitado | Sim – permite criar e compartilhar GPTs personalizados |
| Atualizações e Recursos Novos | Acesso posterior | Acesso antecipado a novas funcionalidades |
| Preço | Gratuito | US$ 20/mês (via cartão de crédito internacional) |
Construção de Prompts: Dicas e Boas Práticas
A eficácia do ChatGPT depende significativamente da qualidade dos prompts fornecidos. Um prompt bem elaborado orienta o modelo a gerar respostas mais relevantes e úteis.(Prompting Guide)
Clareza e Especificidade
Prompts claros e específicos reduzem ambiguidades e direcionam o modelo de forma eficaz. Por exemplo, em vez de perguntar “Fale sobre marketing”, um prompt mais eficaz seria “Explique as principais estratégias de marketing digital para pequenas empresas em 2025”. (DigitalOcean)
Contextualização
Fornecer contexto adicional ajuda o modelo a entender melhor a solicitação. Por exemplo, ao solicitar a redação de um e-mail, incluir informações sobre o destinatário, o objetivo e o tom desejado resulta em uma resposta mais alinhada às expectativas.
Exemplos e Formatação
Incluir exemplos no prompt pode guiar o modelo a produzir respostas no formato desejado. Além disso, especificar a estrutura da resposta, como listas ou parágrafos, contribui para a clareza do resultado. (DigitalOcean)
Iteração e Refinamento
A criação de prompts eficazes é um processo iterativo. Após obter uma resposta inicial, é comum ajustar o prompt para refinar os resultados. Essa abordagem permite explorar diferentes perspectivas e aprofundar a compreensão do modelo.

Exemplos Práticos de Prompts
- Redação de E-mails:
- Prompt: “Escreva um e-mail formal para um cliente informando sobre o atraso na entrega do produto, oferecendo um desconto como compensação.”
- Geração de Ideias:
- Prompt: “Liste cinco ideias inovadoras para campanhas de marketing digital voltadas para o público jovem em redes sociais.”
- Tradução e Adaptação Cultural:
- Prompt: “Traduza o seguinte texto para o espanhol, adaptando expressões culturais para o público mexicano: ‘It’s raining cats and dogs.'”
- Resumo de Textos:
- Prompt: “Resuma o seguinte artigo em três parágrafos, destacando os principais argumentos e conclusões.”
- Criação de Conteúdo Criativo:
- Prompt: “Escreva um poema de quatro estrofes sobre a importância da preservação ambiental, utilizando linguagem acessível para crianças.”
Perguntando aos criadores
Princípios Fundamentais da Criação de Prompts (Segundo a OpenAI)
- Seja Claro e Específico
- Evite generalidades. Quanto mais informações relevantes forem dadas, melhor será a resposta.
- Exemplo ruim:
- “Escreva um texto sobre economia.”
- Exemplo bom:
- “Escreva um artigo de 300 palavras, em linguagem acessível, explicando os impactos da inflação sobre o pequeno comércio no Brasil em 2024.”
- Nota: Especificidade reduz a ambiguidade e melhora a acurácia.
- Dê Instruções no Formato de Tarefa
- Modelos como o GPT respondem melhor quando você os trata como um assistente designado para uma tarefa bem definida.
- Exemplo ruim:
- “Escreva sobre Inteligência artificial.”
- Exemplo bom:
- “Faça uma introdução didática, de até 150 palavras, sobre o conceito de inteligência artificial para um curso livre voltado a jornalistas.”
- Forneça Contexto
- Se você deseja uma resposta alinhada a uma situação específica, explique o contexto.
- Exemplo:
- “Você é um tutor universitário explicando a um aluno do primeiro período de Direito como funciona o sistema judiciário brasileiro. Use exemplos simples e linguagem informal.”
- Nota: O modelo assume papéis com base no contexto fornecido.
- Use Exemplos e Formatos Desejados
- Dizer o que você quer ver no resultado final é extremamente eficaz.
- Exemplo:
- “Liste três benefícios da energia solar no formato:
- [Benefício] – [Explicação em até duas linhas]”
- Peça por Etapas ou Estrutura
- Dividir tarefas complexas em partes facilita a resposta.
- Exemplo:
- Explique como funciona o imposto de renda em três etapas:
- Quem deve declarar
- Como é calculado
- Como pagar ou receber restituição”
- Explique como funciona o imposto de renda em três etapas:
- Nota: Prompts estruturados produzem respostas mais organizadas.
- Defina Limites ou Restrições
- Você pode controlar a extensão, o estilo ou até o tom da resposta.
- Exemplos:
- “Explique em 100 palavras.”
- “Responda como se estivesse falando com uma criança de 10 anos.”
- “Use um tom motivacional e linguagem informal.”
- Peça Revisão, Melhoria ou Alternativas
- É possível iterar com o modelo. Solicitar versões alternativas é uma forma poderosa de encontrar a melhor resposta.
- Exemplo:
- “Reescreva o parágrafo abaixo em um tom mais acadêmico, mantendo o conteúdo: […]”
Técnicas Avançadas de Prompting
| Técnica | Descrição | Exemplo |
| Few-shot prompting | Mostrar exemplos dentro do próprio prompt. | “Traduza como no exemplo: Hello → Olá. Goodbye → Adeus. Please → […]” |
| Chain-of-thought | Pedir raciocínio passo a passo. | “Explique passo a passo como resolver esta equação: x² – 4x + 3 = 0” |
| Role prompting | Definir o papel que o modelo deve assumir. | “Você é um historiador explicando a Revolução Francesa a crianças de 10 anos.” |
| System message (no ChatGPT Plus – Pago) | Define o comportamento global do modelo. | “Você é um professor de física com tom paciente, que sempre usa analogias.” |
Usando na prática
Todas essas informações são boas e importantes. Mas segue agora um passo a passo que usamos no nosso trabalho no nosso cotidiano. Incorpora tudo que aprendemos até agora e traz algumas sugestões práticas que foram desenvolvidas usando os LLMs (em todas as dicas se supõe a versão gratuita do ChatGPT).
-
Organização: a chave para interações produtivas com o ChatGPT
Se a sua pergunta for pontual — algo simples, direto e sem vínculo com um projeto maior — basta digitá-la diretamente na caixa de diálogo do ChatGPT. No entanto, se você está utilizando a ferramenta como apoio em um projeto em desenvolvimento (um artigo, um plano de aula, uma campanha publicitária, um roteiro, entre outros), a organização torna-se essencial para garantir consistência, continuidade e reaproveitamento das ideias geradas.
Nesse caso, recomenda-se criar uma pasta específica para o projeto e, dentro dela, manter um documento de texto estruturado (pode ser no Word, LibreOffice Writer, Google Docs ou qualquer outro editor de sua preferência). Ali, você deverá registrar seus prompts de forma organizada, incluindo:
-
-
- a pergunta enviada (Prompt),
- a resposta recebida (Resposta),
- suas anotações, correções ou observações críticas (Refinamento).
-
Essa prática transforma o ChatGPT de um mero assistente casual em um parceiro metódico de trabalho intelectual. Além disso, facilita a consulta posterior, permite o refinamento de ideias e colabora para a construção de conhecimento de maneira incremental e consciente.
Dica de ouro: nomeie os arquivos com datas ou descrições temáticas (ex.: ProjetoArtigo_IA_Prompts_2025.docx) e utilize marcadores ou títulos no corpo do texto para facilitar a navegação posterior.
Alucinações em LLMs: Compreensão e Mitigação
A Inteligência Artificial (IA), especialmente em sua forma mais popular atualmente – os Modelos de Linguagem de Grande Escala, ou LLMs (Large Language Models) – revolucionou a forma como interagimos com máquinas. Aplicativos como o ChatGPT têm sido amplamente utilizados para escrever textos, responder perguntas, gerar códigos e até mesmo auxiliar em diagnósticos médicos. No entanto, apesar de suas capacidades surpreendentes, esses modelos estão longe de serem perfeitos. Um dos problemas mais significativos que precisamos compreender é o fenômeno das “alucinações”.

O que são Alucinações em Modelos de Linguagem?
Na linguagem da Inteligência Artificial, “alucinação” refere-se ao comportamento dos modelos quando produzem uma resposta factualmente incorreta, sem base nos dados de treinamento, mas com alto grau de confiança. Em outras palavras, a IA inventa algo e afirma com convicção.
Essas alucinações não são necessariamente falhas no código, mas resultados emergentes da forma como os modelos são treinados: eles aprendem padrões linguísticos, mas não têm compreensão do mundo real como os humanos.

Causas das Alucinações
- Lacunas nos dados de treinamento: Nem toda informação está presente nos dados usados para treinar os modelos. Se a IA nunca viu algo, ela pode simplesmente “chutar” com base em padrões parecidos.
- Ambiguidade na pergunta: Quando um prompt é mal formulado, o modelo pode interpretar de forma errada e gerar uma resposta plausível, mas incorreta.
- Tendência à fluidez linguística: LLMs são otimizados para gerar textos coerentes e bem estruturados, mesmo quando não têm certeza sobre o conteúdo. Isso pode passar uma falsa impressão de autoridade.
- Ausência de senso de realidade: Diferente de um humano, o modelo não tem “experiência” do mundo. Ele não sabe o que é verdade ou mentira, apenas calcula probabilidades linguísticas.
Exemplos Reais de Alucinações
- Exemplo 1: Jurisprudência inventada
- O ChatGPT já foi utilizado por advogados que pediram para ele citar jurisprudências. O modelo forneceu nomes de casos fictícios que pareciam reais, mas nunca existiram.
- Exemplo 2: Citações falsas em artigos acadêmicos
- Diversos relatórios acadêmicos relatam que o modelo gera artigos com referências bibliográficas que soam plausíveis, mas não correspondem a nenhuma obra real.
- Exemplo 3: Informar que um artista está morto quando ainda está vivo
- Em perguntas sobre pessoas públicas, às vezes o modelo erra dados simples, como datas de falecimento.
![]()
Como Mitigar Alucinações: Boas Práticas
- Escreva prompts mais específicos:
- Em vez de perguntar “O que você sabe sobre Einstein?”, pergunte “Liste três publicações científicas de Einstein entre 1905 e 1920”.
- Peça fontes ou referências:
- Sempre que possível, solicite que o modelo cite a fonte ou onde encontrou a informação. Mesmo assim, é importante verificar por conta própria.
- Use validação cruzada:
- Compare a resposta da IA com outras fontes de confiança na internet, como enciclopédias, artigos científicos ou portais oficiais.
- Atualização constante do modelo:
- Mantenha-se informado sobre a versão do modelo que você está utilizando. Modelos mais recentes tendem a cometer menos alucinações.
- Conheça os limites da ferramenta:
- Nunca use a IA como fonte final para decisões críticas. Use como apoio, nunca como única opinião.
Conclusão
As alucinações em modelos de linguagem são um lembrete importante de que, apesar da aparente inteligência, essas ferramentas ainda estão longe de compreender o mundo como nós. Seu uso deve ser sempre acompanhado de pensamento crítico, validação externa e consciência de seus limites. Em um mundo onde a IA será cada vez mais presente, saber identificar e mitigar alucinações é uma habilidade essencial.
Inteligência Artificial Explicável (XAI) e Transparência nos Modelos
Introdução
Vivemos na era da inteligência artificial (IA), onde sistemas automatizados tomam decisões que afetam diretamente nossas vidas. Desde recomendações de filmes até diagnósticos médicos, a IA está presente em diversos setores. No entanto, muitas dessas decisões são tomadas por modelos de “caixa-preta”, cujos processos internos são opacos até mesmo para seus criadores. É nesse contexto que surge a Inteligência Artificial Explicável (XAI), que busca tornar as decisões da IA compreensíveis para os humanos.

O que é XAI e sua Importância
XAI, ou Explainable Artificial Intelligence (Inteligência Artificial Explicável), refere-se a um conjunto de processos e métodos que permitem que humanos compreendam e confiem nas decisões e resultados gerados por modelos de IA. Em essência, a XAI transforma modelos complexos de IA – como redes neurais profundas usadas no ChatGPT – em algo mais transparente, explicando o “porquê” por trás das previsões ou respostas. Diferente de uma IA tradicional que apenas dá uma saída (como uma resposta no ChatGPT), a XAI revela o raciocínio, os dados influentes e possíveis vieses envolvidos.
Por que isso é importante? Imagine que o ChatGPT sugere uma receita médica errada – sem explicação, como confiar? A XAI promove:
-
Transparência: Ajuda a entender como a IA processa informações, reduzindo o mistério das “caixas-pretas”.
-
Confiança e Adoção: Usuários, como vocês iniciantes, se sentem mais seguros ao saber o porquê das respostas, incentivando o uso ético de ferramentas como o ChatGPT.
-
Justiça e Viés: Identifica e corrige discriminações, como vieses raciais ou de gênero em decisões automatizadas.
-
Conformidade Regulatória: Leis como o GDPR na Europa exigem explicações para decisões de IA, especialmente em áreas sensíveis.
-
Melhoria de Modelos: Permite depurar erros, tornando IAs mais precisas e confiáveis.
Sem XAI, a IA pode levar a erros catastróficos, como em diagnósticos médicos ou aprovações de empréstimos. Para iniciantes no ChatGPT, entender XAI ajuda a questionar respostas e usá-las de forma mais crítica.
Ética e Responsabilidade no Uso de Modelos de Linguagem de Grande Escala (LLMs)
Introdução
Vivemos em uma era em que a inteligência artificial (IA) permeia diversos aspectos de nossas vidas. Modelos de linguagem de grande escala (LLMs), como o ChatGPT, têm revolucionado a forma como interagimos com a tecnologia, oferecendo respostas rápidas e contextualizadas. No entanto, essa revolução traz consigo desafios éticos significativos que precisam ser compreendidos e debatidos.

Viés Algorítmico
O que é Viés Algorítmico?
Viés algorítmico refere-se à tendência de um sistema de IA reproduzir ou amplificar preconceitos existentes nos dados em que foi treinado. Isso pode ocorrer quando os dados de treinamento refletem desigualdades sociais ou culturais.
Exemplos Práticos
- Processos de Recrutamento: Algoritmos de seleção podem favorecer candidatos de determinados grupos demográficos se os dados históricos indicarem tal tendência.
- Sistemas de Crédito: Modelos podem negar empréstimos com base em padrões discriminatórios presentes nos dados de treinamento.
Mitigação de Viés
- Auditorias Regulares: Avaliação contínua dos modelos para identificar e corrigir vieses.
- Diversidade nos Dados: Garantir que os dados de treinamento representem adequadamente diferentes grupos.
- Transparência: Divulgação clara dos critérios utilizados pelos algoritmos.
Privacidade e Proteção de Dados
Desafios na Era da IA
A coleta massiva de dados para treinar LLMs levanta preocupações sobre a privacidade dos indivíduos. Informações sensíveis podem ser utilizadas sem o devido consentimento, infringindo direitos fundamentais.
Legislação e Regulamentação
- Lei Geral de Proteção de Dados (LGPD): No Brasil, a LGPD estabelece diretrizes para o tratamento de dados pessoais, exigindo consentimento explícito e garantindo direitos aos titulares dos dados.
- Regulamentações Internacionais: Leis como o GDPR na União Europeia também impõem restrições ao uso de dados pessoais.

Boas Práticas
- Anonimização de Dados: Remoção de identificadores pessoais para proteger a identidade dos indivíduos.
- Consentimento Informado: Garantir que os usuários compreendam como seus dados serão utilizados.
- Segurança da Informação: Implementação de medidas técnicas para proteger os dados contra acessos não autorizados.
Responsabilidade e Prestação de Contas
Quem é Responsável?
A responsabilidade pelas decisões tomadas por sistemas de IA é uma questão complexa. Desenvolvedores, empresas e usuários compartilham a responsabilidade pelo uso ético da tecnologia.
Transparência e Explicabilidade
É essencial que os sistemas de IA sejam transparentes em seus processos de decisão. Isso inclui a capacidade de explicar como uma determinada conclusão foi alcançada.
Mecanismos de Prestação de Contas
- Auditorias Independentes: Avaliação por terceiros para garantir conformidade com padrões éticos.
- Códigos de Conduta: Estabelecimento de diretrizes claras para o desenvolvimento e uso de IA.
- Engajamento Público: Envolvimento da sociedade na discussão sobre o uso responsável da tecnologia.
Conclusão
A integração de LLMs em diversos setores oferece oportunidades significativas, mas também impõe desafios éticos que não podem ser ignorados. É fundamental promover uma abordagem responsável, que equilibre inovação com respeito aos direitos individuais e coletivos.
Conclusão Geral
Ao longo desta aula, exploramos as origens e a evolução do ChatGPT, desde suas versões iniciais até as mais recentes, como o GPT-4o, que incorpora capacidades multimodais. Compreendemos que, embora o modelo seja uma ferramenta poderosa para diversas aplicações, sua eficácia está intrinsecamente ligada à habilidade do usuário em elaborar prompts claros e específicos. A prática do “prompt engineering” revelou-se essencial para direcionar o modelo a fornecer respostas mais precisas e relevantes.
Portanto, ao dominar as técnicas de criação de prompts e entender as nuances do funcionamento do ChatGPT, profissionais de diferentes áreas podem potencializar suas atividades, seja na geração de conteúdo, na automação de tarefas ou na análise de informações. A chave está na experimentação contínua e na adaptação às características do modelo, transformando-o em um aliado valioso na era da inteligência artificial.
Fim da Aula.


