Te damos as boas-vindas aqui a esta série. Vamos te guiar pelos fundamentos da inteligência artificial com foco para profissionais de saúde. Esperamos que você possa começar a usar esse tipo de recurso com mais confiança na sua rotina médica.
Mesmo sem formação em tecnologia, os profissionais de saúde podem, e devem, entender os conceitos básicos da inteligência artificial. Isso ajuda você a fazer melhor uso dessa tecnologia em sua prática diária e até mesmo no cuidado ao paciente.
👉 Primeiro ponto: IA não é apenas uma coisa única. É mais como uma coleção inteira de tecnologias trabalhando juntas.
Pense nas suas aulas de ciências na escola.
Você tinha “ciência” como disciplina, mas dentro dela havia diferentes ramos como física, biologia e química.
E cada um deles tinha tópicos ainda mais específicos: genética, biologia celular, física quântica...
A IA funciona de forma semelhante. É um termo amplo que cobre uma gama de campos e camadas. E cada um tem seu próprio propósito, ferramentas e complexidade.
Antes de entrar no uso da IA na prática médica, vamos começar com um rápido aquecimento. Convidamos você a fazer este exercício e responder quantas ferramentas de IA você já usa no seu dia a dia:
Para te ajudar, vamos listar alguns dos mais comuns, organizados pela forma como são normalmente usados.
Então, mesmo que você não tenha percebido antes, a IA já está silenciosamente integrada a muitos aspectos da vida diária.;
Neste curso, iremos além, explorando como a IA pode apoiar sua prática médica especificamente, desde a documentação até a comunicação com o paciente.;
Quanto melhor você aprende a usar ferramentas de IA, mais útil e relevantes elas se tornam.. Então, vamos abordar rapidamente os conceitos básicos dessas ferramentas: como elas aprendem, entendem e geram linguagem humana.
Eles são construídos sobre algo chamado Large Language Models, ou LLMs (Grandes Modelos de Linguagem).
Mas espere! Antes que esse termo te assuste, vamos te contar uma história para você entender facilmente o que são LLMs.
Imagine um robô em uma livraria enorme. Esse robô já leu milhões de livros, sites, artigos e até conversas. Este robô não pensa como uma pessoa, mas é incrivelmente bom em lembrar como as pessoas geralmente falam, escrevem e fazem perguntas.
É basicamente isso que um LLM faz. É um tipo de inteligência artificial que aprendeu a "falar" e "entender" a linguagem humana de uma forma muito, muito sofisticada, porque foi treinada com uma enorme quantidade de dados.
🕵️ Age como um detetive: Depois de ler tanto, o LLM começa a perceber padrões.
Por exemplo, se você perguntar: "Como está o tempo hoje?", a resposta esperada é sobre sol, chuva ou nuvens.
🔮 Prevê a palavra seguinte: mas em vez de apenas terminar sua frase, ele pode escrever textos completos, responder perguntas, resumir artigos, traduzir idiomas e muito mais.
É uma máquina superinteligente que gera conteúdo coerente e relevante com base em seus comandos
👨🍳 Trabalha como um chefe: É como se você pedisse que ele te preparasse um prato de risoto. Ele não vai criar o prato do nada; ele vai consultar seu melhor livro de receitas com base no que aprendeu.
Em resumo, o LLM é um tipo de inteligência artificial treinada para entender e gerar linguagem humana. Ele aprende analisando grandes quantidades de dados (como livros, sites e artigos) para entender como a linguagem funciona.
Um exemplo é a forma como o Google apresenta os resultados de busca. Antes, o Google era um "diretório de informações", indicando onde encontrar as respostas. Agora, com os LLMs, ele se tornou um "compilador e resumidor de informações", tentando fornecer a resposta diretamente, de forma coloquial e contextualizada.
Imagine que você queira encontrar as melhores opções de tratamento para um paciente recém-diagnosticado com diabetes tipo 2. Antigamente, o Google fornecia uma lista de links para artigos científicos ou diretrizes clínicas. Agora, com a ajuda de LLMs, ele já mostra uma resposta resumida, incluindo tratamentos de primeira linha, recomendações de estilo de vida e até potenciais interações medicamentosas, tudo em um formato claro e conversacional.
Portanto, com novas plataformas de IA surgindo quase diariamente, é completamente normal se sentir um pouco perdido, especialmente se você não estiver familiarizado com o lado técnico das coisas.
Primeira coisa a ter em mente: O que uma IA pode ou não fazer depende de como ela foi treinada, ou seja, do tipo de modelo por trás dela. Aqui, vamos dividir as IAs de LLM nos três principais tipos de modelos para que você possa fazer a escolha certa: GPT, raciocínio e busca profunda.
Usado em algumas das plataformas mais populares, como Gemini, ChatGPT e Copilot, este modelo é ótimo para criatividade, resumo e perguntas abertas. É chamado de "Generativo" porque permite criar conteúdos novos (não apenas repetir informações).
É baseado em pré-treinamento, então este modelo aprende gramática, contexto, lógica e tom, mas não fatos em tempo real ou experiências pessoais.
👉 Onde o modelo GPT se destaca:
Ele vai além do simples reconhecimento de padrões ou da geração de texto. Foi projetado para seguir a lógica passo a passo, permitindo que eles resolvam problemas, analisem informações complexas e até mesmo expliquem seus raciocínios com mais clareza.
Mas modelos de raciocínio geralmente não são plataformas autônomas. Em vez disso, eles representam um modo de uso mais avançado em ferramentas que você talvez já conheça, como ChatGPT, Gemini 2.5 Pro ou Claude 4 Opus.
Nessas plataformas, as capacidades de raciocínio são ativadas ou aprimoradas nos bastidores, permitindo que o modelo se aprofunde, em vez de apenas prever a próxima palavra provável.
👉 Onde o modelo Reasoning se destaca:
Essas ferramentas combinam o poder dos modelos de linguagem com o acesso a informações em tempo real da web.
Ao contrário dos LLMs tradicionais, que dependem apenas dos dados com os quais foram treinados, os modelos de Pesquisa Profunda podem pesquisar ativamente na Internet, analisar fontes e fornecer respostas atualizadas e contextuais.
Resumindo, a plataforma do modelo Deep Search envia sua consulta aos mecanismos de busca, examina diversas páginas e usa IA para resumir e sintetizar o que encontra, tudo em uma única resposta.
👉 Onde o modelo Deep search se destaca:
Para facilitar seu entendimento, preparamos essa planilha onde você descobrirá qual modelo é mais e menos adequado dependendo do tipo de tarefa que precisa executar.
Tipo de tarefa |
Modelo GPT |
Reasoning |
Deep Search |
Criação de conteúdo | ✅ Linguagem fluente e natural, tom de voz adaptável | ⚠️ Pode gerar conteúdo estruturado com base lógica, mas com menos ênfase na criatividade |
❌ Falta criatividade e habilidades de tom de voz
|
Raciocínio lógico / resolução de problemas | ✅ Bom para problemas lógicos simples | ✅ Excelente em raciocínio complexo e de múltiplas etapas |
❌ Apenas recupera informações, sem raciocínio profundo
|
Pesquisa em tempo real e citações | ❌ Não projetado para atuar com os dados mais recentes | ❌ Não projetado para atuar com os dados mais recentes |
✅ O melhor para acessar informações atuais com fontes
|
Matemática e lógica passo a passo | ✅ Bom para operações matemáticas comuns e cálculos | ✅ Excelente em problemas matemáticos e lógicos complexos |
❌ Não projetado para realizar cálculos
|
Planejamento estratégico / estruturado | ✅ Bom para esboçar ideias e planos iniciais | ✅ Excelente para analisar cenários complexos, avaliar opções e identificar dependências |
❌ Não formula estratégias nem toma decisões estruturadas
|
Simulações ou cenários hipotéticos | ✅ Gera resultados simples em cenários “e se” com base em padrões aprendidos | ✅ O melhor para experimentos mentais complexos e simulações que exigem inferência lógica |
❌ Não projetado para simulações
|
Brainstorming / geração de ideias | ✅ Criativo e flexível | ⚠️ Ajuda a organizar, mas é menos criativo |
❌ Muito orientado a fatos, pouco a tarefas criativas
|
Análise de arquivos | ✅ Funciona com documentos enviados | ⚠️ Limitado, oferece alguma informação com contexto |
❌ Não recomendado para interpretar arquivos
|
Ensino / explicação de conceitos | ✅ Explicações claras e detalhadas | ✅ Muito bom em explicações passo a passo |
⚠️ Recupera definições e explicações de fontes da web
|
Notícias e tendências | ❌ Não projetado para dados recentes | ❌ Não projetado para dados recentes |
✅ O melhor para pesquisa atualizada com fontes
|
Geração de imagens e vídeo | ⚠️ Área em evolução. Os modelos GPT avançados têm capacidades multimodais, como geração de texto em imagem e compreensão básica de vídeo | ⚠️ Limitado, com foco em raciocínio, menos em geração |
🚫 Sem capacidade de criação de imagens ou vídeo
|
Sempre que mudar de assunto, inicie uma nova conversa, um novo chat. Isso redefine o contexto e ajuda a IA a manter o foco, evitando confusões de conversas anteriores
Digitar nem sempre é prático, especialmente em uma clínica movimentada. Hoje em dia, muitas plataformas oferecem suporte à entrada de voz, permitindo que você fale a pergunta ou o comando diretamente
Peça um resumo de um vídeo: Digamos que você esteja assistindo a uma palestra de um congresso médico online, mas não tem tempo para assistir ao vídeo completo. Basta copiar o link do YouTube, colá-lo no chat e pedir um resumo
Depois de entender os conceitos básicos dos LLMs, o próximo tópico muito importante é aprender a melhor forma de interagir com essas ferramentas. É hora de entender a engenharia de prompts.
Primeiro de tudo: o que exatamente é um prompt?
Um prompt é a mensagem ou pergunta que você envia a uma ferramenta de IA para obter uma resposta. É como você "fala" com a IA, seja pedindo ajuda, gerando conteúdo, resolvendo um problema ou buscando informações.
→ Veja este exemplo:vamos imaginar que você precisa explicar de forma clara e abrangente aos seus pacientes o que é hipertensão.
Sua tarefa seria: Escrever uma explicação curta e clara sobre o que é hipertensão, para que qualquer paciente possa entendê-la facilmente; OU Como você explicaria hipertensão a um paciente sem formação médica?
A maneira como você dá o seu “comando” determinará o resultado que você obtém, por isso é tão importante dominar a engenharia de prompt.
Em sistemas baseados em LMM, quanto mais precisas e contextualizadas forem as informações fornecidas, mais dados elas terão para consultar.
Na próxima aula, você verá a fórmula perfeita para criar seu prompt!