, ,

5 Erros com IA na Tese que Reprovam | Limites do Uso

Estudante preocupado revisando tese no computador com alertas de deteção de IA - 5 erros com inteligência artificial que podem reprovar trabalho académico

Se está a usar inteligência artificial na sua tese, este artigo pode salvar meses — ou até anos — de trabalho árduo. Não é exagero.

Em 2024, as universidades portuguesas e brasileiras registaram um aumento de 340% nos casos de reprovação relacionados com uso indevido de ferramentas de IA. Este número não foi inventado para assustar — é a realidade documentada por instituições que agora utilizam sistemas sofisticados de deteção de IA em teses académicas.

A linha entre usar a IA como ferramenta de apoio e violar a integridade académica é mais ténue do que imagina. A maioria dos estudantes não sabe onde está essa linha até ser tarde demais.

Ilustração mostrando os limites éticos entre o trabalho humano e a assistência de IA no contexto académico

Vou revelar-lhe os cinco erros específicos com IA que estão a reprovar estudantes em Portugal, Brasil e em todo o mundo lusófono. Mais importante ainda: vou mostrar-lhe exatamente como evitar cada um deles.

Os limites do uso de IA na produção de conteúdo para teses académicas nunca foram tão importantes de compreender. Se está a ler isto, provavelmente está a perguntar-se: “Será que estou a fazer algo errado sem saber?”

Vamos descobrir.

O Que Mudou no Uso de IA em Teses Académicas em 2025

Há três anos, falar de ChatGPT numa sala de aula de mestrado gerava olhares confusos. Hoje? Praticamente impossível encontrar um estudante que nunca tenha experimentado uma ferramenta de IA generativa para algum aspeto do trabalho académico.

O que aconteceu entre 2023 e 2025 foi nada menos que uma revolução — silenciosa, sim, mas devastadoramente eficaz. Ferramentas como ChatGPT, Claude, Gemini e Copilot tornaram-se tão acessíveis quanto o Google. Estudos indicam que mais de 78% dos estudantes de pós-graduação em Portugal e Brasil já utilizaram alguma forma de IA generativa durante a elaboração das suas teses.

Enquanto os estudantes abraçavam estas ferramentas com entusiasmo, as universidades corriam para entender o que estava a acontecer. O resultado? Um período de incerteza onde as regras mudavam mais rápido do que qualquer pessoa conseguia acompanhar.

As universidades não ficaram de braços cruzados. Em Portugal, instituições como a Universidade de Lisboa, a Universidade do Porto e a Universidade de Coimbra implementaram políticas específicas sobre declaração de uso de IA. No Brasil, a UFMG e a UFBA tornaram-se referências com guias detalhados.

📄 O Guia para Uso Ético e Responsável da IA Generativa da UFBA oferece diretrizes claras sobre o que é permitido e proibido no contexto académico brasileiro.

As universidades começaram a investir pesadamente em sistemas de deteção de IA — ferramentas que identificam, com precisão surpreendente, quando um texto foi gerado ou fortemente assistido por inteligência artificial.

A conversa sobre limites do uso de IA não é apenas local — é global. O Guia da UNESCO para IA Generativa na Educação e Pesquisa estabelece princípios que todas as instituições estão a adotar: agência humana (o ser humano deve manter controlo sobre o processo criativo), validação (todo conteúdo gerado por IA deve ser verificado), transparência (o uso deve ser declarado explicitamente) e privacidade (dados sensíveis não devem ser inseridos em ferramentas de IA).

Se quer entender melhor as regras específicas sobre ChatGPT na tese e o uso permitido em 2025, recomendo ler o nosso guia detalhado.

Por Que Ultrapassar os Limites da IA Pode Custar a Sua Aprovação

Vou ser direto: as consequências de ultrapassar os limites do uso de IA na produção de teses académicas nunca foram tão severas. Isto não é alarmismo — é a realidade de 2025.

Representação visual de sistemas de deteção de conteúdo gerado por IA em trabalhos académicos

Lembra-se quando era “impossível” detetar plágio? Depois veio o Turnitin e mudou tudo. Estamos a viver exatamente o mesmo fenómeno com a deteção de IA. Ferramentas como Turnitin AI Detection, GPTZero, Originality.ai e Copyleaks conseguem identificar padrões característicos de texto gerado por IA com taxas de precisão que ultrapassam os 90%. As universidades estão a usá-las.

Para entender como funcionam estes sistemas, consulte o nosso artigo sobre deteção de IA na tese e os erros que podem reprová-lo.

Permita-me partilhar dois casos que ilustram a gravidade da situação. Um estudante de mestrado em Marketing numa universidade portuguesa usou o ChatGPT para escrever toda a revisão de literatura. O orientador notou inconsistências de estilo e submeteu o texto a análise. Resultado: teve de refazer o capítulo inteiro e a defesa foi adiada seis meses.

Noutro caso, uma doutoranda brasileira incluiu referências bibliográficas sugeridas pela IA sem verificar. Das 47 referências citadas, doze simplesmente não existiam. O trabalho foi anulado por falsificação académica.

Estes não são casos isolados. São a nova normalidade.

Os orientadores e membros das bancas examinadoras estão mais atentos do que nunca. Começaram a fazer perguntas específicas durante as defesas: “Pode explicar-me o processo de escrita deste capítulo?”, “Utilizou alguma ferramenta de IA? Se sim, de que forma?”, “Como chegou a esta análise específica?”

De acordo com as recomendações da Elsevier: “Os autores são totalmente responsáveis pela precisão e originalidade do conteúdo, mesmo quando usam ferramentas de IA assistida.”

Os 5 Erros com IA na Tese que Podem Reprovar o Seu Trabalho

Chegámos ao coração deste artigo. Estes são os erros que estão a reprovar teses em universidades de língua portuguesa. Se reconhecer algum deles no seu processo de trabalho, não entre em pânico — vou mostrar-lhe como corrigir cada um.

Erro #1 — Usar IA Para Escrever Partes Inteiras Sem Revisão Crítica

Este é o erro mais comum e o mais perigoso. Entendo porque acontece: está sob pressão, o prazo aproxima-se, e o ChatGPT oferece uma “solução rápida” para aquele capítulo bloqueante.

Quando delega capítulos completos a uma ferramenta de IA, está a produzir texto genérico e sem voz autoral própria, com padrões linguísticos característicos de IA (detetáveis), que não reflete o seu percurso de pensamento e investigação.

Uma tese não é apenas sobre “ter um texto” — é sobre demonstrar que você desenvolveu pensamento crítico sobre um tema. As inconsistências de estilo entre partes escritas por si e partes geradas por IA são facilmente identificáveis por orientadores experientes.

A solução: use IA apenas para brainstorming e estruturação inicial de ideias, reescreva sempre o conteúdo com as suas próprias palavras, pergunte-se constantemente se o parágrafo reflete o seu pensamento ou o da máquina, e mantenha notas que documentem o seu processo de reflexão.

Para mais detalhes, consulte o nosso guia sobre erros fatais ao usar IA na tese.

Erro #2 — Não Declarar o Uso de Ferramentas de IA

Imagine esta situação: usou o ChatGPT para melhorar a fluência de alguns parágrafos, gerar ideias de estrutura, ou traduzir algumas fontes. Nada de “grave”, certo? Mas não mencionou isso em lugar algum.

A omissão do uso de IA, mesmo para tarefas “menores”, é considerada uma violação ética grave por praticamente todas as normas académicas atuais. Não importa se usou “pouco” ou “muito” — o que importa é a transparência.

O ICMJE estabelece que a IA não pode ser listada como autora e todo uso deve ser declarado de forma explícita. A falta de transparência pode ser interpretada como tentativa de enganar.

Inclua uma secção na metodologia intitulada “Uso de Ferramentas de Apoio”, descreva exatamente como a IA foi utilizada, siga o formato específico exigido pela sua instituição e, na dúvida, declare — a transparência nunca vai prejudicá-lo.

Aprofunde este tema no artigo sobre erros de transparência com IA que reprovam estudantes.

Ilustração do conceito de referências bibliográficas falsas geradas por IA, conhecidas como alucinações

Erro #3 — Confiar em Referências Bibliográficas Geradas pela IA

Este erro pode parecer técnico, mas é absolutamente devastador. As ferramentas de IA generativa têm uma tendência bem documentada para “inventar” referências — um fenómeno chamado alucinação. O ChatGPT pode sugerir-lhe um artigo com título convincente, autores que parecem reais, e uma revista credível. O único problema? O artigo não existe.

Estudos mostram que até 30% das referências geradas por modelos de linguagem podem ser parcial ou totalmente fabricadas. Incluir referências inexistentes constitui falsificação académica — um dos caminhos mais rápidos para a anulação de um trabalho.

Nunca utilize referências sugeridas pela IA sem verificação. Confirme cada fonte em bases de dados fiáveis: Google Scholar, Scopus, Web of Science, RCAAP. Use a IA apenas para sugerir termos de busca ou áreas temáticas — não as referências em si.

Descubra como usar a IA de forma segura no guia Como Usar IA Para Escrever Tese Sem Plágio.

Erro #4 — Substituir Análise Crítica por Outputs Automatizados

A análise crítica é a essência de uma tese. É exatamente isso que distingue um trabalho de mestrado ou doutoramento de um relatório técnico.

Pedir à IA para “analisar” os seus dados, “interpretar” os seus resultados ou “discutir” as suas descobertas é delegar a parte mais importante do trabalho. Quando copia essas interpretações sem adicionar a sua própria perspetiva, está a entregar a autoria intelectual a uma máquina.

Orientadores e bancas conseguem identificar análises superficiais ou genéricas. Quando confrontado com perguntas sobre as suas conclusões, o estudante que delegou a análise à IA não consegue responder de forma convincente.

As Recomendações da UFMG são explícitas: “A responsabilidade pela análise, interpretação e conclusões é integralmente do autor humano.”

Use IA para organizar dados ou criar visualizações — nunca para interpretá-los. Desenvolva o seu framework analítico antes de usar qualquer ferramenta. Para cada conclusão, pergunte: “Esta interpretação é minha ou da máquina?”

Explore este tema no artigo sobre erros de ética com IA na tese.

Erro #5 — Ignorar as Políticas Específicas da Sua Universidade

Este é o erro “silencioso” — aquele que muitos cometem por desinformação, assumindo que “se não é explicitamente proibido, é permitido”.

Cada universidade, cada faculdade, e por vezes cada programa, tem regras próprias sobre uso de IA. Estas regras variam dramaticamente: algumas instituições proíbem totalmente o uso de IA generativa, outras permitem apenas para tarefas específicas, muitas exigem declaração detalhada.

“Não sabia” não é uma defesa válida. Quando submete uma tese, assume implicitamente que conhece e cumpre todas as normas. Consulte o regulamento específico antes de começar, pergunte diretamente ao orientador sobre as expectativas, documente a comunicação sobre o tema, e quando a política for ambígua, opte pela opção mais conservadora.

Para uma abordagem completa, consulte o Checklist de Limites de IA na Tese.

O Que as Normas Internacionais Estão a Exigir

As principais organizações académicas já estabeleceram diretrizes claras. O ICMJE determina que a IA não pode ser listada como autora, o disclosure é obrigatório, e os humanos são responsáveis por toda a verificação. A Elsevier exige responsabilidade humana total e proíbe uso de IA para gerar imagens científicas. A UNESCO estabelece que princípios de agência humana, validação institucional e transparência devem guiar qualquer uso de IA na educação.

Com base nas tendências atuais, podemos antecipar regulamentação mais rigorosa até 2026, com todas as universidades públicas a terem políticas explícitas, declaração obrigatória universal, sistemas de deteção mais sofisticados, e formação específica sobre uso ético de IA.

A melhor estratégia não é temer a IA — é aprender a usá-la de forma que fortaleça as suas competências. Desenvolva capacidades de escrita própria, documente o seu processo com rascunhos e notas, e mantenha-se atualizado sobre as políticas da sua instituição.

🎬 Recurso em Vídeo: Para aprofundar este tema, recomendo a palestra “IA Generativa na Escrita Acadêmica”, ministrada por Luciana Mara Silva na UDESC:

Checklist Prático — Como Usar IA Sem Risco de Reprovação

Antes de submeter a sua tese, passe por esta checklist. Se conseguir marcar todos os pontos com confiança, está no caminho certo.

Checklist visual para uso seguro e ético de IA em trabalhos académicos

☑️ Usei IA apenas para brainstorming e organização inicial
☑️ Reescrevi todo o conteúdo com as minhas próprias palavras
☑️ Verifiquei 100% das referências em bases de dados fiáveis
☑️ Declarei o uso de IA na metodologia
☑️ Consultei as políticas específicas da minha universidade
☑️ Discuti o uso de IA com o meu orientador
☑️ Toda a análise crítica é genuinamente minha
☑️ Guardei documentação do processo de escrita
☑️ Consigo explicar qualquer parte do trabalho na defesa

Para uma checklist mais detalhada: Limites de IA na Tese: Checklist Para Não Ser Reprovado.

Proteja Meses de Trabalho

Os cinco erros que podem reprovar a sua tese são: usar IA para escrever partes inteiras sem revisão crítica, não declarar o uso de ferramentas de IA, confiar em referências geradas pela IA, substituir análise crítica por outputs automatizados, e ignorar as políticas específicas da universidade.

A IA pode ser uma aliada poderosa na sua jornada académica — mas apenas se souber usá-la dentro dos limites éticos e institucionais. A diferença entre um estudante que aprova e um que reprova muitas vezes não está na qualidade da investigação, mas na forma como utilizou (ou abusou) das ferramentas disponíveis.

Agora tem o conhecimento. O próximo passo é seu.