Imagina isto: passaste semanas a trabalhar na tua dissertação, usaste o ChatGPT “apenas para organizar ideias” e, de repente, recebes um e-mail do teu orientador. O assunto? “Convocatória urgente — suspeita de uso indevido de IA.”
Parece exagero? Pois bem, em 2025, este cenário tornou-se assustadoramente comum. Os limites do uso de IA em teses acadêmicas deixaram de ser uma discussão teórica para se tornarem numa realidade que pode determinar se terminas o teu curso ou não.
E aqui está o problema que ninguém te conta: as regras não são claras, não são universais e mudam mais rápido do que consegues acompanhar.
Segundo dados recentes, mais de 65% dos estudantes de pós-graduação já utilizaram alguma forma de IA generativa no seu trabalho académico. Mas quantos sabem realmente onde está a linha vermelha? Quantos compreendem que os limites não são apenas técnicos ou éticos — são invisíveis, mutáveis e frequentemente contraditórios?
O que são os limites do uso de IA em teses acadêmicas?
Os limites do uso de IA em teses acadêmicas referem-se às fronteiras éticas, técnicas e institucionais que determinam o que é aceitável na utilização de ferramentas de inteligência artificial generativa (como ChatGPT, Claude ou Copilot) no processo de elaboração de dissertações e teses. Estes limites incluem: (1) a preservação da autoria intelectual humana, (2) a transparência e declaração do uso, (3) a verificação de informações geradas, (4) o cumprimento das políticas específicas de cada instituição, e (5) o respeito pelas diretrizes de integridade acadêmica. Em 2025, estes limites estão em constante evolução e variam significativamente entre universidades, países e áreas de conhecimento.
Neste artigo, vou revelar-te as zonas cinzentas que orientadores, regulamentos e até colegas evitam discutir. Vais descobrir como funcionam realmente os detectores de IA, o que as editoras científicas exigem, e — talvez o mais importante — como proteger-te sem comprometer a tua integridade.
Preparado para a verdade que ninguém quer contar? Continua a ler.
👉 Para uma visão prática e operacional, consulta também o nosso Checklist de Limites de IA na Tese para não ser reprovado.

O Contexto Atual — Como Chegámos Aqui em 2025
Para compreenderes verdadeiramente os limites da IA na tese, precisas de perceber como chegámos a este ponto. A história é mais curta — e mais intensa — do que possas imaginar.
A Explosão do ChatGPT e a Reação das Universidades (2023-2025)
Lembras-te de novembro de 2022? O ChatGPT apareceu e, em semanas, o mundo académico entrou em pânico. As universidades, apanhadas de surpresa, reagiram de formas completamente distintas.
A timeline foi mais ou menos assim:
- 2023: Pânico inicial. Algumas instituições proíbem completamente, outras ignoram o fenómeno.
- 2024: Políticas provisórias e experimentais. “Pode usar, mas tem de declarar” torna-se o mantra.
- 2025: Regulamentação formal começa a cristalizar-se, mas com enormes diferenças entre instituições.
Em Portugal, universidades como a Universidade de Lisboa e a Universidade do Porto desenvolveram diretrizes próprias, enquanto outras ainda navegam em águas turvas. No Brasil, a situação é igualmente fragmentada — algumas instituições lideram com políticas claras, outras fingem que o problema não existe.
O resultado? Uma manta de retalhos normativa que deixa estudantes confusos e vulneráveis.
O Que Dizem as Diretrizes Internacionais
Se procuras uma bússola fiável, as orientações da UNESCO sobre IA generativa na educação e investigação são um ponto de partida sólido.
“AI should support, not substitute, human agency and critical thinking in education and research.”
— UNESCO Guidance for Generative AI in Education and Research, 2025
Os princípios-chave são claros: agência humana (a IA apoia, não substitui), transparência (declarar sempre o uso), governança (regras claras e aplicáveis) e privacidade (proteção de dados sensíveis).
Parece simples, certo? O problema é que a implementação destes princípios varia drasticamente de instituição para instituição.
As Regras das Editoras Científicas que Afetam a Tua Tese
Aqui está algo que muitos estudantes desconhecem: se pretendes publicar artigos a partir da tua tese (e deverias!), as políticas das editoras científicas aplicam-se diretamente ao teu trabalho.
A Elsevier, uma das maiores editoras científicas do mundo, atualizou a sua política em outubro de 2025 com regras bastante específicas:
- IA não pode ser coautora — a responsabilidade total é do autor humano
- Obrigatoriedade de disclosure — tens de declarar qualquer uso de IA na escrita
- Verificação obrigatória — referências geradas por IA devem ser verificadas manualmente
- Cuidado com confidencialidade — dados sensíveis não devem ser inseridos em ferramentas de IA
📚 Fonte oficial: Elsevier Policy on AI-Assisted Technologies in Writing
O Cenário Lusófono — Diretrizes em Portugal e Brasil
No contexto de língua portuguesa, algumas instituições já se destacam pela clareza das suas diretrizes.
A PUC-SP, através do seu periódico Qualis A1, publicou diretrizes explícitas que servem de referência para todo o Brasil. Os princípios são claros: transparência total, autoria humana preservada, e responsabilidade integral do autor por qualquer conteúdo gerado com assistência de IA.
📖 Referência académica lusófona: PUC-SP — Diretrizes para Uso de IA
Em Portugal, a situação ainda é mais fluida. Muitas universidades estão em processo de adaptação, e a avaliação de teses com uso de IA pela FCT ainda carece de diretrizes uniformes. O conselho? Não assumas que “se não está proibido, é permitido” — isso pode custar-te a tese.
A Tendência Que Está a Mudar Tudo — O Paradoxo da Transparência
Agora chegamos ao que considero o aspeto mais fascinante — e problemático — dos limites da IA em teses académicas em 2025: o paradoxo da transparência.

Declarar ou Não Declarar? O Dilema de 2025
Imagina este cenário: usaste o ChatGPT para estruturar ideias iniciais de um capítulo. O texto final é completamente teu, reescrito várias vezes, mas a semente veio de uma sugestão da IA.
Declaras ou não declaras?
Se declaras, arriscas que a tua banca — especialmente orientadores de gerações anteriores — olhe para o teu trabalho com desconfiança. “Se usou IA, será que o pensamento é realmente dele?”
Se não declaras, comprometes a tua integridade académica. E se descobrirem depois?
Este é o paradoxo da transparência que o SciELO analisou num artigo revelador de 2025:
A transparência no uso de IA generativa pode, paradoxalmente, afetar a credibilidade percebida do investigador, criando um dilema entre integridade e reputação.
— SciELO — La paradoja de la transparencia en el uso de la IA generativa
A minha recomendação? Declara sempre. A integridade vale mais do que qualquer perceção momentânea. Mas fá-lo de forma estratégica — documenta o teu processo, mostra evolução, prova que o pensamento é teu.
🔍 Sobre como navegar esta questão com o teu orientador e banca, lê o nosso guia completo sobre Transparência no Uso de IA em Contexto Académico.
A Corrida Armamentista — Detectores vs. Bypassers
Falemos agora do elefante na sala: os detectores de IA.
O Turnitin, GPTZero e outras ferramentas prometem identificar texto gerado por IA. Mas aqui está a verdade inconveniente: nenhum detector é prova absoluta.
Em abril de 2025, o Turnitin atualizou o seu modelo para detetar ferramentas de “AI bypassing” — programas desenhados especificamente para enganar detectores. Mas a corrida armamentista continua, e ambos os lados estão em constante evolução.
Os problemas são múltiplos:
- Falsos positivos: texto genuinamente humano marcado como IA
- Falsos negativos: texto gerado por IA que passa despercebido
- Variabilidade: resultados diferentes para o mesmo texto em momentos diferentes
📊 Fonte técnica: Turnitin — AI Writing Detection Model

Como Funciona a Deteção de IA do Turnitin na Prática
Para compreenderes melhor como estes sistemas funcionam (e onde falham), vale a pena ver esta demonstração oficial do Turnitin:
Ver no site oficial
⚠️ Atenção: O relatório do detector não é evidência única nem definitiva. Mantém sempre uma trilha de revisão (rascunhos, notas, histórico de versões) para comprovar o teu processo de escrita.
O Que Ninguém Te Conta — 5 Limites Invisíveis da IA na Tese
Agora sim, vamos ao que realmente interessa: os limites que ninguém discute abertamente mas que podem determinar o sucesso ou fracasso da tua tese.
1. O Limite da Autoria Intelectual (Não É Sobre Plágio)
Este é talvez o limite mais subtil e mais importante de todos.
Plágio tradicional é copiar texto de outra fonte. Mas e quando o texto é tecnicamente original — nunca existiu antes — mas não foi tu que o pensaste?
Imagina que pedes ao ChatGPT para “desenvolver uma análise crítica sobre a teoria X aplicada ao contexto Y”. A IA produz um texto coerente, bem estruturado, com argumentos válidos. Tu copias, fazes pequenos ajustes, e submetes.
O texto não é plágio. Mas é autoria intelectual tua? A contribuição genuína para o conhecimento veio de ti?
A armadilha é esta: podes ter um texto original sem teres uma contribuição intelectual genuína. E isso, em muitas instituições, é tão grave quanto plágio.
2. O Limite das “Alucinações” — Referências Fantasma
As chamadas “alucinações” da IA são um problema sério que muitos estudantes subestimam.
O ChatGPT e outras ferramentas de IA generativa inventam citações e fontes com uma aparência assustadoramente legítima. Nomes de autores reais, títulos que parecem credíveis, até números de páginas e DOIs — tudo completamente fabricado.
Em 2025, foram documentados casos de estudantes que tiveram teses rejeitadas por incluírem dezenas de referências que simplesmente não existiam.
A estratégia? Verificação cruzada obrigatória. Cada referência sugerida pela IA deve ser verificada manualmente. Não há atalhos aqui.
3. O Limite Institucional — Cada Universidade, Uma Regra
Lembras-te da manta de retalhos normativa que mencionei? Aqui está o problema prático.
O que é permitido na Universidade Nova de Lisboa pode ser proibido na Universidade do Porto. O que a UFMG aceita pode levar à reprovação na USP. As regras variam não só entre instituições, mas muitas vezes entre departamentos da mesma universidade.
Como descobrir as regras específicas do teu programa?
- Consulta o regulamento académico do teu curso (versão mais recente!)
- Pergunta diretamente ao teu orientador — por escrito
- Contacta a secretaria do programa de pós-graduação
- Verifica se existem diretrizes publicadas no site da faculdade
O risco de assumir que “se não está proibido, é permitido” é enorme. Não o faças.
4. O Limite Ético — O Que a Tua Banca Pensa (Mas Não Diz)
Aqui está uma verdade desconfortável: a maioria dos teus avaliadores cresceu num mundo sem IA.
Professores com 50 ou 60 anos escreveram as suas teses à máquina de escrever. Para eles, cada frase era conquistada com esforço, cada parágrafo representava horas de trabalho. A ideia de que uma máquina pode “ajudar a pensar” é, no mínimo, estranha.
Isto cria um viés implícito na avaliação que raramente é verbalizado. Se declarares uso de IA, alguns membros da banca podem questionar — conscientemente ou não — a legitimidade do teu esforço.
Como proteger-te? Mostra o teu processo. Apresenta rascunhos, versões anteriores, notas de reflexão. Prova que pensaste, mesmo que tenhas usado ferramentas para ajudar na execução.
5. O Limite da Competência — O Que Deixas de Aprender
Este é o limite mais insidioso de todos, porque os seus efeitos só se manifestam depois.
Quando usas IA para evitar o esforço de pensar, atrofias competências que precisarás para sempre:
- Capacidade de síntese e análise crítica
- Escrita argumentativa clara e coerente
- Gestão de informação e organização de ideias
- Resiliência perante bloqueios criativos
O paradoxo é cruel: a IA funciona como uma bengala que te impede de aprender a andar. Chegas ao fim da tese, mas não desenvolveste as competências que a tese deveria desenvolver.
⚠️ Para evitar os erros mais graves, consulta o nosso artigo sobre Erros Fatais ao Usar IA na Tese.
Previsões Para 2025-2027 — Para Onde Vão os Limites da IA Académica
Olhando para o futuro próximo, consigo identificar três tendências que vão moldar os limites da IA em contexto académico.
Regulamentação Mais Rigorosa (e Fragmentada)
A tendência clara é para a formalização de políticas. Cada vez mais universidades vão ter regulamentos explícitos sobre uso de IA em trabalhos académicos.
O problema? A fragmentação. Enquanto a União Europeia avança com o AI Act, países da CPLP seguem caminhos próprios. O resultado será uma paisagem normativa ainda mais complexa de navegar.
Ferramentas de Verificação Mais Sofisticadas
Os detectores de IA vão evoluir significativamente. Mas o mais interessante são as novas abordagens que estão a surgir:
- Certificados de autoria humana — documentação que prova o processo de escrita
- Blockchain para rastreio — registo imutável de versões e alterações
- Análise estilométrica avançada — comparação com textos anteriores do mesmo autor
Nova Literacia Académica — Usar IA Como Competência Exigida
Aqui está a mudança mais profunda que prevejo: a transição de “proibir IA” para “ensinar a usar bem”.
Em 2027, antecipo que disciplinas de “AI Literacy” serão comuns em programas de pós-graduação. O investigador do futuro não será aquele que evita a IA, mas aquele que sabe utilizá-la de forma ética, crítica e produtiva.
O perfil valorizado será: competência técnica + integridade + pensamento crítico.
Como Usar IA na Tese Dentro dos Limites — Guia Prático
Depois de tanta análise, vamos ao que é prático. O que podes e não podes fazer?

O Que Podes Fazer (Zona Verde)
| Uso | Exemplo | Cuidados |
|---|---|---|
| Brainstorming | Gerar ideias iniciais para capítulos | Documenta que foram apenas pontos de partida |
| Revisão linguística | Correção gramatical e ortográfica | Mantém versões anteriores |
| Síntese exploratória | Resumos de literatura para triagem | Verifica cada fonte citada |
| Tradução assistida | Traduzir artigos para leitura | Nunca usar tradução direta na tese |
O Que Deves Evitar (Zona Vermelha)
| Uso Problemático | Por Quê | Consequência Potencial |
|---|---|---|
| Geração de texto final | Ausência de autoria intelectual | Reprovação/anulação |
| Citações sem verificação | Alucinações da IA | Perda de credibilidade |
| Análise de dados sensíveis | Privacidade/RGPD | Violação ética |
| Esconder o uso | Falta de integridade | Sanções disciplinares |
A Estratégia da Trilha de Revisão
A melhor forma de proteger-te é documentar o teu processo de escrita. Aqui está como:
- Guarda todos os rascunhos — cada versão, por mais imperfeita que seja
- Usa controlo de versões — Google Docs ou ferramentas similares mantêm histórico automático
- Anota as tuas decisões — um diário de investigação ajuda a provar o teu processo de pensamento
- Separa claramente — mantém ficheiros distintos para input de IA e output final teu
Se algum dia questionarem a autoria do teu trabalho, terás provas concretas do teu percurso intelectual.
Conclusão — Navegar os Limites Sem Perder o Rumo
Os limites da IA na tese em 2025 são reais, complexos e em constante mutação. Mas não precisam de ser uma fonte de ansiedade paralisante.
O segredo está em três pilares:
- Informação — conhece as regras específicas da tua instituição
- Transparência — declara o que usas, documenta como usas
- Autoria — mantém sempre o pensamento crítico como teu
A IA é uma ferramenta poderosa. Como qualquer ferramenta, pode construir ou destruir — depende de quem a usa e como.
A tua tese é mais do que um documento: é prova do teu crescimento intelectual, da tua capacidade de pensar de forma rigorosa e original. Não deixes que a pressa ou a facilidade comprometam isso.
Usa a IA como aliada, não como substituta. E quando tiveres dúvidas, escolhe sempre a integridade.
💡 Próximo passo recomendado:
Consulta o nosso Checklist de Limites de IA na Tese para garantires que estás do lado certo da linha.




Leave a Reply