Estudante universitário a analisar os limites éticos do uso de inteligência artificial na elaboração da tese académica em 2025
, ,

Limite da IA na Tese: O Que Ninguém Te Conta em 2025

Tesify Avatar

5 min de leitura

Imagina isto: passaste semanas a trabalhar na tua dissertação, usaste o ChatGPT “apenas para organizar ideias” e, de repente, recebes um e-mail do teu orientador. O assunto? “Convocatória urgente — suspeita de uso indevido de IA.”

Parece exagero? Pois bem, em 2025, este cenário tornou-se assustadoramente comum. Os limites do uso de IA em teses acadêmicas deixaram de ser uma discussão teórica para se tornarem numa realidade que pode determinar se terminas o teu curso ou não.

E aqui está o problema que ninguém te conta: as regras não são claras, não são universais e mudam mais rápido do que consegues acompanhar.

Segundo dados recentes, mais de 65% dos estudantes de pós-graduação já utilizaram alguma forma de IA generativa no seu trabalho académico. Mas quantos sabem realmente onde está a linha vermelha? Quantos compreendem que os limites não são apenas técnicos ou éticos — são invisíveis, mutáveis e frequentemente contraditórios?

O que são os limites do uso de IA em teses acadêmicas?

Os limites do uso de IA em teses acadêmicas referem-se às fronteiras éticas, técnicas e institucionais que determinam o que é aceitável na utilização de ferramentas de inteligência artificial generativa (como ChatGPT, Claude ou Copilot) no processo de elaboração de dissertações e teses. Estes limites incluem: (1) a preservação da autoria intelectual humana, (2) a transparência e declaração do uso, (3) a verificação de informações geradas, (4) o cumprimento das políticas específicas de cada instituição, e (5) o respeito pelas diretrizes de integridade acadêmica. Em 2025, estes limites estão em constante evolução e variam significativamente entre universidades, países e áreas de conhecimento.

Neste artigo, vou revelar-te as zonas cinzentas que orientadores, regulamentos e até colegas evitam discutir. Vais descobrir como funcionam realmente os detectores de IA, o que as editoras científicas exigem, e — talvez o mais importante — como proteger-te sem comprometer a tua integridade.

Preparado para a verdade que ninguém quer contar? Continua a ler.

👉 Para uma visão prática e operacional, consulta também o nosso Checklist de Limites de IA na Tese para não ser reprovado.


Ilustração representando os limites entre inteligência artificial e trabalho académico, com símbolos de graduação e tecnologia separados por uma linha divisória

O Contexto Atual — Como Chegámos Aqui em 2025

Para compreenderes verdadeiramente os limites da IA na tese, precisas de perceber como chegámos a este ponto. A história é mais curta — e mais intensa — do que possas imaginar.

A Explosão do ChatGPT e a Reação das Universidades (2023-2025)

Lembras-te de novembro de 2022? O ChatGPT apareceu e, em semanas, o mundo académico entrou em pânico. As universidades, apanhadas de surpresa, reagiram de formas completamente distintas.

A timeline foi mais ou menos assim:

  • 2023: Pânico inicial. Algumas instituições proíbem completamente, outras ignoram o fenómeno.
  • 2024: Políticas provisórias e experimentais. “Pode usar, mas tem de declarar” torna-se o mantra.
  • 2025: Regulamentação formal começa a cristalizar-se, mas com enormes diferenças entre instituições.

Em Portugal, universidades como a Universidade de Lisboa e a Universidade do Porto desenvolveram diretrizes próprias, enquanto outras ainda navegam em águas turvas. No Brasil, a situação é igualmente fragmentada — algumas instituições lideram com políticas claras, outras fingem que o problema não existe.

O resultado? Uma manta de retalhos normativa que deixa estudantes confusos e vulneráveis.

O Que Dizem as Diretrizes Internacionais

Se procuras uma bússola fiável, as orientações da UNESCO sobre IA generativa na educação e investigação são um ponto de partida sólido.

“AI should support, not substitute, human agency and critical thinking in education and research.”

UNESCO Guidance for Generative AI in Education and Research, 2025

Os princípios-chave são claros: agência humana (a IA apoia, não substitui), transparência (declarar sempre o uso), governança (regras claras e aplicáveis) e privacidade (proteção de dados sensíveis).

Parece simples, certo? O problema é que a implementação destes princípios varia drasticamente de instituição para instituição.

As Regras das Editoras Científicas que Afetam a Tua Tese

Aqui está algo que muitos estudantes desconhecem: se pretendes publicar artigos a partir da tua tese (e deverias!), as políticas das editoras científicas aplicam-se diretamente ao teu trabalho.

A Elsevier, uma das maiores editoras científicas do mundo, atualizou a sua política em outubro de 2025 com regras bastante específicas:

  • IA não pode ser coautora — a responsabilidade total é do autor humano
  • Obrigatoriedade de disclosure — tens de declarar qualquer uso de IA na escrita
  • Verificação obrigatória — referências geradas por IA devem ser verificadas manualmente
  • Cuidado com confidencialidade — dados sensíveis não devem ser inseridos em ferramentas de IA

📚 Fonte oficial: Elsevier Policy on AI-Assisted Technologies in Writing

O Cenário Lusófono — Diretrizes em Portugal e Brasil

No contexto de língua portuguesa, algumas instituições já se destacam pela clareza das suas diretrizes.

A PUC-SP, através do seu periódico Qualis A1, publicou diretrizes explícitas que servem de referência para todo o Brasil. Os princípios são claros: transparência total, autoria humana preservada, e responsabilidade integral do autor por qualquer conteúdo gerado com assistência de IA.

📖 Referência académica lusófona: PUC-SP — Diretrizes para Uso de IA

Em Portugal, a situação ainda é mais fluida. Muitas universidades estão em processo de adaptação, e a avaliação de teses com uso de IA pela FCT ainda carece de diretrizes uniformes. O conselho? Não assumas que “se não está proibido, é permitido” — isso pode custar-te a tese.


A Tendência Que Está a Mudar Tudo — O Paradoxo da Transparência

Agora chegamos ao que considero o aspeto mais fascinante — e problemático — dos limites da IA em teses académicas em 2025: o paradoxo da transparência.

Ilustração mostrando uma pessoa numa encruzilhada entre transparência e incerteza no uso de IA académica

Declarar ou Não Declarar? O Dilema de 2025

Imagina este cenário: usaste o ChatGPT para estruturar ideias iniciais de um capítulo. O texto final é completamente teu, reescrito várias vezes, mas a semente veio de uma sugestão da IA.

Declaras ou não declaras?

Se declaras, arriscas que a tua banca — especialmente orientadores de gerações anteriores — olhe para o teu trabalho com desconfiança. “Se usou IA, será que o pensamento é realmente dele?”

Se não declaras, comprometes a tua integridade académica. E se descobrirem depois?

Este é o paradoxo da transparência que o SciELO analisou num artigo revelador de 2025:

A transparência no uso de IA generativa pode, paradoxalmente, afetar a credibilidade percebida do investigador, criando um dilema entre integridade e reputação.

SciELO — La paradoja de la transparencia en el uso de la IA generativa

A minha recomendação? Declara sempre. A integridade vale mais do que qualquer perceção momentânea. Mas fá-lo de forma estratégica — documenta o teu processo, mostra evolução, prova que o pensamento é teu.

🔍 Sobre como navegar esta questão com o teu orientador e banca, lê o nosso guia completo sobre Transparência no Uso de IA em Contexto Académico.

A Corrida Armamentista — Detectores vs. Bypassers

Falemos agora do elefante na sala: os detectores de IA.

O Turnitin, GPTZero e outras ferramentas prometem identificar texto gerado por IA. Mas aqui está a verdade inconveniente: nenhum detector é prova absoluta.

Em abril de 2025, o Turnitin atualizou o seu modelo para detetar ferramentas de “AI bypassing” — programas desenhados especificamente para enganar detectores. Mas a corrida armamentista continua, e ambos os lados estão em constante evolução.

Os problemas são múltiplos:

  • Falsos positivos: texto genuinamente humano marcado como IA
  • Falsos negativos: texto gerado por IA que passa despercebido
  • Variabilidade: resultados diferentes para o mesmo texto em momentos diferentes

📊 Fonte técnica: Turnitin — AI Writing Detection Model

Processo de verificação e deteção de IA em documentos académicos
Representação do processo de análise e verificação de conteúdo por detectores de IA

Como Funciona a Deteção de IA do Turnitin na Prática

Para compreenderes melhor como estes sistemas funcionam (e onde falham), vale a pena ver esta demonstração oficial do Turnitin:

Vídeo: Demonstração da capacidade de deteção de escrita por IA do Turnitin.
Ver no site oficial

⚠️ Atenção: O relatório do detector não é evidência única nem definitiva. Mantém sempre uma trilha de revisão (rascunhos, notas, histórico de versões) para comprovar o teu processo de escrita.


O Que Ninguém Te Conta — 5 Limites Invisíveis da IA na Tese

Agora sim, vamos ao que realmente interessa: os limites que ninguém discute abertamente mas que podem determinar o sucesso ou fracasso da tua tese.

1. O Limite da Autoria Intelectual (Não É Sobre Plágio)

Este é talvez o limite mais subtil e mais importante de todos.

Plágio tradicional é copiar texto de outra fonte. Mas e quando o texto é tecnicamente original — nunca existiu antes — mas não foi tu que o pensaste?

Imagina que pedes ao ChatGPT para “desenvolver uma análise crítica sobre a teoria X aplicada ao contexto Y”. A IA produz um texto coerente, bem estruturado, com argumentos válidos. Tu copias, fazes pequenos ajustes, e submetes.

O texto não é plágio. Mas é autoria intelectual tua? A contribuição genuína para o conhecimento veio de ti?

A armadilha é esta: podes ter um texto original sem teres uma contribuição intelectual genuína. E isso, em muitas instituições, é tão grave quanto plágio.

2. O Limite das “Alucinações” — Referências Fantasma

As chamadas “alucinações” da IA são um problema sério que muitos estudantes subestimam.

O ChatGPT e outras ferramentas de IA generativa inventam citações e fontes com uma aparência assustadoramente legítima. Nomes de autores reais, títulos que parecem credíveis, até números de páginas e DOIs — tudo completamente fabricado.

Em 2025, foram documentados casos de estudantes que tiveram teses rejeitadas por incluírem dezenas de referências que simplesmente não existiam.

A estratégia? Verificação cruzada obrigatória. Cada referência sugerida pela IA deve ser verificada manualmente. Não há atalhos aqui.

3. O Limite Institucional — Cada Universidade, Uma Regra

Lembras-te da manta de retalhos normativa que mencionei? Aqui está o problema prático.

O que é permitido na Universidade Nova de Lisboa pode ser proibido na Universidade do Porto. O que a UFMG aceita pode levar à reprovação na USP. As regras variam não só entre instituições, mas muitas vezes entre departamentos da mesma universidade.

Como descobrir as regras específicas do teu programa?

  • Consulta o regulamento académico do teu curso (versão mais recente!)
  • Pergunta diretamente ao teu orientador — por escrito
  • Contacta a secretaria do programa de pós-graduação
  • Verifica se existem diretrizes publicadas no site da faculdade

O risco de assumir que “se não está proibido, é permitido” é enorme. Não o faças.

4. O Limite Ético — O Que a Tua Banca Pensa (Mas Não Diz)

Aqui está uma verdade desconfortável: a maioria dos teus avaliadores cresceu num mundo sem IA.

Professores com 50 ou 60 anos escreveram as suas teses à máquina de escrever. Para eles, cada frase era conquistada com esforço, cada parágrafo representava horas de trabalho. A ideia de que uma máquina pode “ajudar a pensar” é, no mínimo, estranha.

Isto cria um viés implícito na avaliação que raramente é verbalizado. Se declarares uso de IA, alguns membros da banca podem questionar — conscientemente ou não — a legitimidade do teu esforço.

Como proteger-te? Mostra o teu processo. Apresenta rascunhos, versões anteriores, notas de reflexão. Prova que pensaste, mesmo que tenhas usado ferramentas para ajudar na execução.

5. O Limite da Competência — O Que Deixas de Aprender

Este é o limite mais insidioso de todos, porque os seus efeitos só se manifestam depois.

Quando usas IA para evitar o esforço de pensar, atrofias competências que precisarás para sempre:

  • Capacidade de síntese e análise crítica
  • Escrita argumentativa clara e coerente
  • Gestão de informação e organização de ideias
  • Resiliência perante bloqueios criativos

O paradoxo é cruel: a IA funciona como uma bengala que te impede de aprender a andar. Chegas ao fim da tese, mas não desenvolveste as competências que a tese deveria desenvolver.

⚠️ Para evitar os erros mais graves, consulta o nosso artigo sobre Erros Fatais ao Usar IA na Tese.


Previsões Para 2025-2027 — Para Onde Vão os Limites da IA Académica

Olhando para o futuro próximo, consigo identificar três tendências que vão moldar os limites da IA em contexto académico.

Regulamentação Mais Rigorosa (e Fragmentada)

A tendência clara é para a formalização de políticas. Cada vez mais universidades vão ter regulamentos explícitos sobre uso de IA em trabalhos académicos.

O problema? A fragmentação. Enquanto a União Europeia avança com o AI Act, países da CPLP seguem caminhos próprios. O resultado será uma paisagem normativa ainda mais complexa de navegar.

Ferramentas de Verificação Mais Sofisticadas

Os detectores de IA vão evoluir significativamente. Mas o mais interessante são as novas abordagens que estão a surgir:

  • Certificados de autoria humana — documentação que prova o processo de escrita
  • Blockchain para rastreio — registo imutável de versões e alterações
  • Análise estilométrica avançada — comparação com textos anteriores do mesmo autor

Nova Literacia Académica — Usar IA Como Competência Exigida

Aqui está a mudança mais profunda que prevejo: a transição de “proibir IA” para “ensinar a usar bem”.

Em 2027, antecipo que disciplinas de “AI Literacy” serão comuns em programas de pós-graduação. O investigador do futuro não será aquele que evita a IA, mas aquele que sabe utilizá-la de forma ética, crítica e produtiva.

O perfil valorizado será: competência técnica + integridade + pensamento crítico.


Como Usar IA na Tese Dentro dos Limites — Guia Prático

Depois de tanta análise, vamos ao que é prático. O que podes e não podes fazer?

Guia visual de práticas aceitáveis e a evitar no uso de IA em trabalhos académicos
Zona verde (aceitável) vs. zona vermelha (evitar) no uso de IA académica

O Que Podes Fazer (Zona Verde)

Uso Exemplo Cuidados
Brainstorming Gerar ideias iniciais para capítulos Documenta que foram apenas pontos de partida
Revisão linguística Correção gramatical e ortográfica Mantém versões anteriores
Síntese exploratória Resumos de literatura para triagem Verifica cada fonte citada
Tradução assistida Traduzir artigos para leitura Nunca usar tradução direta na tese

O Que Deves Evitar (Zona Vermelha)

Uso Problemático Por Quê Consequência Potencial
Geração de texto final Ausência de autoria intelectual Reprovação/anulação
Citações sem verificação Alucinações da IA Perda de credibilidade
Análise de dados sensíveis Privacidade/RGPD Violação ética
Esconder o uso Falta de integridade Sanções disciplinares

A Estratégia da Trilha de Revisão

A melhor forma de proteger-te é documentar o teu processo de escrita. Aqui está como:

  1. Guarda todos os rascunhos — cada versão, por mais imperfeita que seja
  2. Usa controlo de versões — Google Docs ou ferramentas similares mantêm histórico automático
  3. Anota as tuas decisões — um diário de investigação ajuda a provar o teu processo de pensamento
  4. Separa claramente — mantém ficheiros distintos para input de IA e output final teu

Se algum dia questionarem a autoria do teu trabalho, terás provas concretas do teu percurso intelectual.


Conclusão — Navegar os Limites Sem Perder o Rumo

Os limites da IA na tese em 2025 são reais, complexos e em constante mutação. Mas não precisam de ser uma fonte de ansiedade paralisante.

O segredo está em três pilares:

  1. Informação — conhece as regras específicas da tua instituição
  2. Transparência — declara o que usas, documenta como usas
  3. Autoria — mantém sempre o pensamento crítico como teu

A IA é uma ferramenta poderosa. Como qualquer ferramenta, pode construir ou destruir — depende de quem a usa e como.

A tua tese é mais do que um documento: é prova do teu crescimento intelectual, da tua capacidade de pensar de forma rigorosa e original. Não deixes que a pressa ou a facilidade comprometam isso.

Usa a IA como aliada, não como substituta. E quando tiveres dúvidas, escolhe sempre a integridade.

💡 Próximo passo recomendado:

Consulta o nosso Checklist de Limites de IA na Tese para garantires que estás do lado certo da linha.


Leave a Reply

Your email address will not be published. Required fields are marked *