Escreveste 100% da tua tese sozinho, passaste noites em claro a pesquisar, a reformular frases, a sofrer com cada parágrafo… e ainda assim foste sinalizado por IA?
Se achas que isto é um cenário improvável, tenho más notícias. Acontece mais vezes do que imaginas. E o mais assustador? As universidades raramente falam sobre isto.
Deixa-me contar-te algo que vai mudar a forma como olhas para este assunto: a própria OpenAI — sim, os criadores do ChatGPT — descontinuaram o seu classificador de deteção de IA. Porquê? Porque a precisão era tão baixa que gerava mais problemas do que soluções. Estamos a falar de uma ferramenta que acertava em apenas 26% dos casos de texto genuinamente escrito por IA.
Agora pensa nisto por um momento. Se os próprios criadores da tecnologia admitem que não conseguem detetar com precisão o que criam, como é que ferramentas académicas podem afirmar que fazem melhor?
“Due to its low rate of accuracy, we have discontinued the AI classifier…”
A deteção de conteúdo gerado por IA em teses académicas não é ciência exata. É, na melhor das hipóteses, uma estimativa probabilística. Na pior? Um julgamento algorítmico que pode destruir anos do teu trabalho sem direito a defesa justa.
Neste artigo, vou revelar-te as verdades incómodas que universidades e fornecedores de software preferem manter em silêncio. Vais descobrir como funcionam realmente estes sistemas, porque falham com tanta frequência, e — mais importante — como proteger o teu trabalho genuíno de ser injustamente sinalizado.

Se estás a preparar a tua tese e queres navegar este terreno minado com segurança, plataformas como a Tesify podem ser aliadas valiosas nesta jornada. Mas antes de falarmos de soluções, precisas de entender o problema na sua totalidade.
Preparado para descobrir o que realmente está em jogo? Continua a ler.
Como Funciona (Realmente) a Deteção de IA nas Universidades Portuguesas
Antes de entrares em pânico — ou de ficares demasiado confiante — precisas de entender exatamente o que acontece quando submetes a tua tese a um sistema de verificação. Porque, acredita, não é tão simples como uma luz verde ou vermelha.
O Que o Relatório de Similaridade Mede vs. O Que Prova
Aqui está a primeira grande confusão que arrasa estudantes: similaridade não é plágio. E indicação de IA não é prova de fraude.
Quando recebes um relatório do Turnitin ou iThenticate com uma percentagem de 15%, 30% ou mesmo 50%, isso não significa que plagiaste essa quantidade de texto. Significa apenas que o sistema encontrou padrões semelhantes a outros documentos na sua base de dados.
Imagina que escreves uma definição científica perfeitamente correta. “A fotossíntese é o processo pelo qual as plantas convertem luz solar em energia química.” Esta frase vai aparecer em milhares de trabalhos. Significa que a copiaste? Claro que não.
O mesmo princípio aplica-se à deteção de IA. Quando o sistema diz “35% de probabilidade de IA”, está a dizer: “Encontrei padrões linguísticos que se assemelham ao que modelos de IA costumam produzir.” Não está a afirmar: “Isto foi escrito por IA.”
📖 Para aprofundar: O guia oficial da Crossref sobre Understanding your Similarity Report explica detalhadamente esta distinção fundamental entre sinalização e prova.
Turnitin, iThenticate e Outros: Anatomia de uma Deteção
Vamos desmontar o que realmente acontece quando a tua tese passa pelo sistema. Ferramentas como o Turnitin analisam o teu texto procurando duas coisas principais:
Primeiro, padrões de repetição — frases ou parágrafos que existem noutros documentos. Segundo, padrões estatísticos — características linguísticas típicas de texto gerado por IA, como previsibilidade, uniformidade e certas estruturas sintáticas.
O relatório de IA divide-se geralmente em categorias: texto que o sistema considera ter sido produzido diretamente por um modelo de linguagem, e texto que parece ter sido gerado por IA e posteriormente editado.

Mas aqui está o problema que ninguém te conta: estas categorias têm requisitos técnicos que muitas vezes não são cumpridos. Por exemplo, a deteção de IA em iThenticate requer um mínimo de palavras para funcionar corretamente. Textos curtos ou fragmentados podem dar resultados completamente errados.
🔍 Documentação Técnica: Consulta o guia completo AI writing detection in the new, enhanced Similarity Report view para entenderes exatamente o que cada métrica significa.
O Contexto Português: Aplicação Real nas Universidades
Em Portugal, a situação é particularmente nebulosa. Cada universidade tem políticas internas diferentes, e muitas ainda estão a adaptar-se à realidade da IA generativa.
O que normalmente acontece após uma sinalização: o orientador recebe o relatório, há (teoricamente) uma análise humana do contexto, o estudante pode ser chamado para explicações, e em casos extremos, o trabalho é rejeitado ou há processos disciplinares.
O problema? A análise humana é frequentemente superficial ou inexistente. Com centenas de teses para avaliar, muitos orientadores simplesmente confiam na percentagem do relatório.
Para entenderes melhor como as universidades portuguesas estão a lidar com esta questão, recomendo a leitura do nosso artigo sobre Deteção de IA em Teses Académicas Portuguesas 2025.
A Verdade Incómoda: Porque a Deteção de IA Falha Mais Do Que Pensas
Chegou a hora de falar sobre o elefante na sala. Os sistemas de deteção de conteúdo gerado por IA em teses académicas têm falhas graves — e a indústria prefere não as publicitar.
O Caso OpenAI: Quando o Criador Admite Que Não Funciona
Já mencionei isto no início, mas vale a pena aprofundar porque é genuinamente chocante.
Em julho de 2023, a OpenAI anunciou a descontinuação do seu classificador de texto IA. As razões oficiais incluíam uma taxa de verdadeiros positivos de apenas 26%, taxa de falsos positivos de aproximadamente 9%, desempenho significativamente pior em textos curtos, e resultados inconsistentes em idiomas que não o inglês.
Pára um segundo e processa estes números. Uma ferramenta criada pelos maiores especialistas em IA do mundo conseguia identificar corretamente apenas um quarto dos textos gerados por IA. E ainda assim, classificava erradamente quase 10% dos textos humanos como artificiais.
Aplica isto ao contexto académico: num curso com 100 estudantes que escreveram genuinamente as suas teses, 9 poderiam ser falsamente acusados.
O Problema do Limiar de 20%
As próprias ferramentas académicas reconhecem esta limitação — embora de forma discreta. O iThenticate, por exemplo, alerta explicitamente que resultados abaixo de aproximadamente 20% apresentam “sinais fracos” e não devem ser interpretados como evidência.
Mas quantos avaliadores leem estes avisos? Quantos entendem a diferença entre “sinalização” e “prova”?
A realidade brutal é que certos estilos de escrita humana — particularmente escrita muito formal, muito estruturada ou muito gramaticalmente correta — apresentam padrões semelhantes aos de IA. É a ironia suprema: quanto melhor escreves, maior a probabilidade de seres sinalizado.

📰 Atualização: O anúncio oficial da Crossref sobre iThenticate v2 revela limitações importantes que afetam diretamente teses em português.
Para uma análise mais detalhada das ferramentas disponíveis, consulta o nosso artigo IA Antiplágio na Universidade: 5 Segredos Revelados [2025].
| Ferramenta | Precisão Declarada | Limitações |
|---|---|---|
| Turnitin AI | ~98% (inglês) | Menor precisão em português |
| iThenticate v2 | Não divulgada | Requisitos de formatação rígidos |
| GPTZero | ~85-90% | Alta taxa de falsos positivos |
| OpenAI Classifier | Descontinuado | Precisão de ~26% |
5 Verdades Sobre Deteção de IA Que Universidades Escondem
Esta secção vai fazer-te repensar tudo o que sabias sobre deteção de conteúdo gerado por IA em teses académicas. São verdades incómodas, mas precisas de as conhecer.
Verdade #1 — A Tua Escrita “Perfeita” Pode Ser o Problema
Parece contraintuitivo, não é? Passaste anos a aprender a escrever bem, a evitar erros, a construir frases claras e lógicas. E agora descobres que isso pode prejudicar-te.
Os modelos de IA foram treinados para produzir texto fluente, gramaticalmente correto e estruturado. Quando escreves da mesma forma — porque és um bom escritor — os teus padrões linguísticos aproximam-se dos da IA.
É como ser um pianista tão bom que as pessoas pensam que estás a usar playback. A tua competência torna-se suspeita.
Verdade #2 — Traduzir Automaticamente Cria Padrões de IA
Se usaste o Google Tradutor ou o DeepL para traduzir citações ou para perceber melhor um artigo em inglês, cuidado. Mesmo que depois tenhas reescrito tudo com as tuas palavras, podes ter “contaminado” o teu texto.
Ferramentas de tradução automática são, essencialmente, modelos de IA. O texto que produzem tem características estatísticas semelhantes às de outros modelos generativos.
Verdade #3 — O Julgamento Humano É Quase Inexistente
Todas as ferramentas recomendam “revisão humana obrigatória”. É o disclaimer que as protege de responsabilidade. Mas na prática, com centenas de trabalhos para avaliar e deadlines apertados, muitos docentes limitam-se a olhar para a percentagem final.
Verdade #4 — Podes Ser Sinalizado Por Citar Corretamente
Seguir as normas APA, MLA ou Chicago implica usar formatações padronizadas. Se usaste ferramentas como Mendeley ou Zotero para formatar bibliografia, criaste padrões repetitivos e previsíveis — exatamente o que os detetores procuram.
Fizeste tudo certo. Seguiste as regras. E isso pode contar contra ti.
Verdade #5 — Não Existe Recurso Claro
Se fores sinalizado injustamente, qual é o processo de recurso? Na maioria das universidades portuguesas, é nebuloso ou inexistente. O ónus da prova recai sobre ti — o estudante.
🎬 Recurso Visual: A Turnitin disponibiliza uma série de vídeos oficiais sobre Turnitin Originality que te ajudam a entender exatamente o que os avaliadores veem quando analisam a tua tese.
Para uma análise completa destas questões, consulta o nosso artigo Deteção de IA em Teses Acadêmicas 2025 | Verdade Oculta.
O Futuro da Deteção de IA em Teses: O Que Esperar
Olhar para o futuro pode ser assustador, mas também oferece esperança. O panorama está a mudar, e nem todas as mudanças são negativas.
A Corrida Armamentista Sem Fim
Vamos ser honestos: a deteção de conteúdo gerado por IA está numa batalha que não pode vencer definitivamente. Cada vez que os detetores melhoram, os modelos de IA também evoluem.
É como tentar detetar um camaleão cada vez melhor a camuflar-se. Teoricamente possível, mas na prática? Uma perseguição sem fim.

O Caminho da UNESCO: Regulação Ética
Felizmente, há vozes sensatas a propor alternativas. A UNESCO, através do seu guia sobre IA generativa na educação, sugere um caminho diferente: transparência onde estudantes declaram como usaram ferramentas de IA, literacia sobre uso ético, governança clara com regras explícitas, e foco na avaliação de competências demonstradas.
🏛️ Referência: O guia da UNESCO “Guidance for generative AI in education and research” propõe um modelo baseado em transparência e regras claras.
Previsões Para Portugal
O que podemos esperar nos próximos anos? No cenário otimista, universidades adotam políticas de transparência e a avaliação foca-se em defesas orais. No cenário realista, pressão por parte de associações de estudantes força revisão de políticas, com mudanças lentas mas na direção certa. No cenário pessimista, universidades duplicam a aposta em detetores imperfeitos.
A verdade? Provavelmente veremos uma mistura dos três. O que podes fazer é preparar-te para qualquer cenário — e isso começa por entenderes exatamente como funcionam estes sistemas e como proteger o teu trabalho genuíno.
Se precisas de apoio na preparação da tua tese com estratégias que te protejam de sinalizações injustas, a Tesify está aqui para ajudar.
