, ,

Deteção de IA na Tese: O Que Ninguém Te Conta [2025]

Estudante universitário português a analisar relatório de deteção de IA na tese académica com expressão preocupada

Escreveste 100% da tua tese sozinho, passaste noites em claro a pesquisar, a reformular frases, a sofrer com cada parágrafo… e ainda assim foste sinalizado por IA?

Se achas que isto é um cenário improvável, tenho más notícias. Acontece mais vezes do que imaginas. E o mais assustador? As universidades raramente falam sobre isto.

Deixa-me contar-te algo que vai mudar a forma como olhas para este assunto: a própria OpenAI — sim, os criadores do ChatGPT — descontinuaram o seu classificador de deteção de IA. Porquê? Porque a precisão era tão baixa que gerava mais problemas do que soluções. Estamos a falar de uma ferramenta que acertava em apenas 26% dos casos de texto genuinamente escrito por IA.

Agora pensa nisto por um momento. Se os próprios criadores da tecnologia admitem que não conseguem detetar com precisão o que criam, como é que ferramentas académicas podem afirmar que fazem melhor?

“Due to its low rate of accuracy, we have discontinued the AI classifier…”

A deteção de conteúdo gerado por IA em teses académicas não é ciência exata. É, na melhor das hipóteses, uma estimativa probabilística. Na pior? Um julgamento algorítmico que pode destruir anos do teu trabalho sem direito a defesa justa.

Neste artigo, vou revelar-te as verdades incómodas que universidades e fornecedores de software preferem manter em silêncio. Vais descobrir como funcionam realmente estes sistemas, porque falham com tanta frequência, e — mais importante — como proteger o teu trabalho genuíno de ser injustamente sinalizado.

Ilustração conceptual da deteção de IA em trabalhos académicos, mostrando um documento sob análise com símbolos de inteligência artificial e escrita humana
O dilema central: distinguir criação humana de geração artificial

Se estás a preparar a tua tese e queres navegar este terreno minado com segurança, plataformas como a Tesify podem ser aliadas valiosas nesta jornada. Mas antes de falarmos de soluções, precisas de entender o problema na sua totalidade.

Preparado para descobrir o que realmente está em jogo? Continua a ler.


Como Funciona (Realmente) a Deteção de IA nas Universidades Portuguesas

Antes de entrares em pânico — ou de ficares demasiado confiante — precisas de entender exatamente o que acontece quando submetes a tua tese a um sistema de verificação. Porque, acredita, não é tão simples como uma luz verde ou vermelha.

O Que o Relatório de Similaridade Mede vs. O Que Prova

Aqui está a primeira grande confusão que arrasa estudantes: similaridade não é plágio. E indicação de IA não é prova de fraude.

Quando recebes um relatório do Turnitin ou iThenticate com uma percentagem de 15%, 30% ou mesmo 50%, isso não significa que plagiaste essa quantidade de texto. Significa apenas que o sistema encontrou padrões semelhantes a outros documentos na sua base de dados.

Imagina que escreves uma definição científica perfeitamente correta. “A fotossíntese é o processo pelo qual as plantas convertem luz solar em energia química.” Esta frase vai aparecer em milhares de trabalhos. Significa que a copiaste? Claro que não.

O mesmo princípio aplica-se à deteção de IA. Quando o sistema diz “35% de probabilidade de IA”, está a dizer: “Encontrei padrões linguísticos que se assemelham ao que modelos de IA costumam produzir.” Não está a afirmar: “Isto foi escrito por IA.”

📖 Para aprofundar: O guia oficial da Crossref sobre Understanding your Similarity Report explica detalhadamente esta distinção fundamental entre sinalização e prova.

Turnitin, iThenticate e Outros: Anatomia de uma Deteção

Vamos desmontar o que realmente acontece quando a tua tese passa pelo sistema. Ferramentas como o Turnitin analisam o teu texto procurando duas coisas principais:

Primeiro, padrões de repetição — frases ou parágrafos que existem noutros documentos. Segundo, padrões estatísticos — características linguísticas típicas de texto gerado por IA, como previsibilidade, uniformidade e certas estruturas sintáticas.

O relatório de IA divide-se geralmente em categorias: texto que o sistema considera ter sido produzido diretamente por um modelo de linguagem, e texto que parece ter sido gerado por IA e posteriormente editado.

Representação visual de falsos positivos em sistemas de deteção, com balança desequilibrada simbolizando erro algorítmico
A margem de erro que ninguém menciona

Mas aqui está o problema que ninguém te conta: estas categorias têm requisitos técnicos que muitas vezes não são cumpridos. Por exemplo, a deteção de IA em iThenticate requer um mínimo de palavras para funcionar corretamente. Textos curtos ou fragmentados podem dar resultados completamente errados.

🔍 Documentação Técnica: Consulta o guia completo AI writing detection in the new, enhanced Similarity Report view para entenderes exatamente o que cada métrica significa.

O Contexto Português: Aplicação Real nas Universidades

Em Portugal, a situação é particularmente nebulosa. Cada universidade tem políticas internas diferentes, e muitas ainda estão a adaptar-se à realidade da IA generativa.

O que normalmente acontece após uma sinalização: o orientador recebe o relatório, há (teoricamente) uma análise humana do contexto, o estudante pode ser chamado para explicações, e em casos extremos, o trabalho é rejeitado ou há processos disciplinares.

O problema? A análise humana é frequentemente superficial ou inexistente. Com centenas de teses para avaliar, muitos orientadores simplesmente confiam na percentagem do relatório.

Para entenderes melhor como as universidades portuguesas estão a lidar com esta questão, recomendo a leitura do nosso artigo sobre Deteção de IA em Teses Académicas Portuguesas 2025.


A Verdade Incómoda: Porque a Deteção de IA Falha Mais Do Que Pensas

Chegou a hora de falar sobre o elefante na sala. Os sistemas de deteção de conteúdo gerado por IA em teses académicas têm falhas graves — e a indústria prefere não as publicitar.

O Caso OpenAI: Quando o Criador Admite Que Não Funciona

Já mencionei isto no início, mas vale a pena aprofundar porque é genuinamente chocante.

Em julho de 2023, a OpenAI anunciou a descontinuação do seu classificador de texto IA. As razões oficiais incluíam uma taxa de verdadeiros positivos de apenas 26%, taxa de falsos positivos de aproximadamente 9%, desempenho significativamente pior em textos curtos, e resultados inconsistentes em idiomas que não o inglês.

Pára um segundo e processa estes números. Uma ferramenta criada pelos maiores especialistas em IA do mundo conseguia identificar corretamente apenas um quarto dos textos gerados por IA. E ainda assim, classificava erradamente quase 10% dos textos humanos como artificiais.

Aplica isto ao contexto académico: num curso com 100 estudantes que escreveram genuinamente as suas teses, 9 poderiam ser falsamente acusados.

O Problema do Limiar de 20%

As próprias ferramentas académicas reconhecem esta limitação — embora de forma discreta. O iThenticate, por exemplo, alerta explicitamente que resultados abaixo de aproximadamente 20% apresentam “sinais fracos” e não devem ser interpretados como evidência.

Mas quantos avaliadores leem estes avisos? Quantos entendem a diferença entre “sinalização” e “prova”?

A realidade brutal é que certos estilos de escrita humana — particularmente escrita muito formal, muito estruturada ou muito gramaticalmente correta — apresentam padrões semelhantes aos de IA. É a ironia suprema: quanto melhor escreves, maior a probabilidade de seres sinalizado.

Estudante a escrever a tese genuinamente, representando o trabalho autêntico que pode ser injustamente sinalizado
Noites em claro, esforço genuíno — e mesmo assim, sob suspeita

📰 Atualização: O anúncio oficial da Crossref sobre iThenticate v2 revela limitações importantes que afetam diretamente teses em português.

Para uma análise mais detalhada das ferramentas disponíveis, consulta o nosso artigo IA Antiplágio na Universidade: 5 Segredos Revelados [2025].

Comparação de Ferramentas de Deteção de IA
Ferramenta Precisão Declarada Limitações
Turnitin AI ~98% (inglês) Menor precisão em português
iThenticate v2 Não divulgada Requisitos de formatação rígidos
GPTZero ~85-90% Alta taxa de falsos positivos
OpenAI Classifier Descontinuado Precisão de ~26%

5 Verdades Sobre Deteção de IA Que Universidades Escondem

Esta secção vai fazer-te repensar tudo o que sabias sobre deteção de conteúdo gerado por IA em teses académicas. São verdades incómodas, mas precisas de as conhecer.

Verdade #1 — A Tua Escrita “Perfeita” Pode Ser o Problema

Parece contraintuitivo, não é? Passaste anos a aprender a escrever bem, a evitar erros, a construir frases claras e lógicas. E agora descobres que isso pode prejudicar-te.

Os modelos de IA foram treinados para produzir texto fluente, gramaticalmente correto e estruturado. Quando escreves da mesma forma — porque és um bom escritor — os teus padrões linguísticos aproximam-se dos da IA.

É como ser um pianista tão bom que as pessoas pensam que estás a usar playback. A tua competência torna-se suspeita.

Verdade #2 — Traduzir Automaticamente Cria Padrões de IA

Se usaste o Google Tradutor ou o DeepL para traduzir citações ou para perceber melhor um artigo em inglês, cuidado. Mesmo que depois tenhas reescrito tudo com as tuas palavras, podes ter “contaminado” o teu texto.

Ferramentas de tradução automática são, essencialmente, modelos de IA. O texto que produzem tem características estatísticas semelhantes às de outros modelos generativos.

Verdade #3 — O Julgamento Humano É Quase Inexistente

Todas as ferramentas recomendam “revisão humana obrigatória”. É o disclaimer que as protege de responsabilidade. Mas na prática, com centenas de trabalhos para avaliar e deadlines apertados, muitos docentes limitam-se a olhar para a percentagem final.

Verdade #4 — Podes Ser Sinalizado Por Citar Corretamente

Seguir as normas APA, MLA ou Chicago implica usar formatações padronizadas. Se usaste ferramentas como Mendeley ou Zotero para formatar bibliografia, criaste padrões repetitivos e previsíveis — exatamente o que os detetores procuram.

Fizeste tudo certo. Seguiste as regras. E isso pode contar contra ti.

Verdade #5 — Não Existe Recurso Claro

Se fores sinalizado injustamente, qual é o processo de recurso? Na maioria das universidades portuguesas, é nebuloso ou inexistente. O ónus da prova recai sobre ti — o estudante.

🎬 Recurso Visual: A Turnitin disponibiliza uma série de vídeos oficiais sobre Turnitin Originality que te ajudam a entender exatamente o que os avaliadores veem quando analisam a tua tese.

Para uma análise completa destas questões, consulta o nosso artigo Deteção de IA em Teses Acadêmicas 2025 | Verdade Oculta.


O Futuro da Deteção de IA em Teses: O Que Esperar

Olhar para o futuro pode ser assustador, mas também oferece esperança. O panorama está a mudar, e nem todas as mudanças são negativas.

A Corrida Armamentista Sem Fim

Vamos ser honestos: a deteção de conteúdo gerado por IA está numa batalha que não pode vencer definitivamente. Cada vez que os detetores melhoram, os modelos de IA também evoluem.

É como tentar detetar um camaleão cada vez melhor a camuflar-se. Teoricamente possível, mas na prática? Uma perseguição sem fim.

Representação visual do futuro da regulação de IA na educação, mostrando transição de incerteza para políticas claras
O caminho para políticas mais justas

O Caminho da UNESCO: Regulação Ética

Felizmente, há vozes sensatas a propor alternativas. A UNESCO, através do seu guia sobre IA generativa na educação, sugere um caminho diferente: transparência onde estudantes declaram como usaram ferramentas de IA, literacia sobre uso ético, governança clara com regras explícitas, e foco na avaliação de competências demonstradas.

🏛️ Referência: O guia da UNESCO “Guidance for generative AI in education and research” propõe um modelo baseado em transparência e regras claras.

Previsões Para Portugal

O que podemos esperar nos próximos anos? No cenário otimista, universidades adotam políticas de transparência e a avaliação foca-se em defesas orais. No cenário realista, pressão por parte de associações de estudantes força revisão de políticas, com mudanças lentas mas na direção certa. No cenário pessimista, universidades duplicam a aposta em detetores imperfeitos.

A verdade? Provavelmente veremos uma mistura dos três. O que podes fazer é preparar-te para qualquer cenário — e isso começa por entenderes exatamente como funcionam estes sistemas e como proteger o teu trabalho genuíno.

Se precisas de apoio na preparação da tua tese com estratégias que te protejam de sinalizações injustas, a Tesify está aqui para ajudar.