Imagina perder meses de trabalho por um erro que podias ter evitado em cinco minutos. Parece exagero? Infelizmente, é a realidade de milhares de estudantes em Portugal e no Brasil. E o mais assustador? A maioria só percebe que cometeu esses erros quando já é tarde demais.
No início de 2024, uma universidade portuguesa revelou que quase 23% dos trabalhos finais continham sinais de utilização excessiva ou inadequada de inteligência artificial. Não estamos a falar de pequenas correções gramaticais — estamos a falar de capítulos inteiros que pareciam ter sido escritos por um robô sem alma.
O paradoxo é cruel: a mesma tecnologia que promete acelerar a tua tese em semanas pode destruí-la em segundos. Tudo depende de como a utilizas.

Neste artigo, vou desmontar os sete erros fatais que estão a reprovar estudantes — com exemplos reais, consequências concretas e soluções práticas que podes implementar hoje. Se estás a iniciar a tua tese ou já te encontras a meio do processo, este guia pode ser a diferença entre aprovação e reprovação.
E antes que perguntes: sim, há formas completamente legítimas e éticas de usar IA na tua investigação. Só precisas de saber quais são as regras do jogo.
A explosão do ChatGPT em novembro de 2022 mudou tudo. De repente, qualquer pessoa com acesso à internet podia gerar texto fluente sobre praticamente qualquer tema. Estudantes que antes passavam noites a tentar estruturar um parágrafo coerente descobriram que podiam pedir a uma máquina para fazer isso por eles.
Mas aqui está o problema: a facilidade criou uma ilusão perigosa. Muitos começaram a confundir “assistência” com “substituição” do trabalho intelectual. E essa confusão tem custado caro.
O COPE (Committee on Publication Ethics) já se pronunciou claramente:
“A IA não pode ser considerada autora. O uso deve ser transparentemente declarado.”
Isto significa que, mesmo quando usas IA para apoiar o teu trabalho, tu continuas a ser o único responsável pelo conteúdo — e essa responsabilidade inclui declarar exatamente como e quando utilizaste essas ferramentas.
Vamos diretos ao assunto. Estes são os erros que tenho visto repetidamente ao longo dos últimos anos — e que continuam a destruir trabalhos académicos todos os dias.
Delegar a escrita completa à IA é, sem dúvida, o erro mais comum e devastador. Percebo perfeitamente a tentação — quem não gostaria de ter um capítulo inteiro escrito em dez minutos?
O problema é que texto gerado integralmente por IA carece de algo fundamental: a tua voz autoral. Quando pedes ao ChatGPT para escrever o capítulo três da tua tese, recebes um texto genérico, sem profundidade analítica, que qualquer orientador experiente vai reconhecer imediatamente.
A solução: Usa a IA para estruturar ideias, não para substituir o pensamento crítico. Pede sugestões de tópicos, ajuda para organizar argumentos, mas escreve tu o texto final.

Se há algo que devias memorizar deste artigo, é isto: a IA mente — e mente muito bem.
Já vi casos de estudantes que incluíram nas suas referências bibliográficas artigos que simplesmente não existem. Autores com nomes plausíveis, títulos convincentes, revistas científicas reais — mas quando vais procurar, nada. O ChatGPT inventou tudo.
Quando um membro do júri decide verificar uma citação aleatória e descobre que é fictícia? A credibilidade de todo o trabalho colapsa instantaneamente.
A solução: Verificação cruzada obrigatória. Cada dado, cada citação, cada referência gerada por IA deve ser confirmada em fontes primárias. Sem exceções.
Omitir o uso de IA na metodologia é outro erro gravíssimo. Muitos estudantes pensam: “Se não disser que usei IA, ninguém vai saber.” Erro crasso.
A declaração do uso de IA não é apenas uma formalidade ética — é, cada vez mais, um requisito metodológico obrigatório. As diretrizes da APA sobre citação de IA generativa já estabelecem formatos específicos para documentar qual ferramenta foi utilizada, quando, e para que fins.
Algumas universidades já exigem que os estudantes anexem o histórico completo de interações com ferramentas de IA. Não declarar esse uso pode ser considerado omissão deliberada — e as consequências são muito mais graves do que simplesmente ter sido transparente desde o início.

Achar que a IA não será detetada é uma aposta que estás condenado a perder. Os sistemas de deteção evoluíram dramaticamente. O Turnitin, usado por grande parte das universidades portuguesas e brasileiras, já não se limita a verificar plágio tradicional — agora identifica ativamente padrões de escrita gerada por IA.
Segundo a documentação oficial do Turnitin, o modelo de deteção foi expandido para identificar inclusive texto processado por ferramentas de “AI bypasser” — aquelas que prometem “humanizar” conteúdo gerado por máquinas.
Usar paráfrase automática para “disfarçar” texto de IA representa uma escalada perigosa: não só estás a usar IA de forma inadequada, como estás a tentar esconder esse uso.
Ferramentas como “AI humanizers” deixam as suas próprias impressões digitais — e os sistemas de deteção estão treinados para as reconhecer. Pior ainda: quando uma universidade identifica uma tentativa deliberada de burlar os sistemas de verificação, já não estamos a falar de “uso inadequado de tecnologia” — estamos a falar de tentativa de fraude académica.
Também é crucial não confundir assistência com autoria. “Se o texto foi gerado por uma máquina e não copiado de outra pessoa, é plágio?” A resposta, segundo a maioria das instituições académicas, é: sim, pode ser considerado plágio. Estás a apresentar como teu um trabalho intelectual que não realizaste.
O vídeo abaixo explora esta questão de forma bastante clara:
Por fim, desconhecer as políticas da tua instituição é talvez o erro mais evitável. Não existe uma política universal sobre o uso de IA em trabalhos académicos. O que é permitido numa universidade pode ser motivo de expulsão noutra.
A solução é simples: Antes de usar qualquer ferramenta de IA, consulta o regulamento da tua instituição e, se houver dúvidas, pergunta diretamente ao teu orientador. Melhor ainda: pede por escrito.

Pensa na IA como uma calculadora científica avançada. Quando usas uma calculadora para resolver uma equação complexa, ninguém te acusa de fazer batota — porque é uma ferramenta que facilita o cálculo, mas não substitui o teu entendimento do problema.
O mesmo deve aplicar-se à IA na escrita académica. Ela pode ajudar-te a organizar ideias, sugerir estruturas, corrigir erros gramaticais, e até apontar lacunas no teu argumento. Mas o pensamento crítico, a análise original e a contribuição científica têm de ser teus.
| ✅ Uso Apropriado | ❌ Uso Problemático |
|---|---|
| Brainstorming de ideias iniciais | Escrita de capítulos inteiros |
| Revisão gramatical e ortográfica | Criação de argumentos centrais |
| Organização de estrutura | Interpretação de resultados |
| Formatação de referências | Geração de conclusões |
Estamos a caminhar para uma padronização internacional das declarações de uso de IA em trabalhos académicos. É muito provável que, num futuro próximo, todas as teses incluam um “anexo metodológico de IA” obrigatório.
A corrida entre IA geradora e IA detetora vai intensificar-se. A margem para uso não declarado vai tornar-se cada vez mais estreita. A transparência deixará de ser opcional — será a única opção viável.
Se estás a começar agora a tua investigação, documenta tudo desde o início — guarda todos os prompts, outputs e iterações. Estabelece um protocolo pessoal de uso ético e define claramente para que vais usar IA. A tua voz autoral é insubstituível; usa a tecnologia para a amplificar, nunca para a substituir.
Para aprofundar este tema, consulta também o nosso artigo sobre uso permitido de ChatGPT na tese e regras académicas em 2025.
