, ,

5 Erros de Autorização de IA na Tese Que Reprovam Alunos

Estudante de pós-graduação preenchendo termo de declaração de uso de inteligência artificial para tese acadêmica com checklist de autorização

O número de reprovações por problemas de autorização de IA em teses disparou nos últimos meses. E o mais assustador? A maioria dos alunos nem sequer sabia que estava cometendo algum erro.

Imagine dedicar dois, três ou até quatro anos da sua vida a uma dissertação de mestrado, passar noites em claro, abdicar de fins de semana… e descobrir que a banca reprovou o seu trabalho por causa de um papel que você esqueceu de anexar. Parece absurdo, mas está a acontecer em universidades por todo o Brasil e Portugal.

A questão já não é apenas “usar ou não usar inteligência artificial”. O verdadeiro problema tornou-se: você está autorizado a usar IA? E consegue provar isso?

Autorização para uso de IA em teses acadêmicas é o processo formal de obter permissão institucional, documentar e declarar transparentemente o uso de ferramentas de IA generativa na elaboração de dissertações e teses, conforme regulamentos específicos de cada programa de pós-graduação.

Neste artigo, revelo os 5 erros específicos de autorização de IA que estão a causar reprovações em universidades como a UFC, UFPB e UFSM. Mais importante ainda: mostro exatamente como evitar cada um deles.

Se está a escrever uma tese e usou (ou pretende usar) qualquer ferramenta de IA — mesmo que seja só para melhorar a gramática — este guia pode literalmente salvar o seu trabalho académico.

Ilustração de tese rejeitada por erros de autorização de IA, mostrando documento com marca de rejeição e estudante preocupado
Erros de autorização podem custar anos de trabalho académico

Para compreender melhor os fundamentos por detrás destas exigências, recomendo consultar o nosso guia sobre princípios de transparência no uso de IA em contexto académico.

O Novo Cenário Regulatório: Universidades Exigem Autorização Formal

Antes de mergulharmos nos erros específicos, precisa de entender uma coisa: o jogo mudou completamente em 2024 e 2025. As universidades deixaram de fechar os olhos para o uso de IA e passaram a exigir documentação formal, termos de declaração e até auditorias de uso.

A Universidade Federal do Ceará (UFC) tornou-se uma das primeiras instituições brasileiras a estabelecer regras claras. A nova portaria determina que não basta usar IA de forma responsável — é obrigatório seguir regras específicas, registrar e relatar o uso, e submeter todos os trabalhos a ferramentas de verificação de similaridade.

📋 Fonte Institucional: A Portaria da UFC sobre uso de IA em pesquisas de pós-graduação estabelece que todo uso deve ser formalmente documentado antes da defesa.

A Universidade Federal da Paraíba (UFPB) foi ainda mais específica. A Resolução nº 57/2025 não apenas exige declaração do uso de IA, mas diferencia claramente entre usos permitidos e vedados. Quando o uso vai além de simples revisão linguística, é obrigatório indicar a ferramenta utilizada e a sua versão específica.

Já o Programa de Pós-Graduação em Ciência e Tecnologia dos Alimentos da UFSM deu um passo ainda mais concreto: criou um modelo de “Termo de Declaração de Uso de IA” que deve ser obrigatoriamente anexado a todas as dissertações e teses. Sem este termo? A tese pode nem sequer ser aceite para defesa.

Os 5 Erros de Autorização de IA Que Reprovam Alunos

Depois de analisar dezenas de casos e conversar com orientadores e membros de bancas, identifiquei um padrão claro. São quase sempre os mesmos erros — e todos são facilmente evitáveis.

Os 5 erros mais comuns:

  1. Não anexar o termo/declaração de uso de IA
  2. Declarar IA de forma genérica sem especificar ferramenta e versão
  3. Omitir IA nos métodos e declarar apenas nos agradecimentos
  4. Extrapolar os usos permitidos pelo regulamento
  5. Não validar/verificar o conteúdo gerado por IA

Erro #1 — Não Anexar o Termo ou Declaração de Uso de IA

Este é, de longe, o erro mais comum — e também o mais devastador por ser tão simples de evitar.

Muitos programas já exigem um documento formal separado: o famoso “Termo de Declaração de Uso de IA”. Não basta mencionar no corpo da tese que usou ChatGPT. É preciso preencher e anexar o documento específico.

Documento formal de autorização para uso de IA em trabalhos acadêmicos com selo e linhas de assinatura
Termo formal: obrigatório em muitos programas

Já vi casos de alunos que fizeram tudo corretamente — declararam no texto, foram transparentes, usaram IA de forma ética — mas esqueceram de anexar o termo obrigatório. Resultado? A defesa foi suspensa até regularização.

“Mas eu mencionei no texto!” — Não importa. É como a diferença entre dizer verbalmente que não tem alergias alimentares e assinar um documento formal assumindo essa responsabilidade num hospital. Um é conversa, o outro é compromisso formal.

Para entender quais campos são obrigatórios nestes formulários, consulte o nosso artigo sobre campos obrigatórios da declaração de IA em teses de mestrado.

Erro #2 — Declarar IA de Forma Genérica ou Vaga

O segundo erro mais comum é fazer uma declaração do tipo: “Utilizou-se inteligência artificial como apoio à escrita.”

Parece adequado? É completamente insuficiente.

Uma declaração adequada deve incluir a ferramenta específica (ChatGPT, Claude, Gemini?), a versão utilizada (GPT-4, GPT-3.5?), a finalidade exata, em que capítulos foi utilizado, e como foi validado o conteúdo gerado.

Comparação visual entre declaração insuficiente e adequada de uso de IA, mostrando documento vago versus documento completo e detalhado
A diferença entre uma declaração vaga e uma declaração adequada pode definir sua aprovação
❌ INSUFICIENTE:
“Foi utilizada inteligência artificial para apoio na elaboração deste trabalho.”
✅ ADEQUADA:
“Utilizou-se o ChatGPT (versão GPT-4, OpenAI) para revisão gramatical nos capítulos 3 e 4. Todo o conteúdo foi integralmente verificado pela autora.”

📋 Segundo a política de IA generativa da Elsevier, a declaração deve incluir: ferramenta, finalidade, extensão do uso e confirmação de supervisão humana.

Erro #3 — Omitir IA nos Métodos e Declarar Apenas nos Agradecimentos

Este erro é mais subtil: o aluno declara o uso de IA… mas no sítio errado.

Muitos escrevem algo como “Agradeço ao ChatGPT pelo apoio na escrita” na seção de agradecimentos, mas não mencionam nada na metodologia. Isto cria uma incongruência documental que levanta bandeiras vermelhas para qualquer banca.

Se usou IA para auxiliar na análise de dados, isso é um procedimento metodológico — deveria estar na metodologia. Esta incongruência sugere que o aluno não entende como usou a IA, ou está a tentar minimizar o impacto do uso.

Tipo de Uso Onde Declarar
Revisão gramatical Seção específica ou agradecimentos
Análise de dados Metodologia (obrigatório)
Geração de código Metodologia + anexos técnicos
Síntese de literatura Metodologia + declaração específica

Para ver exemplos concretos de como esta incongruência pode comprometer uma defesa, consulte o nosso artigo sobre erros de consistência documental que reprovam estudantes.

Erro #4 — Extrapolar os Usos Permitidos Pelo Regulamento

Cada programa de pós-graduação tem regras diferentes. O que é permitido na UFPB pode ser vedado na UFSM. O que passou em 2024 pode ser rejeitado em 2025.

Muitos regulamentos fazem uma distinção crucial:

  • Revisão linguística: Geralmente permitida
  • Geração de conteúdo substantivo: Frequentemente restrita
  • Escrita de secções inteiras: Quase sempre proibida

É como a diferença entre usar uma calculadora para verificar cálculos (aceitável) e usar uma calculadora para fazer toda a prova enquanto copia os resultados sem entender (fraude).

Erro #5 — Não Validar o Conteúdo Gerado por IA

Este é talvez o erro mais perigoso, porque pode destruir toda a credibilidade académica do aluno.

As ferramentas de IA têm um problema bem documentado: alucinações. O ChatGPT pode inventar referências bibliográficas que parecem perfeitamente reais — com autores, títulos, anos e até números de DOI — mas que simplesmente não existem.

Imagine o momento em que um membro da banca decide verificar uma citação particularmente interessante… e descobre que o artigo não existe. O livro não existe. O autor talvez nem exista.

Os regulamentos mais recentes exigem explicitamente validação integral, verificação manual de referências, submissão a ferramentas de similaridade antes da entrega, e checagem de factos.

Checklist de Autorização Completa

Depois de tanta informação sobre o que não fazer, aqui está um guia prático. Guarde esta checklist e consulte-a antes de submeter a sua tese.

Checklist de conformidade acadêmica para autorização de IA em teses, mostrando itens verificados e mão pronta para marcar o último item
Organização é a chave para evitar problemas
✅ Checklist de Autorização de IA para Teses:

  • ☐ Verificar regulamento específico do programa
  • ☐ Obter autorização do orientador (por escrito)
  • ☐ Preencher termo/declaração formal de uso de IA
  • ☐ Especificar: ferramenta, versão, finalidade e extensão
  • ☐ Declarar no local correto (metodologia e/ou seção específica)
  • ☐ Validar integralmente todo o conteúdo gerado
  • ☐ Verificar referências e citações manualmente
  • ☐ Submeter a ferramentas de similaridade
  • ☐ Garantir consistência entre todas as seções

Dica extra: Faça uma cópia desta checklist e marque cada item conforme for completando. Esta organização pode ser a diferença entre aprovação e reprovação.

O Que Esperar nos Próximos Anos

Olhando para o futuro, algumas tendências já são claras. As universidades estão a implementar verificação sistemática — não é mais questão de “se alguém descobrir”. Ferramentas de detecção de IA estão a ser integradas diretamente nos sistemas de submissão.

🎥 Recurso Recomendado: A Associação Brasileira de Ciência da Informação (ABCD-USP) em parceria com a Turnitin realizou o webinar “Integridade Acadêmica na Era da Inteligência Artificial”.

📺 Aceda à gravação e materiais

Espera-se harmonização entre instituições brasileiras e portuguesas, com organizações como a CAPES e a A3ES a publicar diretrizes nacionais. Alguns programas já estão a exigir “diários de uso de IA” — registos detalhados de cada interação com ferramentas de IA durante a pesquisa.

A mensagem é clara: a transparência deixou de ser opcional. Adapte-se agora, documente tudo, e proteja o trabalho de anos. A sua tese merece chegar à defesa sem surpresas desagradáveis.