Imagina entregar a tua tese após meses de trabalho árduo, noites mal dormidas e sacrifícios pessoais… e ser reprovado por questões éticas no uso de inteligência artificial.
Parece exagerado? Infelizmente, não é. Entre 2023 e 2025, o número de casos de reprovação por uso indevido de IA em universidades portuguesas e brasileiras disparou de forma alarmante. E o pior? A maioria desses estudantes nem sequer sabia que estava a cometer um erro grave.
A verdade é que o uso ético de inteligência artificial em teses académicas deixou de ser uma discussão teórica ou uma questão de “bom senso”. Tornou-se um requisito fundamental, tão importante quanto a metodologia ou a revisão bibliográfica. Ignorar este facto pode custar-te muito mais do que uma nota baixa — pode destruir meses ou anos de dedicação num piscar de olhos.
Neste artigo, vou revelar-te os 5 erros de ética com IA na tese que mais frequentemente levam estudantes à reprovação. Mais importante ainda: vou mostrar-te exactamente como evitar cada um deles para que possas submeter o teu trabalho com total confiança.
📌 Resumo rápido: Os 5 erros de ética com IA na tese são:
- Omitir o uso de IA no trabalho
- Apresentar texto gerado por IA como próprio
- Não verificar informações produzidas pela IA
- Ignorar as normas institucionais sobre IA
- Usar IA sem supervisão crítica do processo
Antes de mergulharmos em cada erro, recomendo que leias o nosso Guia sobre Erros Fatais ao Usar IA na Tese para teres uma visão mais abrangente dos riscos gerais. Agora, vamos ao que realmente interessa.
Porquê a Ética no Uso de IA É Crucial em Teses Académicas
Sei o que podes estar a pensar: “Ética? Isso não é só para filósofos e comissões de ética?”. Deixa-me contar-te uma história que vai mudar a tua perspectiva.
Em 2024, uma estudante de mestrado em Lisboa — vamos chamá-la de Ana — utilizou o ChatGPT para ajudar na redação de dois capítulos da sua dissertação. Ela não copiou texto diretamente, mas também não mencionou o uso da ferramenta em lado nenhum. O orientador notou algumas inconsistências no estilo de escrita e, após uma breve investigação, a universidade aplicou um processo disciplinar. Resultado? Tese anulada e suspensão de um ano.
A Ana não era uma fraude. Não tinha más intenções. Simplesmente não compreendia o que significa “uso ético de inteligência artificial em teses académicas”.

O que significa realmente “uso ético de IA” no contexto académico?
Quando falamos de ética na utilização de IA em trabalhos académicos, estamos a referir-nos a três pilares fundamentais:
- Transparência — declarar abertamente quando e como utilizaste ferramentas de IA
- Honestidade intelectual — não apresentar como teu aquilo que não criaste
- Responsabilização — assumir total responsabilidade pelo conteúdo final, independentemente de como foi produzido
Existe uma diferença crucial entre usar IA como ferramenta de apoio (para brainstorming, revisão, ou organização de ideias) e usar IA como substituto do pensamento crítico. A primeira abordagem pode ser perfeitamente ética; a segunda raramente o será.
Referência UNESCO: A Recomendação sobre Ética da Inteligência Artificial (2021) estabelece que o uso de IA deve garantir transparência, responsabilidade humana e respeito pela autonomia intelectual — princípios diretamente aplicáveis ao contexto académico.
O enquadramento internacional que não podes ignorar
As diretrizes da UNESCO não são apenas recomendações bonitas para colocar em documentos oficiais. Elas estão a moldar activamente as políticas das universidades europeias e, cada vez mais, a definir o que constitui conduta aceitável.
A European Network for Academic Integrity (ENAI) publicou recomendações específicas sobre o uso ético de IA na educação. Estudantes têm a responsabilidade de desenvolver literacia em IA e de compreender o que é — e o que não é — aceitável nas suas instituições.
🔗 Para aprofundar este tema, recomendo a leitura do artigo académico ENAI Recommendations on the ethical use of AI in Education.
A Nova Realidade: Como as Universidades Estão a Responder à IA
Se ainda pensas que “ninguém vai descobrir” ou que “a minha universidade ainda não está atenta a isto”, deixa-me desiludir-te gentilmente: estás profundamente enganado.
O aumento exponencial da fiscalização
Desde o final de 2023, as universidades portuguesas e brasileiras aceleraram drasticamente a implementação de políticas específicas sobre IA. E não se trata apenas de regras no papel — há ferramentas de detecção cada vez mais sofisticadas em acção.

O Turnitin, por exemplo, actualizou o seu sistema para incluir detecção de texto gerado por IA. Ferramentas como o GPTZero e outras similares estão a ser integradas nos processos de avaliação de muitas instituições. E os orientadores? Estão cada vez mais formados para identificar padrões típicos de escrita artificial.
Os casos de reprovação e sanções disciplinares já não são excepções raras — são uma realidade cada vez mais comum. Em algumas faculdades, o número de processos disciplinares relacionados com IA triplicou em apenas dois anos.
🎬 Recurso Recomendado: Webinar sobre Integridade Académica e IA
O webinar da ABCD-USP em parceria com a Turnitin aborda especificamente como lidar com IA em trabalhos académicos, políticas institucionais e riscos de detecção.
👉 Acede à gravação completa do webinar “Integridade Acadêmica na Era da Inteligência Artificial”
O que mudou concretamente em 2024-2025
Se estás a começar a tua tese agora ou a meio do processo, há três mudanças fundamentais que precisas de conhecer:
- Normas mais específicas — Muitas universidades passaram de políticas vagas (“não plagiar”) para regulamentos detalhados sobre IA
- Declaração obrigatória — Cada vez mais instituições exigem uma declaração explícita de uso de IA na secção de metodologia
- Orientadores alertados — A formação sobre detecção de IA tornou-se comum entre docentes universitários
Para entenderes melhor como a falta de transparência se conecta com os erros de ética, recomendo a leitura do nosso artigo sobre Erros de Transparência com IA que Reprovam Estudantes.
Os 5 Erros de Ética com IA na Tese Que Podem Te Reprovar
Chegámos ao coração deste artigo. Cada um dos erros que vou descrever a seguir já causou reprovações reais e processos disciplinares em universidades de língua portuguesa. Lê com atenção — e, mais importante, age de acordo.

Erro #1 — Omitir Completamente o Uso de IA no Trabalho
Este é, de longe, o erro mais comum e um dos mais graves. Milhares de estudantes utilizam ChatGPT, Claude, Gemini ou outras ferramentas de IA generativa durante o processo de escrita… e simplesmente não mencionam isso em lado nenhum.
Porquê é um erro ético grave?
A omissão viola directamente o princípio de transparência académica. Quando submetes uma tese sem declarar que utilizaste IA, estás implicitamente a afirmar que todo o trabalho foi feito exclusivamente por ti. Isto configura desonestidade intelectual, independentemente de teres ou não copiado texto directamente.
Pensa assim: se um investigador usasse um software estatístico avançado e não o mencionasse na metodologia, isso seria considerado má prática científica. O mesmo princípio aplica-se à IA.
Consequências reais:
- Reprovação imediata do trabalho
- Abertura de processo disciplinar
- Registo permanente de má conduta académica que pode afectar a tua carreira futura
Como evitar:
- Declara o uso de IA na secção de metodologia ou numa nota de autor
- Especifica quais ferramentas utilizaste e para que fins exactos
- Mantém um registo dos prompts que utilizaste (pode ser útil se questionado)
Base normativa: As diretrizes WAME sobre chatbots e IA generativa estabelecem que qualquer uso de LLMs deve ser declarado de forma clara e específica em trabalhos académicos e científicos.
Erro #2 — Apresentar Texto Gerado por IA Como Produção Própria
Este erro está intimamente relacionado com o anterior, mas vai um passo além. Não se trata apenas de omitir — é copiar outputs de IA directamente para a tese sem reescrita, análise crítica ou qualquer tipo de atribuição.
Porquê é um erro ético grave?
Apresentar texto gerado por IA como teu é, na prática, uma forma de plágio — só que de uma fonte não humana. E há um problema adicional: a IA não pode ser autora. Não tem personalidade jurídica, não pode assinar um documento, não pode ser responsabilizada. A responsabilidade é sempre e exclusivamente tua.
Quando copias texto da IA sem o trabalhar, estás a demonstrar ausência de contribuição intelectual original. E a tese, por definição, deve ser uma demonstração das tuas competências de pensamento crítico e síntese.
Consequências reais:
- Detecção por ferramentas anti-IA (que estão cada vez mais precisas)
- Questionamento sobre toda a autoria do trabalho — não apenas das partes suspeitas
- Perda de credibilidade académica que pode perseguir-te durante anos
Como evitar:
- Usa IA apenas como ponto de partida para brainstorming ou estruturação
- Reescreve completamente qualquer sugestão da IA com a tua própria voz
- Aplica pensamento crítico e análise pessoal ao texto final
🔗 Para aprenderes a forma correcta de reconhecer e dar crédito ao uso de IA, lê o nosso artigo sobre Erros ao Citar IA na Tese.
Erro #3 — Não Verificar Informações e Referências Geradas pela IA
Este erro é particularmente traiçoeiro porque pode acontecer mesmo a estudantes bem-intencionados que acreditam estar a usar IA de forma responsável.
A IA “alucina”. Este é um termo técnico para descrever o fenómeno em que ferramentas como o ChatGPT inventam informações que parecem credíveis mas são completamente falsas. E isto inclui referências bibliográficas — a IA pode gerar citações de artigos que simplesmente não existem, com autores fictícios e revistas inventadas.
Porquê é um erro ético grave?
Incluir informação falsa numa tese não é apenas um erro técnico — é uma violação da integridade científica. Propagar dados não verificados compromete todo o valor do teu trabalho e demonstra negligência na tua responsabilidade como autor.
Se as referências falsas forem descobertas (e serão, especialmente por orientadores experientes), podes ser acusado de fabricação de dados — uma das formas mais graves de má conduta académica.
Consequências reais:
- Citações falsas descobertas = reprovação automática
- Comprometimento de toda a credibilidade da investigação
- Possível acusação formal de fabricação de dados
Como evitar:
- Verifica cada referência sugerida pela IA — sem excepção
- Cruza todos os dados com fontes primárias
- Nunca incluas informação que não tenhas confirmado pessoalmente
🔗 O artigo Ética e Integridade acadêmica na Pós-Graduação em Educação em tempos de IA discute precisamente esta responsabilidade de verificação no contexto de dissertações e teses.
Erro #4 — Ignorar as Normas Institucionais Específicas Sobre IA
Cada universidade, cada faculdade, por vezes cada departamento, tem as suas próprias regras sobre o uso de IA em trabalhos académicos. Algumas proíbem completamente, outras regulam de forma detalhada, outras ainda estão em processo de definição de políticas.
Porquê é um erro ético grave?
“Não sabia” nunca é uma justificação válida no contexto académico. Quando te inscreves num programa de mestrado ou doutoramento, aceitas implicitamente cumprir todas as normas da instituição — incluindo aquelas que ainda não conheces.
Ignorar estas políticas pode configurar violação do código de conduta académica, mesmo que o teu uso de IA fosse, em abstracto, perfeitamente razoável. O contexto institucional é determinante.
Consequências reais:
- Sanções que vão muito além da reprovação (suspensão, expulsão em casos graves)
- Processos disciplinares formais com consequências duradouras
- Impacto negativo na progressão académica e profissional futura
Como evitar:
- Consulta activamente o regulamento académico da tua instituição
- Pergunta directamente ao orientador antes de usar qualquer ferramenta de IA
- Documenta qualquer aprovação institucional quando aplicável
🔗 O artigo Inteligência artificial e os desafios à integridade acadêmica: um modelo integrado propõe como combinar normas, pedagogia e tecnologia para reduzir riscos.
Erro #5 — Usar IA Sem Supervisão Crítica e Revisão Humana
O último erro é talvez o mais subtil, mas igualmente perigoso. Trata-se de delegar decisões de conteúdo, estrutura ou argumentação à IA sem aplicar julgamento próprio — essencialmente, usar a IA como piloto automático do teu trabalho académico.
Porquê é um erro ético grave?
A tese não é apenas um documento — é uma demonstração das tuas competências de pensamento crítico, análise e síntese. Quando usas IA de forma passiva, não estás a desenvolver as competências que a tese pretende avaliar. Estás, na prática, a contornar o propósito fundamental do exercício académico.
Além disso, isto viola o princípio de autonomia intelectual. A tua tese deve reflectir o teu percurso de pensamento, as tuas escolhas, os teus argumentos — mesmo que tenhas usado ferramentas para chegar lá.
Consequências reais:
- Trabalho com inconsistências óbvias de estilo ou profundidade
- Incapacidade de defender o trabalho em arguição/viva (momento em que tudo fica claro)
- Suspeita generalizada sobre outras partes da tese
Como evitar:
- Usa IA como assistente, nunca como autor
- Revê criticamente cada sugestão antes de a incorporar
- Garante que consegues explicar e defender qualquer parte do texto
Tabela Resumo dos 5 Erros
| Erro | Descrição | Consequência Principal |
|---|---|---|
| #1 Omissão | Não declarar uso de IA | Reprovação por desonestidade |
| #2 Plágio de IA | Copiar texto sem reescrita | Detecção e reprovação |
| #3 Não verificar | Confiar em dados/referências falsas | Acusação de fabricação |
| #4 Ignorar normas | Desrespeitar políticas institucionais | Processo disciplinar |
| #5 Sem supervisão | Delegar pensamento crítico à IA | Incapacidade de defesa |
O Que Esperar: O Futuro da Ética com IA no Contexto Académico
Se pensas que as regras actuais já são exigentes, prepara-te: o cenário vai tornar-se ainda mais rigoroso nos próximos anos. Os estudantes que se adaptarem agora estarão muito melhor posicionados do que aqueles que esperarem até ser tarde demais.

Tendências para 2025-2027
Baseado nas políticas já anunciadas e nas discussões em curso nas principais instituições académicas, podemos prever três grandes tendências:
- Políticas institucionais muito mais específicas — O vago “não plagiar” será substituído por regulamentos detalhados sobre cada tipo de ferramenta de IA
- Ferramentas de detecção mais sofisticadas — A corrida entre IA generativa e IA de detecção vai intensificar-se
- Literacia em IA como competência obrigatória — Saber usar IA de forma ética e eficaz será cada vez mais valorizado (e exigido)
O que vai mudar concretamente
Nos próximos anos, é provável que vejas:
- Declaração de IA obrigatória em todas as submissões académicas, não apenas em teses
- Formação em ética de IA integrada nos programas de pós-graduação como requisito
- Maior escrutínio em defesas de tese sobre como e porquê utilizaste determinadas ferramentas
Como te preparares agora
A boa notícia? Podes começar a preparar-te hoje. Desenvolve hábitos de transparência desde já, documenta todo o uso de IA nos teus trabalhos, e investe tempo em compreender verdadeiramente as ferramentas que utilizas.
Os estudantes que dominarem o uso ético de inteligência artificial em teses académicas hoje estarão à frente amanhã — não só evitando reprovações, mas demonstrando competências cada vez mais valorizadas no mercado de trabalho.
Protege a Tua Tese: Não Deixes Que Erros Evitáveis Destruam o Teu Trabalho
Depois de tudo o que leste, uma coisa deve estar clara: saber usar IA de forma ética exige orientação, conhecimento e, acima de tudo, uma abordagem sistemática. Muitos estudantes simplesmente não têm o apoio adequado para navegar este novo território.
E o risco de reprovação é real. Muito real.
A Tesify nasceu precisamente para ajudar estudantes como tu a enfrentar estes desafios. Não se trata de fazer o trabalho por ti — trata-se de te dar as ferramentas e o apoio necessários para garantir que a tua tese cumpre todas as normas éticas e académicas.
Com a Tesify, podes:
- Evitar os 5 erros fatais descritos neste artigo
- Estruturar e fundamentar a tua tese de forma sólida
- Obter orientação sobre como declarar e documentar o uso de IA
- Submeter um trabalho que te dê confiança total na defesa
