, ,

5 Erros de Ética com IA na Tese | Uso Ético de IA

Estudante universitário a usar inteligência artificial de forma ética na elaboração da tese académica

Imagina entregar a tua tese após meses de trabalho árduo, noites mal dormidas e sacrifícios pessoais… e ser reprovado por questões éticas no uso de inteligência artificial.

Parece exagerado? Infelizmente, não é. Entre 2023 e 2025, o número de casos de reprovação por uso indevido de IA em universidades portuguesas e brasileiras disparou de forma alarmante. E o pior? A maioria desses estudantes nem sequer sabia que estava a cometer um erro grave.

A verdade é que o uso ético de inteligência artificial em teses académicas deixou de ser uma discussão teórica ou uma questão de “bom senso”. Tornou-se um requisito fundamental, tão importante quanto a metodologia ou a revisão bibliográfica. Ignorar este facto pode custar-te muito mais do que uma nota baixa — pode destruir meses ou anos de dedicação num piscar de olhos.

Neste artigo, vou revelar-te os 5 erros de ética com IA na tese que mais frequentemente levam estudantes à reprovação. Mais importante ainda: vou mostrar-te exactamente como evitar cada um deles para que possas submeter o teu trabalho com total confiança.

📌 Resumo rápido: Os 5 erros de ética com IA na tese são:

  1. Omitir o uso de IA no trabalho
  2. Apresentar texto gerado por IA como próprio
  3. Não verificar informações produzidas pela IA
  4. Ignorar as normas institucionais sobre IA
  5. Usar IA sem supervisão crítica do processo

Antes de mergulharmos em cada erro, recomendo que leias o nosso Guia sobre Erros Fatais ao Usar IA na Tese para teres uma visão mais abrangente dos riscos gerais. Agora, vamos ao que realmente interessa.

Porquê a Ética no Uso de IA É Crucial em Teses Académicas

Sei o que podes estar a pensar: “Ética? Isso não é só para filósofos e comissões de ética?”. Deixa-me contar-te uma história que vai mudar a tua perspectiva.

Em 2024, uma estudante de mestrado em Lisboa — vamos chamá-la de Ana — utilizou o ChatGPT para ajudar na redação de dois capítulos da sua dissertação. Ela não copiou texto diretamente, mas também não mencionou o uso da ferramenta em lado nenhum. O orientador notou algumas inconsistências no estilo de escrita e, após uma breve investigação, a universidade aplicou um processo disciplinar. Resultado? Tese anulada e suspensão de um ano.

A Ana não era uma fraude. Não tinha más intenções. Simplesmente não compreendia o que significa “uso ético de inteligência artificial em teses académicas”.

Ilustração de estudante a ponderar sobre ética e inteligência artificial no contexto académico
A ética no uso de IA exige reflexão e transparência constantes.

O que significa realmente “uso ético de IA” no contexto académico?

Quando falamos de ética na utilização de IA em trabalhos académicos, estamos a referir-nos a três pilares fundamentais:

  • Transparência — declarar abertamente quando e como utilizaste ferramentas de IA
  • Honestidade intelectual — não apresentar como teu aquilo que não criaste
  • Responsabilização — assumir total responsabilidade pelo conteúdo final, independentemente de como foi produzido

Existe uma diferença crucial entre usar IA como ferramenta de apoio (para brainstorming, revisão, ou organização de ideias) e usar IA como substituto do pensamento crítico. A primeira abordagem pode ser perfeitamente ética; a segunda raramente o será.

Referência UNESCO: A Recomendação sobre Ética da Inteligência Artificial (2021) estabelece que o uso de IA deve garantir transparência, responsabilidade humana e respeito pela autonomia intelectual — princípios diretamente aplicáveis ao contexto académico.

O enquadramento internacional que não podes ignorar

As diretrizes da UNESCO não são apenas recomendações bonitas para colocar em documentos oficiais. Elas estão a moldar activamente as políticas das universidades europeias e, cada vez mais, a definir o que constitui conduta aceitável.

A European Network for Academic Integrity (ENAI) publicou recomendações específicas sobre o uso ético de IA na educação. Estudantes têm a responsabilidade de desenvolver literacia em IA e de compreender o que é — e o que não é — aceitável nas suas instituições.

🔗 Para aprofundar este tema, recomendo a leitura do artigo académico ENAI Recommendations on the ethical use of AI in Education.

A Nova Realidade: Como as Universidades Estão a Responder à IA

Se ainda pensas que “ninguém vai descobrir” ou que “a minha universidade ainda não está atenta a isto”, deixa-me desiludir-te gentilmente: estás profundamente enganado.

O aumento exponencial da fiscalização

Desde o final de 2023, as universidades portuguesas e brasileiras aceleraram drasticamente a implementação de políticas específicas sobre IA. E não se trata apenas de regras no papel — há ferramentas de detecção cada vez mais sofisticadas em acção.

Ilustração de sistemas universitários de detecção de conteúdo gerado por IA
As ferramentas de detecção estão cada vez mais sofisticadas.

O Turnitin, por exemplo, actualizou o seu sistema para incluir detecção de texto gerado por IA. Ferramentas como o GPTZero e outras similares estão a ser integradas nos processos de avaliação de muitas instituições. E os orientadores? Estão cada vez mais formados para identificar padrões típicos de escrita artificial.

Os casos de reprovação e sanções disciplinares já não são excepções raras — são uma realidade cada vez mais comum. Em algumas faculdades, o número de processos disciplinares relacionados com IA triplicou em apenas dois anos.

🎬 Recurso Recomendado: Webinar sobre Integridade Académica e IA

O webinar da ABCD-USP em parceria com a Turnitin aborda especificamente como lidar com IA em trabalhos académicos, políticas institucionais e riscos de detecção.

👉 Acede à gravação completa do webinar “Integridade Acadêmica na Era da Inteligência Artificial”

O que mudou concretamente em 2024-2025

Se estás a começar a tua tese agora ou a meio do processo, há três mudanças fundamentais que precisas de conhecer:

  1. Normas mais específicas — Muitas universidades passaram de políticas vagas (“não plagiar”) para regulamentos detalhados sobre IA
  2. Declaração obrigatória — Cada vez mais instituições exigem uma declaração explícita de uso de IA na secção de metodologia
  3. Orientadores alertados — A formação sobre detecção de IA tornou-se comum entre docentes universitários

Para entenderes melhor como a falta de transparência se conecta com os erros de ética, recomendo a leitura do nosso artigo sobre Erros de Transparência com IA que Reprovam Estudantes.

Os 5 Erros de Ética com IA na Tese Que Podem Te Reprovar

Chegámos ao coração deste artigo. Cada um dos erros que vou descrever a seguir já causou reprovações reais e processos disciplinares em universidades de língua portuguesa. Lê com atenção — e, mais importante, age de acordo.

Ilustração dos cinco erros éticos mais comuns no uso de IA em trabalhos académicos
Conhecer os erros é o primeiro passo para evitá-los.

Erro #1 — Omitir Completamente o Uso de IA no Trabalho

Este é, de longe, o erro mais comum e um dos mais graves. Milhares de estudantes utilizam ChatGPT, Claude, Gemini ou outras ferramentas de IA generativa durante o processo de escrita… e simplesmente não mencionam isso em lado nenhum.

Porquê é um erro ético grave?

A omissão viola directamente o princípio de transparência académica. Quando submetes uma tese sem declarar que utilizaste IA, estás implicitamente a afirmar que todo o trabalho foi feito exclusivamente por ti. Isto configura desonestidade intelectual, independentemente de teres ou não copiado texto directamente.

Pensa assim: se um investigador usasse um software estatístico avançado e não o mencionasse na metodologia, isso seria considerado má prática científica. O mesmo princípio aplica-se à IA.

Consequências reais:

  • Reprovação imediata do trabalho
  • Abertura de processo disciplinar
  • Registo permanente de má conduta académica que pode afectar a tua carreira futura

Como evitar:

  • Declara o uso de IA na secção de metodologia ou numa nota de autor
  • Especifica quais ferramentas utilizaste e para que fins exactos
  • Mantém um registo dos prompts que utilizaste (pode ser útil se questionado)

Base normativa: As diretrizes WAME sobre chatbots e IA generativa estabelecem que qualquer uso de LLMs deve ser declarado de forma clara e específica em trabalhos académicos e científicos.

Erro #2 — Apresentar Texto Gerado por IA Como Produção Própria

Este erro está intimamente relacionado com o anterior, mas vai um passo além. Não se trata apenas de omitir — é copiar outputs de IA directamente para a tese sem reescrita, análise crítica ou qualquer tipo de atribuição.

Porquê é um erro ético grave?

Apresentar texto gerado por IA como teu é, na prática, uma forma de plágio — só que de uma fonte não humana. E há um problema adicional: a IA não pode ser autora. Não tem personalidade jurídica, não pode assinar um documento, não pode ser responsabilizada. A responsabilidade é sempre e exclusivamente tua.

Quando copias texto da IA sem o trabalhar, estás a demonstrar ausência de contribuição intelectual original. E a tese, por definição, deve ser uma demonstração das tuas competências de pensamento crítico e síntese.

Consequências reais:

  • Detecção por ferramentas anti-IA (que estão cada vez mais precisas)
  • Questionamento sobre toda a autoria do trabalho — não apenas das partes suspeitas
  • Perda de credibilidade académica que pode perseguir-te durante anos

Como evitar:

  • Usa IA apenas como ponto de partida para brainstorming ou estruturação
  • Reescreve completamente qualquer sugestão da IA com a tua própria voz
  • Aplica pensamento crítico e análise pessoal ao texto final

🔗 Para aprenderes a forma correcta de reconhecer e dar crédito ao uso de IA, lê o nosso artigo sobre Erros ao Citar IA na Tese.

Erro #3 — Não Verificar Informações e Referências Geradas pela IA

Este erro é particularmente traiçoeiro porque pode acontecer mesmo a estudantes bem-intencionados que acreditam estar a usar IA de forma responsável.

A IA “alucina”. Este é um termo técnico para descrever o fenómeno em que ferramentas como o ChatGPT inventam informações que parecem credíveis mas são completamente falsas. E isto inclui referências bibliográficas — a IA pode gerar citações de artigos que simplesmente não existem, com autores fictícios e revistas inventadas.

Porquê é um erro ético grave?

Incluir informação falsa numa tese não é apenas um erro técnico — é uma violação da integridade científica. Propagar dados não verificados compromete todo o valor do teu trabalho e demonstra negligência na tua responsabilidade como autor.

Se as referências falsas forem descobertas (e serão, especialmente por orientadores experientes), podes ser acusado de fabricação de dados — uma das formas mais graves de má conduta académica.

Consequências reais:

  • Citações falsas descobertas = reprovação automática
  • Comprometimento de toda a credibilidade da investigação
  • Possível acusação formal de fabricação de dados

Como evitar:

  • Verifica cada referência sugerida pela IA — sem excepção
  • Cruza todos os dados com fontes primárias
  • Nunca incluas informação que não tenhas confirmado pessoalmente

🔗 O artigo Ética e Integridade acadêmica na Pós-Graduação em Educação em tempos de IA discute precisamente esta responsabilidade de verificação no contexto de dissertações e teses.

Erro #4 — Ignorar as Normas Institucionais Específicas Sobre IA

Cada universidade, cada faculdade, por vezes cada departamento, tem as suas próprias regras sobre o uso de IA em trabalhos académicos. Algumas proíbem completamente, outras regulam de forma detalhada, outras ainda estão em processo de definição de políticas.

Porquê é um erro ético grave?

“Não sabia” nunca é uma justificação válida no contexto académico. Quando te inscreves num programa de mestrado ou doutoramento, aceitas implicitamente cumprir todas as normas da instituição — incluindo aquelas que ainda não conheces.

Ignorar estas políticas pode configurar violação do código de conduta académica, mesmo que o teu uso de IA fosse, em abstracto, perfeitamente razoável. O contexto institucional é determinante.

Consequências reais:

  • Sanções que vão muito além da reprovação (suspensão, expulsão em casos graves)
  • Processos disciplinares formais com consequências duradouras
  • Impacto negativo na progressão académica e profissional futura

Como evitar:

  • Consulta activamente o regulamento académico da tua instituição
  • Pergunta directamente ao orientador antes de usar qualquer ferramenta de IA
  • Documenta qualquer aprovação institucional quando aplicável

🔗 O artigo Inteligência artificial e os desafios à integridade acadêmica: um modelo integrado propõe como combinar normas, pedagogia e tecnologia para reduzir riscos.

Erro #5 — Usar IA Sem Supervisão Crítica e Revisão Humana

O último erro é talvez o mais subtil, mas igualmente perigoso. Trata-se de delegar decisões de conteúdo, estrutura ou argumentação à IA sem aplicar julgamento próprio — essencialmente, usar a IA como piloto automático do teu trabalho académico.

Porquê é um erro ético grave?

A tese não é apenas um documento — é uma demonstração das tuas competências de pensamento crítico, análise e síntese. Quando usas IA de forma passiva, não estás a desenvolver as competências que a tese pretende avaliar. Estás, na prática, a contornar o propósito fundamental do exercício académico.

Além disso, isto viola o princípio de autonomia intelectual. A tua tese deve reflectir o teu percurso de pensamento, as tuas escolhas, os teus argumentos — mesmo que tenhas usado ferramentas para chegar lá.

Consequências reais:

  • Trabalho com inconsistências óbvias de estilo ou profundidade
  • Incapacidade de defender o trabalho em arguição/viva (momento em que tudo fica claro)
  • Suspeita generalizada sobre outras partes da tese

Como evitar:

  • Usa IA como assistente, nunca como autor
  • Revê criticamente cada sugestão antes de a incorporar
  • Garante que consegues explicar e defender qualquer parte do texto

Tabela Resumo dos 5 Erros

Erro Descrição Consequência Principal
#1 Omissão Não declarar uso de IA Reprovação por desonestidade
#2 Plágio de IA Copiar texto sem reescrita Detecção e reprovação
#3 Não verificar Confiar em dados/referências falsas Acusação de fabricação
#4 Ignorar normas Desrespeitar políticas institucionais Processo disciplinar
#5 Sem supervisão Delegar pensamento crítico à IA Incapacidade de defesa

O Que Esperar: O Futuro da Ética com IA no Contexto Académico

Se pensas que as regras actuais já são exigentes, prepara-te: o cenário vai tornar-se ainda mais rigoroso nos próximos anos. Os estudantes que se adaptarem agora estarão muito melhor posicionados do que aqueles que esperarem até ser tarde demais.

Ilustração do futuro da literacia em IA no contexto académico
Preparar-se agora é investir no futuro académico.

Tendências para 2025-2027

Baseado nas políticas já anunciadas e nas discussões em curso nas principais instituições académicas, podemos prever três grandes tendências:

  1. Políticas institucionais muito mais específicas — O vago “não plagiar” será substituído por regulamentos detalhados sobre cada tipo de ferramenta de IA
  2. Ferramentas de detecção mais sofisticadas — A corrida entre IA generativa e IA de detecção vai intensificar-se
  3. Literacia em IA como competência obrigatória — Saber usar IA de forma ética e eficaz será cada vez mais valorizado (e exigido)

O que vai mudar concretamente

Nos próximos anos, é provável que vejas:

  • Declaração de IA obrigatória em todas as submissões académicas, não apenas em teses
  • Formação em ética de IA integrada nos programas de pós-graduação como requisito
  • Maior escrutínio em defesas de tese sobre como e porquê utilizaste determinadas ferramentas

Como te preparares agora

A boa notícia? Podes começar a preparar-te hoje. Desenvolve hábitos de transparência desde já, documenta todo o uso de IA nos teus trabalhos, e investe tempo em compreender verdadeiramente as ferramentas que utilizas.

Os estudantes que dominarem o uso ético de inteligência artificial em teses académicas hoje estarão à frente amanhã — não só evitando reprovações, mas demonstrando competências cada vez mais valorizadas no mercado de trabalho.

Protege a Tua Tese: Não Deixes Que Erros Evitáveis Destruam o Teu Trabalho

Depois de tudo o que leste, uma coisa deve estar clara: saber usar IA de forma ética exige orientação, conhecimento e, acima de tudo, uma abordagem sistemática. Muitos estudantes simplesmente não têm o apoio adequado para navegar este novo território.

E o risco de reprovação é real. Muito real.

A Tesify nasceu precisamente para ajudar estudantes como tu a enfrentar estes desafios. Não se trata de fazer o trabalho por ti — trata-se de te dar as ferramentas e o apoio necessários para garantir que a tua tese cumpre todas as normas éticas e académicas.

Com a Tesify, podes:

  • Evitar os 5 erros fatais descritos neste artigo
  • Estruturar e fundamentar a tua tese de forma sólida
  • Obter orientação sobre como declarar e documentar o uso de IA
  • Submeter um trabalho que te dê confiança total na defesa