Estudante universitário a usar inteligência artificial na tese com atenção às regras de ética académica
, ,

5 Erros de Ética ao Usar IA na Tese | Guia 2025

Tesify Avatar

5 min de leitura

5 Erros de Ética ao Usar IA na Tese Que Podem Te Reprovar


Imagina este cenário: passaste meses a desenvolver a tua investigação, noites sem dormir a escrever, e no dia da defesa, o júri confronta-te com uma questão inesperada. “Pode explicar-nos exatamente como utilizou o ChatGPT neste trabalho?” O silêncio que se segue pode custar-te o grau académico que tanto lutaste para conquistar.

Não é ficção. Em 2024, universidades portuguesas e brasileiras reportaram um aumento superior a 300% em processos disciplinares relacionados com o uso ético de inteligência artificial em teses académicas. A Universidade de Coimbra, a Universidade do Porto, e diversas instituições brasileiras já aplicaram sanções que vão desde a reprovação até à anulação de graus previamente atribuídos.

Estudante universitário numa encruzilhada simbólica entre o caminho da ética académica e as consequências da fraude

A inteligência artificial generativa — ChatGPT, Claude, Gemini e tantas outras — revolucionou a forma como escrevemos e investigamos. Mas essa revolução criou uma zona cinzenta ética que muitos estudantes ainda não compreendem. E é precisamente nessa zona que se escondem os erros que podem destruir anos de trabalho.

Neste guia, vou revelar-te os 5 erros críticos de ética que distinguem o uso legítimo da IA da fraude académica pura e simples. Mais do que isso: vou mostrar-te exatamente como evitar cada um deles, com exemplos concretos, modelos de declaração e um checklist prático que podes usar ainda hoje.

Porque a verdade é esta: estes erros não resultam apenas em notas baixas — podem significar reprovação, anulação do teu grau ou processos disciplinares que ficam no teu registo académico para sempre.

Se estás a usar IA na tua tese (e provavelmente estás), este artigo pode ser a diferença entre o sucesso e o fracasso.

O Que Define o Uso Ético de IA em Teses Académicas?

Antes de mergulharmos nos erros, precisamos de estabelecer um terreno comum. Afinal, o que significa realmente usar IA de forma ética num contexto académico? A resposta não é tão simples quanto “usar” ou “não usar” — é muito mais nuanceada.

Após analisar dezenas de regulamentos universitários, diretrizes de publishers científicos e recomendações de organismos internacionais, identifico três pilares fundamentais que sustentam o uso ético de IA:

Os três pilares do uso ético de IA na academia: Transparência, Responsabilidade e Integridade representados como colunas que sustentam o sucesso académico

  1. Transparência — Declarar claramente quando, como e para quê utilizaste ferramentas de IA. Não se trata apenas de mencionar “usei o ChatGPT”, mas de documentar o processo de forma que permita a outros compreender e, se necessário, replicar o teu método.
  2. Responsabilidade — O autor humano permanece integralmente responsável por todo o conteúdo. Não podes culpar a IA por erros, informações falsas ou argumentos mal construídos. Se está na tua tese, és tu o responsável.
  3. Integridade — Não apresentar output de IA como trabalho intelectual genuinamente teu. A análise, a síntese e a argumentação original têm de ser demonstravelmente tuas.

Estes três pilares podem parecer simples em teoria, mas na prática são frequentemente mal compreendidos ou deliberadamente ignorados.

A UNESCO, no seu guia de 2023 sobre IA generativa em educação e investigação, estabelece princípios claros que se tornaram referência mundial:

“A responsabilidade final pelo conteúdo gerado com auxílio de IA deve permanecer sempre com o ser humano.”

A Springer Nature, uma das maiores editoras científicas do mundo, é inequívoca na sua política sobre IA: os LLMs como o ChatGPT não cumprem os critérios de autoria científica. Porquê? Porque não podem assumir responsabilidade pelo trabalho, não podem responder a questões dos revisores e não têm capacidade de consentir com a publicação.

Isto significa que, mesmo que a IA tenha “escrito” partes do teu texto, tu és o único autor — com todas as responsabilidades que isso acarreta.

Por Que as Universidades Estão a Endurecer as Regras em 2025

Se achas que o ambiente académico está a tornar-se mais tolerante com o uso de IA, tenho notícias preocupantes. A realidade é precisamente o oposto: estamos a assistir a um endurecimento sem precedentes das regras.

Vamos fazer uma breve viagem no tempo:

  • 2022 (pré-ChatGPT): A maioria das universidades não tinha qualquer política específica sobre IA generativa.
  • 2023-2024: Período de pânico e experimentação. Algumas instituições proibiram completamente o ChatGPT, outras adotaram uma posição de espera.
  • 2025: As universidades consolidaram políticas claras, com cláusulas específicas sobre IA nos regulamentos de ética.

Ferramentas de deteção de IA a analisar um documento académico, mostrando a evolução da precisão dos algoritmos de deteção

Há dois anos, era relativamente fácil “enganar” os detetores de conteúdo gerado por IA. Hoje? A história é completamente diferente. Ferramentas como Turnitin AI Detection, GPTZero e Originality.ai tornaram-se dramaticamente mais precisas. A taxa de deteção em 2025 é estimada em 85-95% para textos gerados diretamente por IA.

E aqui está o alerta que muitos estudantes precisam de ouvir: Não confies em “humanizadores” de texto — as ferramentas já os identificam. Esses serviços que prometem “tornar o teu texto indetectável” frequentemente criam padrões linguísticos específicos que os novos algoritmos reconhecem. Pior: o uso destes serviços pode ser interpretado como tentativa deliberada de fraude, agravando as potenciais sanções.

A escalada de sanções nas universidades portuguesas e brasileiras segue tipicamente este padrão: advertência formal, reprovação na unidade curricular, anulação do grau e, em casos extremos, expulsão da instituição. Mas as consequências não terminam na universidade — um registo em processos disciplinares pode afetar candidaturas a programas de doutoramento, bolsas de investigação e até oportunidades de emprego.

Os 5 Erros Críticos Que Podem Destruir a Tua Tese

Chegámos ao núcleo deste artigo. Os próximos minutos podem literalmente salvar a tua carreira académica. Cada um destes erros é real, documentado, e já custou o grau a estudantes reais. Não sejas o próximo.

Checklist ilustrado com os cinco pontos críticos a verificar antes de usar IA na tese académica

Erro #1 — Não Declarar o Uso de IA

Este é, de longe, o erro mais comum e, paradoxalmente, o mais fácil de evitar. Consiste em omitir completamente que utilizaste o ChatGPT, Claude ou qualquer outra ferramenta de IA generativa no desenvolvimento do teu trabalho.

Viola frontalmente o princípio de transparência exigido por praticamente todas as instituições em 2025. Mesmo que o teu uso tenha sido perfeitamente legítimo, a omissão configura potencial fraude académica. É como encontrarem uma faca escondida — mesmo que não a tenhas usado para nada de mal, o facto de a esconderes levanta questões sérias.

Como evitar: Inclui sempre uma declaração específica na secção de Metodologia:

“Neste trabalho, foi utilizado o ChatGPT (versão GPT-4, OpenAI, março 2025) para [finalidade específica]. Todos os outputs foram criticamente avaliados, verificados contra fontes primárias e substancialmente editados pelo autor. A responsabilidade pelo conteúdo final é integralmente do autor.”

Erro #2 — Apresentar Texto de IA Como Escrita Própria

Copiar outputs da IA diretamente para a tua tese sem reformulação substancial. Fazer passar argumentação ou análise gerada pela máquina como pensamento original teu. Segundo a WAME e a Springer Nature, isto equivale a ghost-writing — fraude de autoria na sua forma mais clara.

O problema não é apenas ético: uma tese é uma prova de que desenvolveste competências específicas. Se essa prova foi “fabricada” por IA, não tem valor.

Como evitar: Aplica esta regra de ouro: “Se não consegues explicar ou defender este parágrafo em voz alta, sem consultar notas, não o incluas.”

Erro #3 — Aceitar Referências “Inventadas” pela IA

Tratar o ChatGPT como se fosse uma base de dados fiável. Pedir à IA para “encontrar referências” e incluí-las na bibliografia sem verificar se sequer existem. Os LLMs frequentemente “alucinam” — inventam autores fictícios, títulos de artigos que nunca existiram e anos de publicação fantasiados.

Citar fontes inexistentes não é apenas um erro — é falsificação académica, uma das infrações mais graves no mundo universitário.

Como evitar: Verifica SEMPRE cada referência. Usa Google Scholar, repositórios institucionais, bibliotecas digitais — qualquer fonte que te permita confirmar que o artigo realmente existe.

Erro #4 — Ignorar os Regulamentos da Tua Instituição

Assumir que “toda a gente usa IA, logo é permitido” sem nunca consultar o regulamento de ética da tua universidade. Muitas instituições têm cláusulas específicas que exigem aprovação da comissão de ética para usar IA em certos contextos.

A ignorância da norma não é defesa válida em processos disciplinares. “Eu não sabia” pode ser verdade, mas não te vai proteger.

Como evitar: Consulta o regulamento académico ANTES de começares a usar IA. Em caso de dúvida, contacta a comissão de ética ou o teu orientador — eles preferem responder a uma pergunta preventiva do que lidar com um processo disciplinar.

Erro #5 — Expor Dados Sensíveis em Prompts de IA

Inserir dados de entrevistas, respostas de questionários ou informações pessoais de participantes da tua investigação em prompts de ChatGPT. Isto viola o RGPD e os princípios de consentimento informado — os participantes não consentiram que os seus dados fossem processados por terceiros.

Além de infração ética, pode constituir infração legal, com consequências que transcendem o âmbito académico.

Como evitar: Anonimiza TODOS os dados antes de qualquer interação com IA. Remove nomes, localizações, datas específicas e qualquer informação identificadora. Usa apenas dados sintéticos ou exemplos genéricos quando precisas de ajuda da IA para análise.

Aprofunda o Tema — Vídeo Recomendado

Às vezes, ouvir especialistas a discutir um tema em profundidade ajuda a consolidar conceitos que parecem abstratos no papel. Este vídeo da Universidade Federal de Goiás apresenta uma palestra completa sobre o uso de IA em atividades académicas, com exemplos concretos de boas e más práticas.

Palestra oficial UFG sobre questões éticas e boas práticas no uso de IA em trabalhos académicos.

O Caminho Para Usar IA Sem Medo

A inteligência artificial não é inimiga da tua tese — a falta de transparência é que o é. A IA pode ser uma ferramenta extraordinária para brainstorming, revisão linguística, organização de ideias e até para te ajudar a superar bloqueios criativos. O segredo está em usá-la como assistente, nunca como substituto do teu pensamento crítico.

Lembra-te dos três pilares: transparência, responsabilidade e integridade. Se cada decisão que tomares passar por este filtro, estarás no caminho certo.

A minha previsão para os próximos anos? Até 2026, 90% das universidades europeias terão políticas específicas e detalhadas para o uso de IA. Isto significa mais clareza para todos — mas também menos margem para erros “inocentes”.

O momento de te informares e agires corretamente é agora. Não esperes pelo dia da defesa para descobrir que cometeste um erro evitável. Consulta o regulamento da tua instituição, conversa com o teu orientador, e documenta cada passo do teu processo.

A tua tese representa meses ou anos de trabalho árduo. Não deixes que um erro de ética — perfeitamente evitável — destrua tudo o que construíste.


Leave a Reply

Your email address will not be published. Required fields are marked *