O Dilema Silencioso de Milhares de Estudantes Portugueses
Era janeiro de 2024 quando Miguel, estudante de mestrado em Ciências Sociais na Universidade de Lisboa, recebeu o e-mail que mudaria tudo. Após meses de trabalho, a sua tese tinha sido rejeitada. Não por falta de qualidade da pesquisa, não por argumentos fracos, mas por algo que ele nunca imaginou: uso inadequado de inteligência artificial.

Miguel não é um caso isolado. Nos últimos dois anos, mais de 37% dos estudantes universitários portugueses admitiram ter usado ChatGPT ou outras ferramentas de IA durante a elaboração das suas teses, segundo dados preliminares do Observatório da Ciência e do Ensino Superior. O problema? A maioria não sabe realmente quais são os limites éticos e legais deste uso.
Neste artigo, vou revelar-vos a verdade incómoda sobre o uso permitido de ChatGPT em teses académicas e mostrar-vos exatamente como proteger o vosso trabalho de anos de consequências devastadoras. Vamos desvendar os riscos ocultos: desde o plágio não intencional até violações éticas que podem anular completamente o vosso grau académico.
“A tecnologia pode ser uma aliada poderosa, mas quando mal utilizada transforma-se numa armadilha silenciosa que destrói carreiras antes mesmo de começarem.”
Continuem a ler, porque o que vou partilhar pode fazer a diferença entre o sucesso e o fracasso da vossa jornada académica.
O Que as Universidades Portuguesas Realmente Dizem Sobre IA
Políticas Oficiais: O Quadro Regulatório Atual
Aqui está o que poucos estudantes sabem: cada universidade portuguesa tem autonomia para definir as suas próprias regras sobre o uso de ferramentas de inteligência artificial. E acreditem, não há uma resposta única.
A Universidade de Lisboa publicou em março de 2024 diretrizes que permitem o uso de IA para “tarefas auxiliares”, mas exigem declaração explícita de todas as ferramentas utilizadas. Já a Universidade do Porto adotou uma postura mais conservadora, classificando como fraude académica qualquer uso de IA para geração de texto original em dissertações e teses.

A Universidade de Coimbra, por sua vez, criou um comité de ética específico para avaliar caso a caso. Percebem a confusão? É como navegar num labirinto onde as paredes mudam constantemente de posição.
Mas há algo que todas têm em comum: o Regulamento Geral de Proteção de Dados (RGPD). Quando inserem dados sensíveis da vossa pesquisa — entrevistas, dados pessoais de participantes, informações confidenciais — em plataformas como o ChatGPT, estão potencialmente a violar legislação europeia. E isto, meus caros, pode ter consequências legais que vão muito além da universidade.
🔍 Zona Cinzenta: Onde as Regras Ainda Não São Claras
- Uso de IA para tradução de textos não-principais
- Revisão gramatical automatizada de rascunhos
- Geração de código para análise estatística
- Brainstorming inicial de estrutura
A solução? Consultem sempre o vosso orientador antes de usar IA para qualquer finalidade. Documentem tudo por e-mail. Esta comunicação pode ser a vossa salvação se surgirem dúvidas posteriores.
E atenção: não declarar o uso de ferramentas de IA quando utilizadas é considerado pela maioria das universidades como fraude académica por omissão. É como copiar de um colega mas não admitir quando confrontado. A consequência pode ser a mesma: reprovação imediata.
Os 5 Erros Fatais Que Podem Reprovar Sua Tese
Depois de conversar com dezenas de orientadores e analisar casos reais de teses rejeitadas, identifiquei os cinco erros mais comuns — e devastadores — que estudantes cometem ao usar ChatGPT. E vou ser brutalmente honesto convosco: a ignorância não vos vai proteger.
1. Plágio por IA: O Inimigo Invisível
ChatGPT foi treinado com milhões de textos académicos. Quando lhe pedem para “escrever sobre X”, ele não cria do zero — recombina e parafraseia conteúdo existente. O problema? Muitas vezes gera texto assustadoramente similar a artigos publicados, sem vocês perceberem.
Ana, doutoranda em História na Universidade Nova de Lisboa, descobriu isto da pior forma. Usou o ChatGPT para “melhorar” um parágrafo sobre a Guerra Peninsular. Resultado? O software Turnitin identificou 43% de similaridade com três artigos académicos que ela nunca tinha lido. A explicação de que “foi a IA” não a salvou da acusação de plágio.
2. Falta de Transparência: O Pecado Capital
Este é simples, mas muitos estudantes ignoram: não declarar o uso de IA é mentir por omissão. Mesmo que tenham usado apenas para corrigir vírgulas ou traduzir uma citação, a falta de transparência pode invalidar todo o trabalho.
Pensem assim: se um cientista não declarasse um equipamento usado numa experiência, os resultados seriam considerados inválidos. Com IA é exatamente igual. Para saber exatamente como fazer esta declaração corretamente, consultem o nosso guia completo sobre uso ético de IA em teses universitárias, onde partilhamos templates e exemplos práticos adaptados às universidades de Lisboa.
3. Delegação Total: Quando a IA Escreve Por Si
Conheço um caso — não vou revelar a universidade — de um estudante que literalmente copiou e colou capítulos inteiros gerados pelo ChatGPT. Mudou alguns nomes, ajustou parágrafos, mas a estrutura argumentativa era 100% artificial.
O orientador percebeu imediatamente. Como? A tese não tinha alma. Faltava a perspectiva única, as hesitações intelectuais, as conexões criativas que só um ser humano faz. Era tecnicamente correta, mas intelectualmente vazia.
4. Dados Fabricados: A Catástrofe Mais Perigosa
Atenção máxima aqui: ChatGPT inventa informação com uma confiança assustadora. Pedem-lhe referências bibliográficas? Ele cria autores fictícios, títulos de livros que não existem, até números de DOI completamente inventados.
Um estudante de Engenharia do Porto citou 12 artigos “fornecidos” pelo ChatGPT. Durante a defesa, um membro do júri pediu para ver um artigo específico. Não existia. As restantes 11 referências também eram falsas. Resultado? Tese anulada e processo disciplinar.
5. Violação de Confidencialidade: O Erro Legal
Quando inserem dados da vossa pesquisa em plataformas públicas de IA, esses dados podem ser usados para treinar modelos futuros. Se a vossa investigação envolve dados pessoais — entrevistas, questionários, informações médicas — estão a violar o RGPD.
E não é só teoria. Uma estudante de Psicologia foi processada civilmente por uma participante da sua pesquisa depois de descobrir que fragmentos das entrevistas tinham sido inseridos no ChatGPT. A universidade afastou-se do caso, e ela teve que arcar sozinha com as consequências legais.
✅ Checklist Rápida de Verificação Ética
- Consultei o regulamento específico da minha universidade sobre IA?
- Discuti abertamente com o meu orientador sobre o uso de ferramentas?
- Estou a usar IA apenas para tarefas auxiliares, não para geração de conteúdo original?
- Verifiquei independentemente todas as referências fornecidas por IA?
- Preparei uma declaração transparente de todas as ferramentas utilizadas?
- Evitei inserir dados sensíveis ou confidenciais em plataformas públicas?
Se responderam “não” a qualquer pergunta, parem agora e corrijam antes de submeter a vossa tese.
A Revolução (e Confusão) da IA na Academia Portuguesa
Como o ChatGPT Transformou a Escrita Académica em 2023-2025
Vou ser sincero convosco: a inteligência artificial mudou completamente as regras do jogo na escrita académica. E não, não é apenas uma moda passageira que vai desaparecer. É uma transformação tão profunda quanto foi a chegada da internet às bibliotecas universitárias nos anos 90.
Segundo um estudo recente da Fundação para a Ciência e Tecnologia (FCT), 62% dos estudantes de doutoramento portugueses já experimentaram ferramentas de IA na sua investigação. Destes, 41% admitem usar regularmente durante a escrita da tese. Estes números duplicaram apenas no último ano.

Mas aqui está o paradoxo fascinante: enquanto a adoção dispara, a compreensão dos riscos permanece perigosamente baixa. É como entregar as chaves de um Ferrari a alguém que acabou de tirar a carta — a potência está lá, mas a maturidade para a controlar ainda não.
Benefícios Reais: Onde a IA Realmente Ajuda
Não vamos demonizar a tecnologia. Quando bem utilizada, a IA pode ser uma aliada extraordinária:
- Brainstorming estrutural: Organizar ideias dispersas numa estrutura coerente de capítulos
- Revisão linguística: Identificar erros gramaticais subtis e melhorar clareza
- Superação do bloqueio criativo: Gerar pontos de partida quando ficam presos
- Síntese de literatura: Resumir papers longos para identificar conceitos-chave (com verificação posterior)
- Tradução de conceitos: Compreender terminologia técnica em outras línguas
A Professora Doutora Mariana Silva, da Faculdade de Letras da Universidade de Coimbra, partilhou comigo: “Encorajo os meus alunos a usar IA como um interlocutor para testar argumentos. É como ter um colega disponível 24 horas para debater ideias. O que não aceito é que a IA substitua o próprio pensamento crítico do estudante.”
O Lado Obscuro: Casos Documentados de Fraude Académica
Mas nem tudo são rosas. Em 2024, a Universidade de Lisboa abriu 23 processos disciplinares relacionados com uso fraudulento de IA. A Universidade do Porto reportou números semelhantes. Estamos a falar de carreiras destruídas, anos de trabalho invalidados, reputações manchadas permanentemente.
O caso mais mediático envolveu um doutorando em Ciências da Computação (a ironia não passou despercebida a ninguém) que submeteu uma tese com seções inteiras geradas por IA. O júri de defesa, composto por especialistas internacionais, identificou imediatamente padrões típicos de geração automática. A defesa oral transformou-se num interrogatório constrangedor quando o candidato não conseguiu explicar conceitos fundamentais da “sua própria” investigação.
“A tecnologia expôs uma verdade incómoda: sempre houve estudantes que tentam atalhos. A diferença é que agora esses atalhos são mais sofisticados e as consequências mais graves.”
— Professor Doutor António Ferreira, Diretor de Departamento, Universidade Nova de Lisboa
Uso Permitido vs. Uso Proibido: A Linha Vermelha
Está na hora de acabar com a confusão. Criei esta tabela baseada nas políticas atuais das principais universidades portuguesas e nas melhores práticas internacionais. Guardem isto, imprimam se necessário, porque esta é a vossa bússola moral:
Notem o padrão? A IA pode ser ferramenta, nunca o autor. Pode apoiar o vosso processo, mas não pode substituir o vosso intelecto. É a diferença entre usar uma calculadora para verificar contas (permitido) e copiar a resolução completa de um problema matemático (proibido).
E aqui vai uma verdade que muitos orientadores partilharam comigo confidencialmente: eles conseguem identificar texto gerado por IA mesmo sem software de detecção. Como? Falta a voz única do estudante, as hesitações intelectuais, os saltos criativos inesperados. A IA é competente mas previsível. A mente humana é, felizmente, maravilhosamente imprevisível.
Para aprofundar este tema crucial e descobrir como manter a originalidade da vossa escrita mesmo quando usam ferramentas de apoio, recomendo vivamente o nosso artigo sobre originalidade e ética em teses portuguesas com IA, onde partilhamos estratégias concretas para preservar a vossa voz académica única.
A Verdade Que Ninguém Está a Contar: Insights de Quem Avalia Teses
Confissões de Orientadores: Como Detectam Uso Inadequado de IA
Sentei-me com sete professores universitários de diferentes áreas — desde Humanidades até Engenharia — e pedi-lhes que fossem brutalmente honestos: como identificam quando um estudante usou IA de forma inadequada? As respostas foram reveladoras.
Sinais Reveladores Que os Orientadores Identificam Imediatamente
1. Mudanças súbitas de estilo e voz: O Professor Doutor Carlos Mendes, da Faculdade de Ciências Sociais, explicou: “Quando leio 50 páginas com erros típicos de um estudante — construções frásicas peculiares, vírgulas no sítio errado — e de repente surge um capítulo com prosa impecável e vocabulário sofisticado, sei imediatamente que algo mudou. É como se outra pessoa tivesse escrito.”
2. Vocabulário inconsistente: Um estudante que escreve “mais-valia” durante toda a tese e subitamente usa “valor agregado sinérgico” levanta bandeiras vermelhas. A IA tem tendência para usar jargão corporativo e expressões anglófonas traduzidas literalmente.
3. Argumentos superficiais com linguagem sofisticada: “É o fenómeno que chamo de ‘tudo muito bonito mas vazio’“, partilhou a Professora Doutora Isabel Santos. “Frases longas, palavras impressionantes, mas quando descias à substância, não há profundidade analítica real. É como embrulho de presente caro com nada lá dentro.”
4. Ausência de citações de conversas ou trocas com o orientador: Teses genuínas têm marcas do processo de orientação — ideias discutidas em reuniões, perspectivas que evoluíram ao longo do tempo. Texto gerado por IA surge completo, sem este “ADN” do processo colaborativo.
Ferramentas de Detecção: O Arsenal Universitário
As universidades portuguesas investiram pesadamente em tecnologia de detecção. Aqui está o que realmente usam:
- Turnitin AI Detection: Integrado na maioria das plataformas de submissão, analisa padrões linguísticos típicos de IA com alegada precisão de 98% (embora haja controvérsia sobre falsos positivos)
- GPTZero: Usado especialmente para textos em inglês, identifica “perplexidade” e “burstiness” — características que distinguem escrita humana de IA
- Originality.AI: Ferramenta emergente que algumas faculdades começaram a testar em 2024
- Análise comparativa manual: Professores experientes comparam rascunhos iniciais com versão final, identificando transformações suspeitas
Mas aqui está o segredo que ninguém vos conta: estas ferramentas têm limitações significativas. Podem dar falsos positivos (acusar texto humano de ser IA) e falsos negativos (não detectar IA bem editada). Por isso, os orientadores experientes nunca confiam apenas na tecnologia.
⚠️ Consequências Documentadas em Portugal
Advertência académica: Primeira infração, geralmente resulta em reescrita obrigatória
Reprovação da tese: Uso extensivo sem declaração
Suspensão temporária: Casos de fraude intencional e deliberada
Anulação do grau académico: Casos extremos onde a fraude foi descoberta após defesa
Processo disciplinar: Pode resultar em expulsão da universidade
Registo permanente: Infrações ficam no histórico académico, podendo comprometer candidaturas futuras
O Paradoxo da Produtividade: Por Que Usar Demais IA Prejudica Sua Aprendizagem
Aqui está algo que me fascina como alguém que acompanha a evolução tecnológica e educação: a IA pode tornar-vos mais rápidos, mas não necessariamente melhores. E para comprovar isto, não precisamos de teorias — temos neurociência.

Um estudo publicado em 2024 na revista Nature Human Behaviour (Davenport & Kalakota, 2024) demonstrou que estudantes que dependem excessivamente de ferramentas de IA para escrita desenvolvem menor capacidade de pensamento crítico a longo prazo. O cérebro, essencialmente, “terceiriza” processos cognitivos complexos e perde a prática de desenvolvê-los internamente.
Pensem nisto como o equivalente intelectual de usar sempre GPS. Vocês chegam ao destino mais rápido, sim, mas nunca aprendem realmente o caminho. E quando o GPS falha? Ficam completamente perdidos.
Síndrome do Copiloto: A Nova Epidemia Académica
Dei este nome ao fenómeno que observo cada vez mais: estudantes que perderam a capacidade de escrever autonomamente. Começam com “apenas uma ajudinha” para estruturar um parágrafo, depois para “melhorar” frases, eventualmente para “desenvolver” ideias. Progressivamente, o copiloto torna-se o piloto principal.
O Professor Doutor Miguel Rodrigues, que orienta doutoramentos em Educação, partilhou um caso preocupante: “Tinha um estudante brilhante nas discussões, com insights originais e pensamento crítico afiado. Mas quando se sentava para escrever, ficava bloqueado. Descobri que tinha desenvolvido tanta dependência de IA que perdeu confiança na própria capacidade de articular pensamentos no papel. Tivemos que fazer ‘reabilitação’ — sessões onde ele escrevia à mão, sem tecnologia, para recuperar essa competência básica.”
Impacto na Defesa Oral: Quando a Verdade Surge
Aqui está onde tudo desmorona para quem abusou de IA: a defesa oral. Podem enganar software de detecção, podem até enganar orientadores durante a escrita. Mas quando estão face a face com um júri, fazendo perguntas específicas sobre metodologia, escolhas analíticas, interpretação de dados… a verdade emerge.
Presenciei uma defesa onde o candidato não conseguiu explicar por que escolheu determinado marco teórico. “Está na tese”, repetia nervosamente. Mas não conseguia articular o raciocínio porque, simplesmente, não tinha sido ele a desenvolver esse raciocínio — tinha sido o ChatGPT.
O júri não reprovou apenas a tese. Reprovou o estudante por falta de apropriação do conhecimento — a essência do que significa ser académico. E essa marca permaneceu.




Leave a Reply