A incorporación da intelixencia artificial aos procesos educativos está a suscitar debates que van máis alá da dimensión técnica e que afectan directamente á ética profesional, á noción de autoría e á calidade das aprendizaxes. Un dos máis relevantes é o que se refire á distinción entre traballos realizados por IA e traballos elaborados con IA. A primeira categoría designa aqueles produtos nos que o algoritmo actúa sen supervisión crítica; a segunda, pola contra, refírese a situacións nas que a máquina funciona como ferramenta instrumental baixo o control dun criterio humano. A diferenza pode parecer sutil, mais implica consecuencias de gran calado en termos de fiabilidade, rigor e responsabilidade académica.
Un exemplo aparentemente trivial permite clarificalo: se un usuario lle solicita a un chatbot a redacción dun correo electrónico insultante e decide envialo, o resultado non pode interpretarse como unha ofensa atribuíble á máquina. O insulto provén da persoa que tomou a decisión de formular a instrución, de aceptar a mensaxe xerada polo bot, de copiala e pegala na mensaxe de correo e de premer en “enviar”. A IA, carente de vontade propia, limitouse a materializar unha intención humana preexistente. Esta imaxe, máis aló da súa aparencia anecdótica, ilustra con claridade un principio fundamental: a responsabilidade última sobre calquera produto no que interveña a intelixencia artificial recae sempre sobre quen a emprega.
Traballos por IA: delegación total no algoritmo
Enténdese por traballo realizado por IA aquel no que a intervención humana se restrinxe á formulación dun prompt inicial e á aceptación acrítica do output xerado pola máquina. Trátase dun proceso de delegación completa, no que o usuario renuncia á súa función de mediador e de avaliador.
Este enfoque pode resultar atractivo polos seus beneficios inmediatos: rapidez de resposta e dispoñibilidade permanente ao non precisar de intervención humana. Non obstante, estas vantaxes vense acompañadas de importantes limitacións. A produción xerada por modelos de IA baséase en cálculos estatísticos e, como tal, pode incorporar erros factuais, reproducir estereotipos ou ofrecer respostas excesivamente xenéricas, pouco adaptadas ao contexto específico. O resultado pode aparentar corrección formal, mais dificilmente cumpre cos requisitos de rigor académico ou de pertinencia pedagóxica.
Iso non significa que o traballo por IA careza de utilidade en absoluto. En determinados contextos pode servir como borrador inicial, como fonte de inspiración ou como apoio en tarefas altamente estandarizadas. Porén, sen unha revisión posterior que garanta a súa validez por parte dun profesional, dificilmente pode ser asumido como produto final fiable.
Traballos con IA: mediación crítica e responsabilidade profesional
Os traballos elaborados con IA implican un modelo de colaboración no que a máquina actúa como ferramenta de apoio, mais sen substituír o criterio humano. Neste caso, o usuario integra a tecnoloxía no seu fluxo de traballo, mais conserva a súa función avaliadora e garante a calidade do resultado.
No ámbito educativo, este proceder reflíctese con claridade. Un docente pode empregar un sistema de corrección automática para detectar erros nunha redacción, mais a súa intervención posterior —introducindo matices, engadindo anotacións personalizadas e adaptando o feedback ao perfil do alumno— converte ese output inicial nun produto de valor. Do mesmo xeito, un estudante que recorre á IA para mellorar a súa expresión escrita, mais que analiza os cambios e reescribe o texto incorporando o aprendido, está a traballar con IA e non por IA.
A vantaxe deste enfoque reside en que, aínda que esixe máis tempo e competencias dixitais, ofrece produtos máis fiables, aprendizaxes máis profundas e un marco claro de responsabilidade. A tecnoloxía non substitúe o profesional ou o estudante, senón que potencia a súa capacidade de análise e creación, sempre baixo a premisa da supervisión crítica.
A responsabilidade segue sendo humana
Desde unha perspectiva ética e profesional, resulta ineludible insistir en que a responsabilidade sobre calquera produto no que interveña a IA recae sempre na persoa que a emprega. A máquina carece de intencionalidade moral e o seu funcionamento redúcese á xeración de respostas probabilísticas a partir de datos previamente dispoñibles. Non é, por tanto, suxeito de dereitos nin de obrigas, senón un instrumento subordinado á vontade do usuario.
O xa mencionado exemplo do correo electrónico insultante ilustra con claridade esta realidade. A decisión de formular a instrución, de aceptar o resultado e de transmitilo constitúe unha cadea de accións inequivocamente humanas. O bot non insulta; simplemente vehicula unha intención insultante preexistente.
Aplicado á docencia, isto significa que un profesor que recorre á intelixencia artificial para corrixir redaccións ou traballos está a facer un uso perfectamente lexítimo da tecnoloxía, do mesmo xeito que antes empregabamos dicionarios en liña ou correctores ortográficos. Con todo, esa lexitimidade depende de maneira esencial da revisión crítica que o docente realice sobre o output recibido: só ao incorporar o seu criterio profesional, matizar os erros e adaptar o feedback ao contexto educativo cumpre co seu papel de garante da calidade. Sen esta mediación, pola contra, estaría efectivamente renunciando á súa función docente e trasladando indebidamente á máquina unha responsabilidade que non lle corresponde.
Autoría e transparencia no uso da IA
Unha das cuestións máis complexas que introduce a irrupción da IA é a do estatuto da autoría. Quen debe ser recoñecido como autor dun produto xerado mediante interacción humano-máquina? O docente que define os parámetros e revisa a saída, ou o propio sistema que produce o texto inicial?
A literatura recente subliña esta necesidade de repensar conceptos nucleares. Diversos autores lembran que a crecente capacidade da IA para manipular a linguaxe humana obriga a revisar categorías como cocreación, propiedade e autoría, acompañando esta reconsideración coa adopción de novas estratexias de integridade e transparencia (Bozkurt, 2024, Open Praxis).
Na mesma liña, outros estudos destacan que tanto alumnado como profesorado se enfrontan a dilemas de autoría e de transparencia cando empregan a IA para elaborar materiais ou tarefas avaliativas. Isto abre preguntas difíciles de responder: debe facerse sempre constar este uso?, deberían os estudantes ter dereito a rexeitar contido xerado con IA?, ten o profesorado a obriga de informar de que empregou estas ferramentas en correccións ou materiais de clase? (Strunk e Willis, 2025, Educause).
Neste punto, a prudencia parece o máis recomendable. Máis que impoñer unha resposta categórica, convén manter aberta a discusión sobre en que contextos é necesario explicitar o uso da IA e en que termos. O que resulta evidente é que a transparencia non diminúe o valor dun traballo, senón que o contextualiza e contribúe a preservar a confianza entre docentes e estudantes.
Un debate con antecedentes
A pesar da súa aparente novidade, este debate non xorde de cero. Durante décadas, o profesorado e o alumnado integraron no seu traballo ferramentas que tamén modificaron a forma de producir coñecemento: os dicionarios en liña, os correctores ortográficos ou os buscadores dixitais. En todos estes casos, a responsabilidade sobre a calidade final do traballo continuaba a residir na persoa usuaria, que debía verificar e seleccionar a información obtida.
A diferenza principal da IA xerativa reside no seu grao de autonomía aparente e na capacidade de producir textos que semellan completos e orixinais. Isto incrementa a percepción de risco e fai máis urxente a reflexión sobre autoría e responsabilidade, mais non altera a lóxica fundamental: a ferramenta non exime o usuario da súa obriga de supervisar e validar os resultados.
Conclusión: a primacía do “con” sobre o “por”
En definitiva, tanto os traballos feitos por IA como aqueles elaborados con IA poden ter un lugar lexítimo na educación, mais non equivalen nin en termos de calidade nin en termos de responsabilidade. Os primeiros poden ser útiles en contextos nos que non hai un profesional dispoñible (p.e. un alumno que usa un corrector lingüístico para revisar unha redacción en autonomía, en ausencia do seu profesor). Tamén, como borradores ou como apoio en tarefas altamente rutinarias. Porén, nunca terán a mesma garantía de calidade sen unha revisión crítica por parte dun profesional. Os segundos, en cambio, integran a tecnoloxía de maneira produtiva e sitúan o control no lugar onde debe estar: no criterio humano.
Para o profesorado, o enfoque con IA constitúe non só a opción máis segura, senón tamén a única compatible cun exercicio profesional responsable. Ao mesmo tempo, a reflexión sobre a autoría e sobre a transparencia no uso destas ferramentas obríganos a repensar categorías que ata o de agora dabamos por supostas. Quizais a pregunta clave sexa, a partir de agora: estamos a traballar con IA ou limitámonos a aceptar un resultado xerado por IA? A resposta determinará non só a calidade do produto final, senón tamén a confianza que o alumnado pode depositar no traballo docente.
Referencias
- Bozkurt, A. (2024). GenAI et al.: Cocreation, Authorship, Ownership, Academic Ethics and Integrity in a Time of Generative AI. Open Praxis, 16(1), 1–10. https://doi.org/10.55982/openpraxis.16.1.654
- Strunk, V., & Willis, J. (2025). Generative Artificial Intelligence and Education: A Brief Ethical Reflection on Autonomy. Educause. Recuperado de https://er.educause.edu/articles/2025/1/generative-artificial-intelligence-and-education-a-brief-ethical-reflection-on-autonomy