A vueltas con la IA. Una mirada a su dimensión ética en las instituciones educativas

La percepción social de la inteligencia artificial está profundamente condicionada por los medios de comunicación y por narrativas que, con frecuencia, adoptan un tono apocalíptico (Coeckelbergh, 2020), fomentando el desarrollo de perfiles de corte tecnófilo-tecnófobo. Esta distorsión informativa no solo moldea el imaginario colectivo (Morozov, 2013), sino que también se filtra en contextos educativos, donde la tecnología se discute a menudo desde el miedo o la fascinación, pero rara vez desde una comprensión crítica y matizada sobre un fenómeno que tiene sus riesgos y promesas.

No hay duda, por tanto, de que la IA está en boca de todo el mundo. Eurídice Cabañes indicaba en 2021 que el protagonismo creciente de la IA en el debate público respondía, por un lado, a las narrativas catastróficas impulsadas por los medios y, por otro, al aumento de la preocupación social por el tratamiento de los datos y la privacidad. La novedad, los discursos sensacionalistas y la desinformación —o malinformación, aprovechando la terminología de MacIntyre (2018)— dominan el espacio mental de quienes no trabajan profesionalmente con tecnología. Incluso para quienes investigamos estos procesos desde enfoques críticos resulta difícil interrumpir el ruido discursivo para plantear preguntas relevantes. Sin embargo, de manera paralela a las visiones alarmistas sobre el desarrollo tecnológico, surge también una perspectiva que parece no ocupar el mismo espacio mediático: la visión informada y capaz de diferenciar entre posibilidades tecnológicas, límites y transformaciones reales. En este contexto, surge una pregunta clave que orienta nuestro trabajo investigador: ¿De qué hablamos realmente cuando hablamos de IA?

Ética, instituciones y el espejismo del consenso
En el ámbito educativo, la conversación pública y académica suele recurrir a la idea de “uso ético” de la IA por parte de las instituciones. Este planteamiento aparece en múltiples marcos de referencia internacionales —UNESCO (2021), OECD (2023), Comisión Europea (2022)— que enumeran los elementos a tener en cuenta cuando se habla de IA en educación: responsabilidad, transparencia, gobernanza algorítmica y de datos, equidad, accesibilidad y supervisión humana, etc. En esta línea, la literatura especializada coincide en que gestionar IA en un entorno tan diverso como el educativo requiere analizar una miríada de factores sociotécnicos en constante cambio.

Sin embargo, pese a la abundancia de principios éticos, los discursos institucionales suelen ser vagos, superficiales o excesivamente aspiracionales. A esta falta de claridad conceptual se suma un elemento que rara vez se explicita en los discursos institucionales: el desequilibrio entre los planteamientos éticos y las infraestructuras reales disponibles para hacerlo posible. Así, las instituciones educativas plantean la formulación de principios sobre el uso responsable de la IA, pero operan en entornos donde los sistemas, los recursos técnicos y las capacidades organizativas son profundamente desiguales. La infraestructura —económica, técnica y organizativa— no es un requisito accesorio: es el terreno sobre el cual pueden sostenerse los planteamientos éticos. En un escenario donde las instituciones operan con recursos heterogéneos, las promesas éticas corren el riesgo de no ir acompañadas de las herramientas necesarias para cumplirlas, generando un desajuste que puede repercutir en el ecosistema educativo a través de transferencia en las prácticas docentes, la toma de decisiones y las posibilidades de uso pedagógico.

¿De que tipo de IA hablamos cuando hablamos de IA en educación?
Cuando hablamos de “IA en educación”, ¿estamos hablando realmente de toda la inteligencia artificial, o únicamente de las IAs generativas que ocupan el debate público? La literatura reciente muestra que existe una fuerte tendencia a reducir el concepto de IA educativa exclusivamente a modelos generativos, invisibilizando sistemas mucho más antiguos y extendidos como los algoritmos de recomendación, los sistemas de gestión académica, los modelos de analítica del aprendizaje o las bases de datos institucionales. Esta confusión conceptual tiene consecuencias éticas profundas: ¿debemos aplicar los mismos criterios éticos a un modelo generativo que a un sistema de predicción del rendimiento? ¿Cómo cambian los riesgos, las obligaciones y las responsabilidades en función del tipo de tecnología desplegada?

La revisión ética de la IA no puede entenderse sin atender a estos matices, o sin reconocer que el papel del profesorado se ve reconfigurado por tecnologías que automatizan tareas, mediatizan decisiones o condicionan prácticas pedagógicas. Además, los contextos educativos son tremendamente heterogéneos: no es lo mismo implementar IA en primaria que en posgrado, ni en entornos rurales que en espacios metropolitanos. Así, cada contexto presenta desafíos técnicos, organizativos y culturales diferentes (Cotrina-Aliaga et al., 2021; Giró y Sancho-Gil, 2022). Por ello, cualquier aproximación ética a la IA en educación debe asumir esta diversidad y evitar soluciones universales o simplificadas.

La dimensión política de la IA y el punto de partida de nuestra investigación
La IA es, inevitablemente, un objeto de discusión política. Tal y como han señalado autores como Winner  (1980) o Crawford (2021), toda tecnología forma parte de un entramado de decisiones, intereses y relaciones de poder que la dotan de significado más allá de su funcionamiento técnico. Las distintas aproximaciones teóricas al fenómeno tecnológico coinciden en que hablar de inteligencia artificial implica analizar cómo se articulan las dimensiones técnicas, institucionales y sociales que le dan forma y legitiman su uso.

Este ecosistema tecno-social constituye el punto de partida del proyecto de investigación que desarrollo en mi tesis doctoral, cuyo objetivo es comprender los usos y percepciones vinculados a las implicaciones éticas del uso de sistemas de IA en educación superior. En el contexto universitario, donde conviven infraestructuras desiguales y prácticas metodológicas profundamente diversas, comprender cómo se percibe y se decide sobre la IA exige escuchar la pluralidad de voces que participan en su despliegue. Por ello, la investigación se articula en torno a cuatro grupos de interés analítico —profesorado, alumnado, responsables institucionales y profesionales de IA— con el fin de poner en diálogo las ideas de manera que se promueva la propuesta y desarrollo de medidas a futuro que sean realistas con el contexto y que permitan a quien tiene el poder de toma de decisiones comprender qué aspectos son necesarios a tener en cuenta.  Aunque la extrapolación a otros niveles educativos requiere cautela, este enfoque permite observar tensiones, expectativas y prácticas que son, en gran medida, comunes a distintos contextos formativos e institucionales.

El debate sobre los usos éticos de la IA en educación está condicionado por narrativas simplificadoras, déficits infraestructurales e institucionales y una frecuente confusión entre uso instrumental y conocimiento tecnológico. Por ello, toda aproximación ética significativa debe partir de un análisis del contexto de implementación, permitiendo reconocer sus desigualdades y condicionantes organizativos, pero también el potencial humano de transformación. Solo desde esa mirada compleja podremos formular preguntas pertinentes y construir marcos éticos que no se queden en la superficie, sino que respondan a las realidades que definen cómo, para quién y con qué propósito se implementa la IA en el contexto educativo.

Web del grupo de investigación: https://globaleducation.unican.es/

Bibliografía

Coeckelbergh, M. (2020). Ética de la inteligencia artificial. Cátedra.

Cotrina Aliaga, J., Vera, M., Ortiz-Cotrina, W. y Sosa-Celi, P. (2021). Uso de la Inteligencia Artificial (IA) como estrategia en la educación superior. Revista Iberoamericana de la Educación. https://doi.org/10.31876/ie.vi.81

Crawford, K. (2021). Atlas of AI. Yale.

European Commission: Directorate-General for Education, Youth, Sport and Culture. (2022). Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators. Publications Office of the European Union. https://data.europa.eu/doi/10.2766/153756

Giró, J. y Sancho-Gil, J. M. (2022). Inteligencia artificial y equidad educativa: retos, tensiones y oportunidades. RUSC. Universities and Knowledge Society Journal, 19(2), 1–14.

MacIntyre, L. (2018). Posverdad. Cátedra.

Morozov, E. (2013). To save everything, click here: The folly of technological solutionism. PublicAffairs.

OECD (2023). OECD Digital Education Outlook 2023: Towards an Effective Digital Education Ecosystem. OECD Publishing. https://doi.org/10.1787/c74f03de-en

The Conversation. (2021). Eurídice Cabañes: “Somos cíborgs, personas híbridas fundidas con la tecnología”. https://doi.org/10.64628/AAO.mxmacappj

UNESCO. (2021). Recommendation on the ethics of artificial intelligence.
https://unesdoc.unesco.org/ark:/48223/pf0000381137

Winner, L. (1980). Do artifacts have politics? Daedalus, 109(1), 121–136.

Author:

Jaime Moreno Carpintero

Grupo Global Education

Universidad de Cantabria

También te podría gustar...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.