Me surgen temas y preguntas:
- Cuál fue el propósito de los creadores de las Ias. Su desarrollo y crecimiento se juega entre los beneficios, las oportunidades versus los sesgos técnicos algorítmicos, sociales y políticos, entre las oportunidades y el poder
- Entre la libertad y el control de las personas
- Entre la pedagogía crítica, la ética, la responsabilidad y la regulación
En una visión crítica: El problema de hoy de la Inteligencia Artificial Generativa (IAG)
A continuación presento un análisis crítico estructurado en los cinco ejes que usted plantea, integrando perspectivas académicas y sociopolíticas actuales:
1. La IA y el propósito de su creación por corporaciones privadas y estatales
La inteligencia artificial generativa no surge en un vacío neutral: está profundamente condicionada por los intereses de las corporaciones tecnológicas y los Estados que la financian. Como señala el análisis crítico desde el pensamiento marxista, «la inteligencia artificial, tal como se desarrolla hoy, no es una entidad independiente o neutral, está directamente sujeta al dominio de los poderes capitalistas, que la dirigen de manera que sirve a sus intereses económicos, políticos, sociales e ideológicos» [[espai-marx.net]].
El propósito corporativo prioriza la maximización de ganancias mediante:
- La automatización de procesos para reducir costos laborales.
- La extracción de «plusvalía digital» a partir de los datos que generan los usuarios sin compensación directa.
- La consolidación de mercados cautivos mediante ecosistemas tecnológicos cerrados (Google, Microsoft, Meta, OpenAI).
Esto genera una paradoja: mientras se promociona la IAG como herramienta de democratización, en la práctica «los beneficios sociales y de sostenibilidad que se han presentado por las empresas desarrolladoras de la IA resultan inciertos y posiblemente tenga consecuencias negativas para las personas, generando una mayor brecha tecnológica e intensificando las desigualdades ya existentes» [[revistas.ucm.es]].
2. La IA: oportunidades relevantes y sesgos técnicos y sociales
Oportunidades
La IAG ofrece posibilidades transformadoras en educación, salud, investigación y creatividad, permitiendo acceso a herramientas de generación de conocimiento antes reservadas a élites técnicas.
Sesgos estructurales
Sin embargo, los modelos reflejan y amplifican prejuicios presentes en sus datos de entrenamiento:
- «Los modelos de lenguaje (LLM) han demostrado grandes capacidades generativas, pero también reflejan sesgos sociales presentes en los datos utilizados para entrenarlos. Algunos ejemplos incluyen prejuicios raciales, religiosos, sexistas o culturales que se manifiestan en respuestas automáticas generadas por estos sistemas» [[quanam.com]].
- «Desde el lanzamiento de los modelos de IA generativa por compañías como OpenAI, Microsoft, Google y Meta se han encontrado deficiencias debido a que estas plataformas carecen de pluralidad en las fuentes de información y varios de los resultados que se presentan tienen una tendencia hegemónica y reproducen estereotipos» [[revistas.ucm.es]].
El desafío técnico del unlearning (desaprendizaje) para mitigar sesgos enfrenta limitaciones: difusión del sesgo en patrones distribuidos, efectos colaterales en conocimientos legítimos y dificultad de evaluación [[quanam.com]].
3. La IA y la pedagogía crítica
La pedagogía crítica, inspirada en Paulo Freire, invita a cuestionar las relaciones de poder en los procesos educativos. Frente a la IAG, esto implica:
- Cuestionar la neutralidad tecnológica: Reconocer que los algoritmos no son objetivos, sino que portan visiones del mundo hegemónicas.
- Fomentar la alfabetización crítica en IA: Enseñar a estudiantes y docentes a identificar sesgos, verificar fuentes y comprender los límites éticos de estas herramientas.
- Evitar la reificación del conocimiento: «En pedagogía crítica, la reificación implica la pérdida de humanidad» [[rutamaestra.santillana.com.co]]. La IAG no debe sustituir el pensamiento crítico, sino potenciarlo.
Un estudio en educación superior evidenció «un uso intensivo y creciente de la IAG por parte de los estudiantes para la realización de actividades académicas, contrastando con un bajo nivel de conocimiento y preparación de los docentes para supervisar y orientar el empleo ético de estas tecnologías», junto con «la carencia de políticas institucionales específicas que regulen el uso responsable de la IAG» [[reicomunicar.org]].
4. La IA, el poder y la hegemonía política y económica
La IAG se ha convertido en un campo de disputa geopolítica y de consolidación de poder:
- Concentración tecnológica: Un puñado de corporaciones y Estados (EE.UU., China, UE) controlan el desarrollo de modelos avanzados, definiendo estándares globales.
- Control de la narrativa: «Los algoritmos se emplean precisamente para restringir el alcance del contenido político izquierdista y progresista, no eliminándolo por completo, sino reduciendo su visibilidad» [[espai-marx.net]].
- Hegemonía epistémica: Las plataformas de IAG tienden a invisibilizar corrientes de pensamiento contrahegemónicas y conocimientos no occidentales, consolidando «un discurso homogéneo» que amenaza la diversidad cognitiva [[revistas.ucm.es]].
- Vigilancia y control laboral: La IA se utiliza para monitorear productividad, intensificar ritmos de trabajo y precarizar empleos, reforzando mecanismos de dominación de clase [[espai-marx.net]].
5. La IA, la ética, la responsabilidad y la regulación
Desafíos éticos prioritarios
- Responsabilidad difusa: ¿Quién responde cuando un sistema de IAG genera daño? ¿El desarrollador, el usuario, la plataforma?
- Transparencia algorítmica: La opacidad de los modelos («caja negra») dificulta la auditoría ética y la rendición de cuentas.
- Derechos y desinformación: «Algunas de las respuestas y creaciones de la IA podrían estar vulnerando leyes y derechos, además existe el riesgo de que estas plataformas sean herramientas de desinformación» [[revistas.ucm.es]].
Hacia una regulación crítica
Se requiere un marco regulatorio que:
- Exija diversidad en las fuentes de entrenamiento y evaluación de sesgos.
- Garantice la participación ciudadana y de organismos independientes en la gobernanza de la IA.
- Proteja los derechos laborales, la privacidad y la libertad de expresión frente a usos extractivos o represivos.
- Promueva la «alfabetización algorítmica» como derecho educativo fundamental.
Como concluye la investigación en educación superior: «se hace indispensable fomentar un debate crítico y regulaciones adecuadas para asegurar una inteligencia artificial justa, transparente y confiable» [[quanam.com]].
Reflexión final: La IAG no es ni buena ni mala en sí misma; su impacto depende de las estructuras de poder que la orientan. Una visión crítica exige no solo preguntar qué puede hacer la IA, sino para quién, con qué fines y bajo qué condiciones de justicia. La pedagogía crítica, la regulación democrática y la participación social son claves para que la inteligencia artificial sirva a la emancipación humana y no a la consolidación de nuevas formas de dominación.