Una visión crítica de la IA que nació no neutral

Me surgen temas y preguntas:

  1. Cuál fue el propósito de los creadores de las Ias. Su desarrollo y crecimiento se juega entre los beneficios, las oportunidades versus los sesgos técnicos algorítmicos, sociales y políticos, entre las oportunidades y el poder
  2. Entre la libertad y el control de las personas
  3. Entre la pedagogía crítica, la ética, la responsabilidad y la regulación

En una visión crítica: El problema de hoy de la Inteligencia Artificial Generativa (IAG)

A continuación presento un análisis crítico estructurado en los cinco ejes que usted plantea, integrando perspectivas académicas y sociopolíticas actuales:


1. La IA y el propósito de su creación por corporaciones privadas y estatales

La inteligencia artificial generativa no surge en un vacío neutral: está profundamente condicionada por los intereses de las corporaciones tecnológicas y los Estados que la financian. Como señala el análisis crítico desde el pensamiento marxista, «la inteligencia artificial, tal como se desarrolla hoy, no es una entidad independiente o neutral, está directamente sujeta al dominio de los poderes capitalistas, que la dirigen de manera que sirve a sus intereses económicos, políticos, sociales e ideológicos» [[espai-marx.net]].

El propósito corporativo prioriza la maximización de ganancias mediante:

  • La automatización de procesos para reducir costos laborales.
  • La extracción de «plusvalía digital» a partir de los datos que generan los usuarios sin compensación directa.
  • La consolidación de mercados cautivos mediante ecosistemas tecnológicos cerrados (Google, Microsoft, Meta, OpenAI).

Esto genera una paradoja: mientras se promociona la IAG como herramienta de democratización, en la práctica «los beneficios sociales y de sostenibilidad que se han presentado por las empresas desarrolladoras de la IA resultan inciertos y posiblemente tenga consecuencias negativas para las personas, generando una mayor brecha tecnológica e intensificando las desigualdades ya existentes» [[revistas.ucm.es]].


2. La IA: oportunidades relevantes y sesgos técnicos y sociales

Oportunidades

La IAG ofrece posibilidades transformadoras en educación, salud, investigación y creatividad, permitiendo acceso a herramientas de generación de conocimiento antes reservadas a élites técnicas.

Sesgos estructurales

Sin embargo, los modelos reflejan y amplifican prejuicios presentes en sus datos de entrenamiento:

  • «Los modelos de lenguaje (LLM) han demostrado grandes capacidades generativas, pero también reflejan sesgos sociales presentes en los datos utilizados para entrenarlos. Algunos ejemplos incluyen prejuicios raciales, religiosos, sexistas o culturales que se manifiestan en respuestas automáticas generadas por estos sistemas» [[quanam.com]].
  • «Desde el lanzamiento de los modelos de IA generativa por compañías como OpenAI, Microsoft, Google y Meta se han encontrado deficiencias debido a que estas plataformas carecen de pluralidad en las fuentes de información y varios de los resultados que se presentan tienen una tendencia hegemónica y reproducen estereotipos» [[revistas.ucm.es]].

El desafío técnico del unlearning (desaprendizaje) para mitigar sesgos enfrenta limitaciones: difusión del sesgo en patrones distribuidos, efectos colaterales en conocimientos legítimos y dificultad de evaluación [[quanam.com]].


3. La IA y la pedagogía crítica

La pedagogía crítica, inspirada en Paulo Freire, invita a cuestionar las relaciones de poder en los procesos educativos. Frente a la IAG, esto implica:

  • Cuestionar la neutralidad tecnológica: Reconocer que los algoritmos no son objetivos, sino que portan visiones del mundo hegemónicas.
  • Fomentar la alfabetización crítica en IA: Enseñar a estudiantes y docentes a identificar sesgos, verificar fuentes y comprender los límites éticos de estas herramientas.
  • Evitar la reificación del conocimiento: «En pedagogía crítica, la reificación implica la pérdida de humanidad» [[rutamaestra.santillana.com.co]]. La IAG no debe sustituir el pensamiento crítico, sino potenciarlo.

Un estudio en educación superior evidenció «un uso intensivo y creciente de la IAG por parte de los estudiantes para la realización de actividades académicas, contrastando con un bajo nivel de conocimiento y preparación de los docentes para supervisar y orientar el empleo ético de estas tecnologías», junto con «la carencia de políticas institucionales específicas que regulen el uso responsable de la IAG» [[reicomunicar.org]].


4. La IA, el poder y la hegemonía política y económica

La IAG se ha convertido en un campo de disputa geopolítica y de consolidación de poder:

  • Concentración tecnológica: Un puñado de corporaciones y Estados (EE.UU., China, UE) controlan el desarrollo de modelos avanzados, definiendo estándares globales.
  • Control de la narrativa: «Los algoritmos se emplean precisamente para restringir el alcance del contenido político izquierdista y progresista, no eliminándolo por completo, sino reduciendo su visibilidad» [[espai-marx.net]].
  • Hegemonía epistémica: Las plataformas de IAG tienden a invisibilizar corrientes de pensamiento contrahegemónicas y conocimientos no occidentales, consolidando «un discurso homogéneo» que amenaza la diversidad cognitiva [[revistas.ucm.es]].
  • Vigilancia y control laboral: La IA se utiliza para monitorear productividad, intensificar ritmos de trabajo y precarizar empleos, reforzando mecanismos de dominación de clase [[espai-marx.net]].

5. La IA, la ética, la responsabilidad y la regulación

Desafíos éticos prioritarios

  • Responsabilidad difusa: ¿Quién responde cuando un sistema de IAG genera daño? ¿El desarrollador, el usuario, la plataforma?
  • Transparencia algorítmica: La opacidad de los modelos («caja negra») dificulta la auditoría ética y la rendición de cuentas.
  • Derechos y desinformación: «Algunas de las respuestas y creaciones de la IA podrían estar vulnerando leyes y derechos, además existe el riesgo de que estas plataformas sean herramientas de desinformación» [[revistas.ucm.es]].

Hacia una regulación crítica

Se requiere un marco regulatorio que:

  1. Exija diversidad en las fuentes de entrenamiento y evaluación de sesgos.
  2. Garantice la participación ciudadana y de organismos independientes en la gobernanza de la IA.
  3. Proteja los derechos laborales, la privacidad y la libertad de expresión frente a usos extractivos o represivos.
  4. Promueva la «alfabetización algorítmica» como derecho educativo fundamental.

Como concluye la investigación en educación superior: «se hace indispensable fomentar un debate crítico y regulaciones adecuadas para asegurar una inteligencia artificial justa, transparente y confiable» [[quanam.com]].


Reflexión final: La IAG no es ni buena ni mala en sí misma; su impacto depende de las estructuras de poder que la orientan. Una visión crítica exige no solo preguntar qué puede hacer la IA, sino para quién, con qué fines y bajo qué condiciones de justicia. La pedagogía crítica, la regulación democrática y la participación social son claves para que la inteligencia artificial sirva a la emancipación humana y no a la consolidación de nuevas formas de dominación.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio