Source: The Conversation – (in Spanish) – By Edgar Alejandro Ruvalcaba Gómez, Professor, Universidad de Guadalajara
Imagine que solicita una ayuda del Gobierno y un algoritmo decide si la recibe o no. Nadie le explica por qué, nadie revisa la decisión, simplemente “el sistema” dice que no es para usted. ¿Le parecería justo? ¿Democrático? Pues esto ya está ocurriendo en muchos países. Y es solo el principio.
La inteligencia artificial ha dejado de ser ciencia ficción para convertirse en algo tan cotidiano como pedir comida a domicilio o buscar información en Google. Pero cuando estos mismos sistemas empiezan a tomar decisiones que antes tomaba personal de la función pública, a quién conceder una beca, a quién investigar, qué información mostrarle sobre su gobierno…, surge una pregunta incómoda: ¿quién controla a los algoritmos que nos controlan?
El problema: decisiones sin rostro
Los gobiernos de todo el mundo están adoptando la IA a marchas forzadas. Prometen eficiencia, rapidez, mejores servicios. Y en parte tienen razón: un algoritmo puede analizar miles de solicitudes en minutos, detectar patrones de fraude o personalizar la información que cada persona necesita. El problema aparece cuando nadie puede explicar cómo se llegó a una determinada decisión.
A esto se le llama “la caja negra”: el algoritmo funciona, pero ni siquiera sus creadores saben exactamente por qué elige A en lugar de B. Es como tener un funcionario que toma decisiones importantes, pero se niega a dar explicaciones. Inaceptable en una democracia, ¿verdad? Pues con la IA está ocurriendo constantemente.
¿Qué se está haciendo al respecto?
En varios países están empezando a tomarse esto en serio. España, por ejemplo, ha creado una Agencia de Supervisión de Inteligencia Artificial, básicamente, un organismo que vigila que estos sistemas no se pasen de la raya y ha desarrollado una Carta de Derechos Digitales que pone límites claros: la tecnología está al servicio de las personas, no al revés.
Estos esfuerzos, que se han debatido en encuentros internacionales como la reciente Cumbre de Gobierno Abierto celebrada en la ciudad de Vitoria, apuntan a una idea central: no basta con publicar datos públicos en internet si los algoritmos que los procesan son opacos e imposibles de auditar.
El reto, según expertos de diferentes países, es triple:
-
Tecnológico: automatizar procesos gubernamentales sin perder el control humano sobre las decisiones importantes. Un algoritmo puede sugerir, pero ¿debe decidir por sí solo quién recibe una ayuda o quién va preso?
-
Legal: las leyes van lentas, la tecnología va rápida. Para cuando se aprueba una regulación, la IA ya cambió tres veces. Se necesitan marcos legales ágiles que puedan adaptarse sin quedarse obsoletos al año siguiente.
-
Cultural: que la gente confíe. Y aquí está lo más difícil. ¿Cómo convencer a la ciudadanía de que un algoritmo es justo si no podemos explicar cómo funciona?
El lado oscuro: cuando la transparencia se automatiza… pero al revés
La gran paradoja es que la IA podría hacer a los gobiernos más transparentes que nunca. Imagine información pública adaptada a cada necesidad, explicaciones automáticas en lenguaje sencillo, datos presentados de forma que cualquiera los entienda. Pero si se hace mal, ocurre exactamente lo contrario: lo que los expertos llaman “opacidad automatizada”. Los gobiernos nos dicen: “el algoritmo lo decidió”, y se lavan las manos. No hay a quién reclamar, no hay forma de apelar, no hay manera de entender qué pasó. Es como si la burocracia kafkiana se hubiera multiplicado por mil y además se hubiera vuelto invisible.
¿Democracia o “algoritmocracia”?
El politólogo Manuel Alcántara lo planteó recientemente de forma cruda: estamos en una democracia mediada por pantallas donde la información llega tan rápido y tan sesgada que los ciudadanos cada vez están más alienados del poder real. Los algoritmos deciden qué noticias vemos, qué debates aparecen en nuestro timeline, qué imagen tenemos de nuestros gobernantes.
No es que la tecnología sea mala en sí misma. Es que estamos dejando que moldee nuestra forma de entender la política sin preguntarnos si eso es lo que queremos. ¿El resultado? Una sociedad fragmentada en burbujas, donde cada grupo vive en su propia realidad informativa y la conversación democrática se vuelve imposible.
Cómo domesticar la tecnología
La buena noticia es que hay salidas. Y no pasan por rechazar la tecnología, sino por domesticarla. Algunas propuestas concretas:
-
Algoritmos explicables: si un sistema toma una decisión que le afecta, debe poder justificarla en términos que usted entienda. No vale eso de que “el algoritmo lo ha dicho”.
-
Auditorías independientes: equipos expertos que revisen regularmente si estos sistemas están siendo justos o están discriminando sin que nadie se dé cuenta.
-
Participación ciudadana real: que la gente común participe en decidir cómo se usan estas tecnologías. No solo los ingenieros y los políticos.
-
Regulación con principios claros: que la ley establezca líneas rojas –hay decisiones que un algoritmo nunca debería tomar solo– y obligaciones de transparencia.
El futuro se escribe ahora
Al final, la discusión sobre la inteligencia artificial no es una simple cuestión técnica, sino política en el sentido más profundo. Se trata de decidir qué tipo de sociedad queremos: ¿una donde las máquinas toman decisiones que no podemos cuestionar? ¿O una donde la tecnología amplifica nuestra capacidad de participar, entender y controlar a nuestros gobiernos?
La experiencia de países como España muestra que regular y abrir no son opuestos: la regulación protege derechos, la apertura da legitimidad. Otros países, como México, tienen la oportunidad de construir sus propias estrategias nacionales poniendo la equidad y los derechos humanos en el centro.
El futuro de la democracia no se va a decidir solo en las urnas o en las manifestaciones. También se decide en el código de los algoritmos que median cada vez más las decisiones colectivas. Por eso, el control democrático de la IA no puede ser asunto solo de especialistas. Es una responsabilidad de todos y todas.
Porque al final, se trata de algo simple: que la tecnología sirva para empoderarnos como ciudadanos, no para convertirnos en datos que un algoritmo procesa sin preguntarnos qué pensamos.
![]()
Edgar Alejandro Ruvalcaba Gómez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
– ref. La nueva burocracia invisible: ¿puede la IA convertir la administración en una “caja negra”? – https://theconversation.com/la-nueva-burocracia-invisible-puede-la-ia-convertir-la-administracion-en-una-caja-negra-269137

