
Artículo de nuestro compañero Florent Marcellesi publicado en Green European Journal
Los líderes mundiales y los inversores privados se pelean por hacerse un hueco en la fiebre del oro de la inteligencia artificial. La irrupción de la china DeepSeek ha sacudido momentáneamente el dominio estadounidense en el sector, mientras la UE trata de ponerse al día sin perder de vista los riesgos de un avance tecnológico sin control. Pero para que la IA cumpla su promesa de impulsar una revolución ecológica y socialmente justa, su modelo actual necesita un replanteamiento de base.
Hoy la herramienta favorita de la internacional reaccionaria y negacionista occidental es la motosierra. Pero ¿qué pasaría si esta motosierra mecánica diera un salto tecnológico y fuera además controlada por la Inteligencia Artificial (IA)? En un mundo incierto e inestable donde las motosierras iliberales y climato-escépticas de Donald Trump, Javier Milei y Viktor Orban se han aliado con la oligarquía tecnobro de Silicon Valley, esta pregunta es central para el devenir de nuestras democracias y del planeta.
Y tampoco es una pregunta tan nueva. Cualquier nueva tecnología en el campo de la información que ha surgido a lo largo de la Historia plantea retos complejos para Sapiens. Por ejemplo, ¿han representado una mejora democrática y social la invención de la radio y la televisión? Pues resulta que han sido usadas tanto para fines democráticos como totalitarios, ya sea por ejemplo para la resistencia francesa desde Radio Londres o para el cine propagandístico nazi de Leni Riefenstahl. Como bien recuerda Yuval Noah Harari, “la información no es la verdad. Su principal tarea es conectar más que representar, y las redes de información a lo largo de la historia han privilegiado a menudo el orden sobre la verdad. (…) Más información, irónicamente, puede resultar a veces en más caza de brujas”1. Avisados estamos, hay antecedentes.
Eso sí, desde la Segunda Guerra Mundial, las nuevas –y enseguida ya no tan nuevas– tecnologías (ordenadores, internet, smartphones, redes sociales, etc), se suceden a una velocidad cada vez más vertiginosa y exponencial. Y casualidad, o no, chocan de frente y de manera temporalmente simultánea con otra crisis desenfrenada que achaca la especie humana: la ecológica. Mientras que estas tecnologías dieron una cal y otra de arena para el planeta, con un balance global bastante pobre, ¿será la IA el santo grial para la sostenibilidad o la sierra artificial que corte la última rama en la que Sapiens está sentado? Mire usted, si hasta la propia IA es incapaz de responder a esta pregunta. Pruebe y verá. Spoiler: disonancia cognitiva garantizada.
A estas alturas de la película, fiebre de oro tecnológica tras fiebre de oro tecnológica, sabemos de sobra que las tecnologías de la información modernas son a la vez fuente de nuevas soluciones y nuevos problemas. Añadiendo en el caso de la IA un factor suplementario nada insignificante: a su manera, la IA es capaz de aprender y pensar por sí sola, y lo hace muy pero que muy rápido. Ante estos desafíos con sabor a déjà vu pero con nuevas incógnitas, ¿cómo performa la IA en derechos y ecología? Y, sobre todo, ¿cuál debería ser la respuesta pública y colectiva para sacar lo mejor de su potencial y que no sea ninguna arma de caza de brujas moderna, ni ninguna bomba ecológica?
Big Brother is back
La IA vuelve a abrir el debate entre tecnología y derechos fundamentales. Su potencial la convierte en un arma de doble filo según en qué manos caiga. Al igual que la televisión o el cine llegaron a ser armas de propaganda masiva o que las redes sociales pueden ser fuentes descomunales de desinformación en el siglo XXI,2 ¿qué papel puede jugar la IA en un mundo cada vez más convulso y con fuertes tintes autoritarios y reaccionarios?
Muchos poderes públicos claman que la IA bien empleada puede servir como un sistema para reforzar la seguridad ciudadana. Sin embargo, si bien puede llegar a ser cierto en algunos casos, el reconocimiento facial y la vigilancia biométrica en espacios públicos y privados3 abren también las puertas a reducir fuertemente ciertos derechos fundamentales como la libertad de expresión e información, el derecho a manifestarse o el derecho a la privacidad. Y nada de esto es un futurible. En Argentina, dos días antes de una importante manifestación en 2023, el Gobierno motosierrano del presidente Milei, con su lema anti-piqueteros “el que corta no cobra”, amenazó con utilizar el reconocimiento facial para identificar a las personas manifestantes y recortar sus beneficios sociales. La amenaza surtió efectos: la poca gente presente en la calle era inversamente proporcional al mucho derecho a la protesta que se evitó de forma preventiva. En Rusia, personas que atendieron el funeral del opositor Alexei Navalny, muerto en las cárceles de Putín, fueron arrestadas tras ser identificadas por el reconocimiento facial que analizó las imágenes de las cámaras de seguridad y de las redes sociales. Big Brother strikes gain.
Si no se regula o controla correctamente, no todos somos y seremos iguales ante ‘Big BroTech‘.
No solo esto. Como si ya estuviéramos inmersos en un capítulo de Black Mirror, la IA puede reforzar de forma muy tangible los llamados social scoring, es decir sistemas de puntuación social o ciudadana. A través de estas herramientas, es posible evaluar los comportamientos de las personas mediante la recopilación masiva de datos personales y luego vincular sus derechos, sus prestaciones sociales o al acceso a los servicios públicos a su puntuación. Las consecuencias en la vida cotidiana son potencialmente enormes: menos privacidad, discriminación social, control en el ámbito público y privado, impacto en la salud mental, etc. ¿Imposible? Pero si China ya lo está probando con su sistema de crédito social. Así que desde el punto de vista de los derechos y seguridad, andemos también con cuidado ante la llegada fracasante de la IA china DeepSeek. Más allá de la censura más visible en esta IA (pregúntele a ella misma por ejemplo sobre Tiananmen o Taiwan), el Gobierno chino ya ha probado en el pasado que sabe usar su poder tecnológico como arma para la vigilancia, el control y la coerción tanto en su país como fuera. Ojo, no es oro todo lo que reluce.
Pero no seamos hipócritas. En Estados Unidos, el país de la Broligarquía,4 si bien los objetivos iniciales de algunos usos de la IA buscan con razón mejorar la eficiencia de lo público y hasta lo pueden conseguir, se ha estudiado que los algoritmos también pueden tener un sesgo discriminatorio en contra de los colectivos pobres y clases trabajadoras. Mientras que en Ámsterdam las autoridades llegaron a utilizar un algoritmo para clasificar a los jóvenes de barrios desfavorecidos en función de su probabilidad de convertirse en delincuentes. Como critica un centenar de ONGs europeas, hoy la IA tal y como es desarrollada hoy amplifica las discriminaciones de clase, sexistas o racistas. Si no se regula o controla correctamente, no todos somos y seremos iguales ante “Big BroTech”.
Y recordemos: los derechos no son solo civiles sino también sociales y económicos. En este sentido, ¿cómo afecta la IA a un derecho constitucional básico como es el trabajo?5 Mientras que a día de hoy la IA irrumpe en el mundo laboral, o al menos así se vende, como un coche de Fórmula 1 en una zona 30, la realidad es quizás menos disruptiva. Por ejemplo, en España, un informe no apunta a una gran revolución laboral sino más bien a cambios diferenciados y matizados según qué sector.6 Por su parte a nivel mundial, la Organización Internacional del Trabajo augura sobre todo una complementariedad entre los empleos existentes y la IA, indicando un cambio en la intensidad del trabajo y la autonomía, con un mayor riesgo para las mujeres.7 Asimismo, sin prisa pero sin pausa, el cuestionamiento en torno a IA y trabajo tendría que ser ante todo cualitativa y finalista. ¿Reforzará la IA a las personas trabajadoras o mermará sus derechos? ¿Aportará más igualdad laboral entre hombres y mujeres o mayor brecha de género? ¿Ayudará a deshacernos de los bullshit job o los hará aún más bullshit? Y más allá, ¿fomentará los sectores verdes o reforzará los sectores insostenibles?
El precio ecológico de la IA
De hecho, para nadie es un secreto: la IA consume cantidades astronómicas de recursos naturales. No lo dicen ludistas o ecologistas lunáticos sino Sam Altman, el director general de OpenAI. Reconociendo que la IA podría crear una crisis energética, llegó a decir en el foro de Davos del 2024 que “no hay manera de llegar sin cambios drásticos”. Pero si bien el mismísimo gurú de la IA reconoce lo evidente, la industria no da, ni filtra casi ningún dato. Sin embargo, la IA, ya sea para sus centros de datos, sus procesos de aprendizaje o su uso diario, necesita mucha electricidad, agua, minerales, al mismo tiempo que emite mucho CO2.
Primero, se estima que la demanda de electricidad relacionada con la IA creada por la Big Tech se podría duplicar de aquí a 2030. En 2027, ¡la IA generativa podría consumir ni más ni menos que tanta electricidad como España en 2022!8 El problema es que esta demanda crece más rápido que el desarrollo de las energías renovables y nos enfrenta a dos problemas de gran magnitud. Por un lado, ¿cómo generamos esta electricidad? Mientras Trump 2.0 apuesta por las energías sucias como el carbón, el petróleo o el gas, y por tanto llevarnos a los peores escenarios climáticos, Altman y otras grandes multinacionales de la IA, como Microsoft o AWS, apuestan por la energía nuclear para complementar las renovables. Y no cualquier nuclear, la fusión, que hoy sigue siendo una distopía lejana.
Así que si uno apuesta por proteger el clima y sin esperar a la más que dudosa fusión, otro problema surge. Si la oferta de electricidad renovable es insuficiente para la demanda global, ¿quién se quedaría con la electricidad verde producida? En un mundo donde no es posible tenerlo todo al mismo tiempo (energía infinita y clima estabilizado dentro de los límites del Acuerdo de París), habría que decidir entre chatear con una IA, conducir el coche eléctrico o encender la luz en casa. U, otra opción, que solo una parte de la población tenga acceso a estos servicios que quizás algún día sean considerados como lujos para otra parte de la población. Sin ninguna sorpresa, de nuevo, ecología y justicia son dos caras del mismo reto.
Segundo, la IA necesita agua, mucha agua. Incluso utilizando modelos conservadores, se proyecta que el consumo de agua dulce de los centros de datos de Estados Unidos en 2028 podría hasta cuadruplicar el nivel de 2023. Para cada diez consultas que usted le hace al ChatGPT-3, se consume 500 mililitros de agua. Multiplique esto por miles de millones de consultas al día y hágase una idea del volumen total requerido. Con la IA, nadamos en un océano de efecto rebote. Por si fuera poco, la IA, como cualquier otra nueva tecnología reciente, requiere también muchos minerales (cobre, litio, cobalto, etc.). Esto podría reforzar los conflictos de uso entre IA, coches eléctricos y energías renovables, todos muy necesitados de dichas materias primas, y acentuar la presión sobre los conflictos socio-ecológicos tales como la apertura de nuevas minas en Europa. La tecnología no es inocua, su desarrollo tiene un precio ecológico y democrático.
Por último, pero no menos importante, la IA no es para nada neutral en carbono. Si realiza usted una conversación corta con el último modelo de ChatGPT, habrá emitido en torno a 0,27 kilogramos equivalentes de CO2. Y si realiza una media de 10 intercambios de este tipo al día durante un año, hablamos de casi una tonelada de CO2 al año. Esto equivale a la mitad de lo que una persona debería emitir en 2050 para respetar el Acuerdo de París. Poca broma sí, pero a la luz de los acontecimientos provenientes de China, este consumo de energía y emisiones faraónicas no parecen del todo inevitables. Donde parecía que solo el Big (Heavy) Tech estadounidense muy necesitada en recursos podía performar bien, la china DeepSeek llega a resultados similares usando mucho menos chips. Según los primeros datos, consume entre un 10% y un 40% menos de energía que sus competidores. Si bien hay que cogerlos con cautela hasta tener más transparencia sobre la realidad de la IA oriental, y que incluso así el consumo sigue siendo ingente y no se libra del efecto rebote, esta (relativamente) Little Tech aporta un granito de arena para cuestionar los excesos de la IA de Silicon Valley y ponerla a dieta.
Pero más allá de este pulso energético y geopolítico entre EEUU y China, para ambos se plantea la pregunta del millón. ¿Puede la IA compensar la huella ecológica que ella misma provoca e incluso inclinar la balanza hacia la sostenibilidad? Es lo que piensa Bill Gates.9 Es cierto que existen usos alentadores para la transición ecológica: redes energéticas más eficientes, modelización climática más potente o investigación científica más rápida.10 Pero ojo, lo mismo se decía de la revolución digital de la High Tech hace 30 años. Hoy a pesar de sus promesas iniciales en los noventas y de sus usos nada insignificantes a favor de la eficiencia, internet emite más CO2 que la aviación11 y la huella ecológica mundial no ha parado de crecer. Y recuerden: en el campo de la IA, no solo juega el equipo de la transición ecológica. Al igual que lo hicieron con lo digital, los magnates de las energías fósiles también usan hoy la IA para acelerar la exploración y explotación de hidrocarburos.12 Y evidentemente, por mucho que pese al clima, no juegan para perder. ¿In Gates we trust?
Ahora bien, entre riesgos y potencialidades, y ante su inevitable desarrollo, ¿qué hacemos con la IA? Primero, recordemos una vez más lo básico. Como bien plantea Climate Change AI, la IA no es ninguna solución milagrosa. Más bien, es una herramienta adicional, que hay que usar con moderación cuando aporta un valor añadido ambiental y social y que además sólo será útil si es usada para potenciar la transición ecológica y justa.
Para ello, es necesario regular el uso que se puede hacer de la IA.13 Es lo que ha hecho por ejemplo la Unión Europea de forma pionera a nivel mundial, principalmente en torno a los derechos fundamentales. Persiguiendo un afán loable para proporcionar al mismo tiempo seguridad y ética, la ley aprobada en 2024 excluye la puntuación social, el reconocimiento de emociones en el lugar de trabajo y en las escuelas, la actuación policial predictiva, la manipulación del comportamiento humano o que explote las vulnerabilidades de las personas o algunos sistemas de categorización biométrica14 (pero, cuidado, autoriza el uso del reconocimiento biométrico con fines policiales). Además, para cualquier uso considerado de alto riesgo,15 y so pena de multas millonarias, los organismos y empresas responsables deberán evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y contar con supervisión humana. La UE se ha leído a Hobbes y Orwell, y se protege ante el Leviatán moderno.
Ahora bien, si bien la UE es campeona en legislación, ¿está preparada para luchar en el terreno de la innovación tecnológica con EEUU y con China? En el contexto actual donde EEUU crea la IA, China la copia y UE la regula, es urgente que Europa ponga en marcha todas las herramientas posibles para superar su mero papel de legislador mundial y, más allá de la reglamentación, asegure también su soberanía tecnológica. Entre la Bro Tech capitaneada por Elon Musk y la Oriental Tech tutelada por el Gobierno chino, puede hacerlo de forma distinta, combinando el impulso público y la cooperación pública-privada con la protección de los derechos fundamentales, una menor necesidad de recursos monetarios y naturales, y una tecnología propia al servicio de las personas y del planeta.
Para ello, se requieren varios criterios claros. Primero, además de mantener los altos estándares sobre derechos de la ciudadanía, la transparencia de la IA es una pieza fundamental. Asimismo se trata de conocer la información sobre los datos de entrenamiento, es decir entender cómo piensa y los valores detrás del modelo. No es lo mismo una IA entrenada con el pensamiento de Buda que con los del Ku-Klux-Klan. Ni serán iguales sus respuestas y el comportamiento humano derivado. El sesgo ideológico y cultural del entrenamiento inicial importa. En este contexto, la educación crítica y desde una edad temprana para la juventud así como la formación continua de las personas trabajadores es básico para un uso informado, responsable y ético de la tecnología en general y de la IA en particular.
Segundo, ante su potencial disruptivo, es necesario plantear una IA de código abierto como modelo base para su futuro desarrollo en vez de una IA cerrada y opaca en manos de una Silicon Valley fuera de control. Al igual que la World Wide Web vio la luz gracias al financiamiento público de muchos países europeos y luego pasó a ser de dominio público en 1993, una IA universal, pública y abierta sería una apuesta clara por una tecnología democrática, innovadora y colaborativa.16 Es decir, una apuesta por una tecnología donde la comunidad global y las Little tech, y no solo las Big Tech, pueden contribuir y beneficiarse tanto social como económicamente de los avances en esta materia.
Tercero, el impacto ecológico de la IA tiene que ser una variable central de la ecuación. Como recuerda la experta en IA Sasha Luccioni, ciertos usos de la IA no tienen sentido en un mundo ecológicamente sostenible y ambientalmente justo: para un cálculo simple, hágame el favor de coger un boli o una calculadora, no la IA. Dicho de otra manera, hacer su lista de compra con la IA o preguntarle por el tiempo o cómo vestirse al día siguiente es cómo coger un Ferrari para ir a comprar el pan. Pero ni poseer un Ferrari es recomendable desde un punto de vista de la justicia social y ambiental, y aún menos usar su potencia para recorrer 500 metros de casa a la panadería.
En este sentido, y siguiendo el modelo propuesto por la Asociación francesa de certificación, se trata de desarrollar la llamada “IA frugal”. Hablamos de una IA austera que solo se usa cuando está demostrado que aporta un verdadero cambio ecológico y social en comparación con otro medio menos energívoro y que sus usos son siempre compatibles con los límites del planeta. De hecho, al igual que se han caracterizado los usos de la IA en función de los derechos fundamentales, sería perfectamente factible caracterizar sus usos en función de su huella ecológica. Según sus usos tengan impactos ecológicos “inaceptables”, “altos” o “limitados”, la IA podría ser respectivamente sustituida por otra tecnología low tech que da un servicio parecido por un precio ecológico mucho más bajo, administrada con criterios públicos y de reparto justo cuando se usa para servicios con mucha huella ecológica pero de alta necesidad social (sanidad, educación, etc.), o ser de libre acceso en casos de impactos mínimos. La transición ecológica y justa no se soluciona a golpe de Ferraris, va más de bicis y transporte público de alta calidad.
Ante los retos para los derechos fundamentales y la sostenibilidad, la IA es, como cualquier tecnología del presente y del pasado, ambigua y ambivalente. Tal como un Jano de dos caras, puede apoyar la justicia social y ambiental o todo lo contrario. Hasta el momento, la Big High Tech ha dominado la teoría, la narrativa y la práctica. Trabajemos pues para que la Low Little Tech dé la vuelta a la tortilla y, de esta manera, que la IA caiga del lado verde y justo de la Historia.
- La UE prohíbe los usos “inaceptables” para los derechos fundamentales de la ciudadanía, pone exigencias normativas más o menos coercitivas según el riesgo sea considerado como “alto” o “limitado” mientras que los usos de riesgo “mínimo” tienen una regulación mucho más ligera.Yuval Noah Harari (2024), Nexus. A Brief History of Information Networks from the Stone Age to IA, Fern Press, p. 400. ↩︎
- Véase el caso de las inundaciones en Valencia. Lo analizo en La máquina del fango en Valencia y cómo luchar contra la infodemia climática. ↩︎
- Hablamos de identificación biométrica (determinar la identidad de una persona en base a su cara, su voz o una huella), de reconocimiento emocional (interpretar las emociones humanas como la expresión facial o el lenguaje) o de categorización biométrica (clasificar a las personas físicas sobre la base de sus datos biométricos en función de su sexo, edad, origen étnico u orientación sexual o política, etc.). ↩︎
- Neologismo formado entre Brother y Oligarquía. ↩︎
- La mayoría de los Estados miembros de la UE reconocen “el derecho al trabajo” como un derecho constitucional (por ejemplo, el artículo 35 de la Constitución española), mientras que la Carta de los Derechos Fundamentales de la UE estipula en su artículo 31.1 que “Todo trabajador tiene derecho a trabajar en condiciones que respeten su salud, seguridad y dignidad”. ↩︎
- Los empleos vinculados al comercio, la hostelería y el transporte serían los más impactados; los de la agricultura, industrias extractivas o la construcción los que menos, mientras que se crearían perfiles nuevos en el sector tecnológico, de la programación o telecomunicaciones. ↩︎
- Eso se debería a la sobrerrepresentación de las mujeres en el trabajo administrativo cuyo sector sí podría estar fuertemente afectado por la automatización de la IA. ↩︎
- Y si solo hablamos de los centros de datos, estas “nubes” (todo menos inmateriales) que hoy ya consumen el 1% de la energía eléctrica mundial, podrían llegar a consumir hasta el 3,5% en 2035. ↩︎
- Si bien reconoce que la IA podría duplicar sus emisiones en 2030 y que las emisiones de Microsoft han crecido un 30% entre 2020 y 2024… ↩︎
- Por ejemplo para encontrar nuevas combinaciones de materias primas que permitan a las baterías eléctricas ser menos dependientes de materias primas escasas. ↩︎
- Al igual, a día de hoy, que los centros de datos de la IA. ↩︎
- Y no solo: la IA se ha convertido en una aliada esencial de los ejércitos y la industria armamentística. ↩︎
- La UE prohíbe los usos “inaceptables” para los derechos fundamentales de la ciudadanía, pone exigencias normativas más o menos coercitivas según el riesgo sea considerado como “alto” o “limitado” mientras que los usos de riesgo “mínimo” tienen una regulación mucho más ligera.* ↩︎
- Como los basados en características sensibles así como la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. ↩︎
- Servicios públicos y privados esenciales como la sanidad, la justicia, la banca o la educación, procesos democráticos y electorales, fuerzas de seguridad o migración. ↩︎
- Ya existen por ejemplo IA de código abierto como HuggingFace, Jan o GTP4All. Es al parecer, aunque sea necesario ver hasta donde llega la transparencia, también el planteamiento de DeepSeek. ↩︎