¿Qué nos depara la IA?

Y en verdad os digo: que cuando el resplandor de la estupidez se trague la última estrella, la Humanidad decaerá con un sonoro rebuzno. Profeta Jorobías 17-5

La llamada inteligencia artificial asoma por todas partes, y sus aplicaciones están cada vez más integradas en los flujos de trabajo de cualquier sector. Parece que hoy todo lo que quiera aparentar ser innovador ha de incluir las letras IA en algún sitio: desde un coche hasta un teléfono, desde la atención al cliente hasta seleccionar candidatos a un puesto de trabajo. Algunos han quedado tan deslumbrados por la IA que la tratan como si fuera un oráculo, un ser omnisciente y sobrehumano que solucionará nuestros problemas y nos abrirá las puertas del tecnoparaíso. Siento ser aguafiestas, pero en este artículo me voy a atrever a poner en tela de juicio alguna de las afirmaciones grandilocuentes que se escuchan, a soltar alguna que otra herejía y a advertir que el uso actual de la IA nos acerca a un futuro sombrío.

La IA no es inteligente, es una simulación de inteligencia

Todos hemos acudido a una aplicación de IA generativa para «crear» una imagen, ya sea para pasar el rato o para ilustrar, por ejemplo, un artículo como este. Sorprende lo realista que pueden llegar a ser las imágenes generadas por las aplicaciones de IA más avanzadas, e incluso podemos explorar posibilidades en apariencia creativas. Pero hay algunas cosas que se le resisten, pongamos como ejemplo la perspectiva. Probad a pedir una imagen de un paisaje arquitectónico con elementos diferentes en varios planos a lo largo de un camino que se pierde en el horizonte; o si queréis poner a prueba su dominio de la anatomía humana, podéis probar pidiendo que represente a una persona en una posición o postura poco habitual. El resultado puede ir desde un paisaje surrealista a un horror lovecraftiano. Y esto se debe a una simple razón: la IA no experimenta la perspectiva (sólo tiene una capacidad de abstracción simulada) y lo que construye lo hace a partir de los millones de imágenes con las que ha sido entrenada. La IA genera el que considera el resultado más probable con arreglo a su entrenamiento.

Entonces ¿es inteligencia? Rotundamente no. La inteligencia implica muchas capacidades, entre ellas: lógica, comprensión, autoconciencia, aprendizaje, empatía, razonamiento, pensamiento abstracto, planificación, creatividad, pensamiento crítico y resolución de problemas. Hay algunas que sí las posee; otras directamente no, como la empatía, el pensamiento crítico y la autoconciencia; y otras podemos decir que constituyen simulaciones, muy lejanas a la capacidad humana, por ejemplo el pensamiento abstracto y la creatividad. La IA puede hacer múltiples combinaciones de elementos que pueden resultar novedosas y sorprendentes, pero que en última instancia se basan en estadística, son síntesis probabilísticas de patrones aprendidos, es una simulación de creatividad. Para ser verdadera creatividad haría falta intuición, un propósito, una experiencia emocional, una visión estética. Pero lo que nos ofrece la IA es el resultado del aprendizaje automático (machine learning) llevado a grandes niveles de complejidad. Por eso hablar actualmente de «inteligencia artificial» es bastante presuntuoso, y sería más apropiado hablar de «inteligencia simulada».

La IA proporciona potentes herramientas (que fallan)

Antes de que se me eche encima la legión de fans de la inteligencia artificial, he de reconocer que gracias a la IA hay tareas realmente tediosas que es posible hacer en un abrir y cerrar de ojos. Por ejemplo, en el ámbito científico resulta de enorme ayuda para escribir código, analizar datos, traducir, hacer infografías, etc.; hay también aplicaciones fantásticas para buscar artículos, organizar la base de datos bibliográfica y hacer un resumen comparativo de 50 papers en un momento. Tareas que antes llevaban días, ahora se ejecutan en varios minutos. Incluso es una inestimable ayuda en el análisis de ingentes bases de datos. La IA está permitiendo acelerar la investigación científica a niveles difíciles de imaginar hace unos años. Pero no es oro todo lo que reluce.

Las mismas aplicaciones nos advierten (en letra muy pequeña) que pueden cometer errores. Su prioridad es proporcionar respuestas, y es común que «inventen» cosas ante cualquier laguna. Por ejemplo, si le pides que te escriba un informe sobre el estado del arte de una materia es probable que introduzca citas falsas; o si le pides que te resuma los aspectos fundamentales de un artículo, el resultado deja mucho que desear. A la IA le cuesta a veces captar las ideas fundamentales y su resumen parece un collage de texto insípido. A pesar de esto, hay quien usa directamente estos informes generados por IA para trabajos, sin revisarlos ni comprobar las fuentes, y eso es un grave error y una mala práctica. Lo mismo podemos decir con el análisis de datos, porque no es lo mismo usar una IA como asistente en el proceso, que confiar ciegamente en sus conclusiones sin conocer paso a paso lo que ha hecho. El problema es que hay algunas IA tan complejas que funcionan ya a modo de caja negra: no es posible la trazabilidad del proceso entre la entrada de datos y la salida del resultado.

La IA tiene un elevado coste

Con la IA nos está pasando como con las redes sociales, somos víctimas de la ilusión de ser usuarios de un producto gratuito; pero la realidad es bien distinta y resulta que la mercancía somos nosotros (y nuestros datos), no teniendo el acceso gratuito otro objetivo que seamos nosotros (con nuestros datos) quienes la entrenemos. No es casualidad que sean las mismas dos o tres empresas propietarias de las principales redes sociales las que más están invirtiendo en IA. Y conforme ésta mejora gracias a ese entrenamiento va dejando de ser gratuita, algo que no debe extrañarnos si consideramos su consumo de energía y recursos.

En 2024 los centros de datos mundiales consumieron tanta energía como Italia y los Países Bajos juntos. Y para 2030 la Agencia Internacional de Energía (IEA) espera que este consumo se duplique. Pero no sólo está el problema de la energía (y las emisiones asociadas a la producción de esa energía), sino las enormes cantidades de agua necesarias para la refrigeración. Sirva como ejemplo que entrenar GPT-3 en centros de datos estadounidenses de Microsoft evaporó directamente 700.000 litros de agua dulce limpia. La IEA estima que los centros de datos consumen más de 560 mil millones de litros de agua anualmente. Por ejemplo, un centro de datos promedio de 100 MW consume aproximadamente 2 millones de litros de agua diarios, equivalente al consumo de unas 6.500 viviendas. Y los grandes centros pueden consumir hasta 2.500 millones de litros de agua anualmente, equivalente a las necesidades de aproximadamente 80.000 personas. De seguir a este ritmo, en 2027 la demanda global de agua para IA podría representar más que la extracción anual total de 4 a 6 países como Dinamarca o la mitad del Reino Unido. En este informe hay más ejemplos.

La pregunta es inevitable: en un contexto de crisis energética y de cambio climático, ¿quién tendrá prioridad en el acceso a la energía y al agua dulce? ¿la población o los centros de datos? Lo que está claro es que la adopción masiva de la IA está generando un aumento dramático en el consumo de recursos, por si no estuviéramos ya sobreexplotando bastante nuestro planeta. Hay visiones optimistas que defienden que la propia IA ayudará a adoptar soluciones a este problema, pero por ahora la proyección futura dibuja un escenario completamente insostenible.

La IA como factor deshumanizante

Hoy en día, contratar un seguro o un préstamo hipotecario pasa por una fría evaluación multicriterio que te reduce a probabilidades (de enfermar, de morir, de perder el empleo, etc.), lo que hace realmente difícil a muchos acceder, por ejemplo, a una vivienda. La IA llevará esto a otro nivel, algunos dirán que de forma más objetiva y eficiente, pero es difícil evitar que lo haga con los mismos sesgos (o incluso mayores) que un evaluador humano. La IA es entrenada con datos que de base ya pueden ir sesgados (por no ser lo suficientemente representativos de la sociedad), por tanto sus conclusiones, veredictos o decisiones estarán condicionadas por esos mismos sesgos. Una sociedad racista generará una IA con sesgos racistas. El mejor ejemplo es Grok y sus pulsiones nazis, algo que no debería sorprender a nadie teniendo en cuenta que esa IA se nutre de la basura mental que miles de nazis vomitan continuamente en esa letrina social llamada «X», que además dirige y manipula a su antojo un nazi.

Evaluación de trabajadores, selección de empleados, concesión de becas, etc., son ejemplos de tareas que acabará desempeñando una IA en muchos casos. Y no olvidemos que, aparte de los sesgos, la IA es una simulación de inteligencia que carece de una de las cualidades más importantes en las relaciones humanas: la empatía. Ante la falta de rendimiento de un trabajador una IA puede llegar a la conclusión de que es necesario su despido, siendo incapaz de empatizar para entender que lo mismo esa falta de rendimiento se debe a circunstancias sobrevenidas o a un proceso de duelo, por citar un ejemplo. El trabajador, cliente, asegurado, contribuyente… quedan reducidos a números y probabilidades ante una IA, son despojados de su humanidad y quedan completamente indefensos ante sus decisiones. Como ya he dicho, no pongo en duda que la IA puede ser una herramienta muy útil, pero la toma de decisiones nunca debería ser delegada en ella ni estar condicionada por sus conclusiones.

Posibles consecuencias: degeneración del conocimiento y degeneración cognitiva

Hace un año saltó a la actualidad una noticia curiosa: unas imágenes generadas por IA de falsos polluelos de pavo real se habían hecho tan virales que hasta buscadores como Google llegaron a darlas por válidas, ofreciéndolas entre los primeros resultados de las búsquedas. Internet se está llenando de contenido falso generado por IA, que sólo busca llamar la atención en el mejor de los casos (como el del polluelo de pavo real), pero que en otros se esconden intenciones más siniestras (como manipular la opinión pública). La disolución de la frontera entre mentira y realidad de modo intencionado para crear realidades alternativas con fines políticos está teniendo graves consecuencias sociales, que pueden amplificarse si la IA usa el contenido falso que genera para su entrenamiento. La inundación de internet con las creaciones con inteligencia artificial puede hacer que los contenidos que ésta genere sean cada vez menos fiables debido al uso de fuentes producidas por la propia IA.

Hay otro posible factor que contribuiría a esta degradación: los contenidos originales podrían perder calidad o desaparecer conforme la IA centraliza todas las consultas y la atención. Mantener una página web con contenido de calidad requiere esfuerzo, tiempo y dinero (como mínimo para mantener un dominio y un alojamiento). Las redes sociales y sus algoritmos ya suponen un obstáculo para llegar a un público potencial, aunque no resulta insalvable. Pero las aplicaciones de IA directamente se nutren del contenido que otros crean haciendo innecesario visitar el sitio original, aunque lleguen a citarlo. Para el que pretenda obtener ingresos por las visitas a su página puede ser un problema, mientras que para el que no busque ingresos (como es el caso de esta página) podría ser muy desmotivador. Puede llegar un momento en el que deje de merecer la pena crear un contenido que nadie leerá y sólo servirá para nutrir a una IA, es decir, trabajar gratis para que otros hagan negocio con tu contenido. Así, se podrían combinar dos efectos: la progresiva desaparición en internet de contenido original y el crecimiento de contenido generado por IA, buena parte falso o sesgado.

Lo expuesto en los dos párrafos anteriores es lo que he llamado degeneración del conocimiento, y es algo que puede suceder a corto plazo. Pero hay otro posible efecto a medio plazo más grave si se hace un mal uso de forma masiva de la IA: la degeneración cognitiva del ser humano. Dicho en pocas palabras: volvernos imbéciles por delegar demasiadas tareas cognitivas en la IA, como si las redes sociales no nos hubieran llevado ya a preocupantes niveles de estulticia. Si dejamos de ejercitar los circuitos neuronales asociados, por ejemplo, a la escritura, la lectura crítica, el análisis, la síntesis y expresión de ideas, etc., éstos irán atrofiándose. Es un proceso comprobado para el caso de la relación entre el tamaño del hipocampo y la memoria espacial, conocido a partir de un estudio con taxistas de Londres publicado en 2000. Algo parecido ocurre con la escritura manual, que requiere de la activación de más regiones cerebrales que en la escritura con teclado. Esto no quiere decir que haya que abandonar el uso del GPS o volver a la pluma estilográfica, sino que deberíamos seguir entrenando nuestra capacidad de orientación y nuestra escritura manual en la medida de lo posible, del mismo modo que hacemos ejercicio para no perder masa muscular.

El peligro es usar la IA de modo pasivo, como sustituta de procesos como leer, escribir, investigar o incluso tomar decisiones, sin entender ni supervisar cómo lo hace, lo que nos llevaría con el tiempo a perder la capacidad de hacer esas tareas, buscando una comodidad cognitiva sin pensamiento crítico y provocando una peligrosa dependencia de esta tecnología.

Hacia el incremento de la desigualdad y la concentración del poder

El desarrollo de una IA avanzada requiere de un consumo masivo de recursos que sólo está al alcance de unas pocas empresas, lo que ya está provocando una preocupante concentración de poder con capacidad de influir sobre decisiones políticas y normativas. Además, en el clima belicista actual, los gobiernos están considerando la IA como un sector estratégico por sus aplicaciones militares y para la vigilancia masiva, siendo dos países (China y EEUU) los que están invirtiendo más esfuerzos en dominarla.

Es cuestión de tiempo que el coste de la IA más avanzada sea tal que sólo estará al alcance de instituciones o individuos de rentas altas, generándose una gran desigualdad en el acceso a sus mejores herramientas, lo que dará una clara ventaja a las instituciones y empresas más grandes. En el mundo científico es previsible que proyectos de investigación innovadores se queden atrás porque no tengan suficiente financiación para sufragar el acceso a aplicaciones avanzadas de IA, mientras que los equipos pertenecientes a instituciones potentes optimizan sus flujos de trabajo, reduciendo tiempos y acaparando las publicaciones. La IA puede tener un doble efecto en la ciencia: por un lado positivo, acelerando la investigación al asumir procesos repetitivos y aumentar la capacidad de trabajar con grandes bases de datos; por otro lado perverso, fortaleciendo un sistema de publicaciones anquilosado y de promoción endogámica, al agravar la desigualdad en una producción científica condicionada por la financiación dependiente de métricas cuestionables.

Un futurible inquietante: la IA al servicio del tecnofascismo

La combinación de la pérdida de capacidades cognitivas (especialmente del pensamiento crítico) con la concentración del poder, y la capacidad de éste de manipular la percepción de la realidad con métodos de ingeniería social apoyados en la IA, en un contexto de crisis climática y escasez de recursos, llevan inevitablemente al surgimiento de un sistema político autoritario basado en una simbiosis entre el Estado y las grandes corporaciones tecnológicas. Es lo que algunos autores llaman tecnofascismo.

El tecnofascismo no sería tanto una dictadura militar tradicional, sino un sistema altamente técnico, racionalizado, automatizado y silenciosamente opresivo, donde la disidencia es estadísticamente improbable o neutralizada. Sería una forma de autoritarismo caracterizada por el control social, económico y político apoyado en tecnologías avanzadas, y ejercida a través de la vigilancia masiva y la manipulación algorítmica de una sociedad en la que el culto a la tecnología y a la eficiencia tendría carácter religioso. El surgimiento de este sistema se vería potenciado y justificado por las tensiones sociales y geopolíticas originadas por la crisis climática y la escasez de recursos. En este contexto, si sólo unas pocas corporaciones y estados controlan las infraestructuras y los medios para operar modelos de IA, tienen las puertas abiertas para la manipulación emocional, predecir la disidencia y automatizar sistemas de castigo o recompensa social. La ubicuidad de la vigilancia masiva a través del reconocimiento biométrico acabaría con la privacidad (a la que ya hemos renunciado en parte a través de los dispositivos electrónicos), y la ciudadanía (cognitivamente dependiente de la IA) se reduciría a perfiles de datos y puntuaciones algorítmicas. Aunque esto nos suene a un episodio de Black Mirror, no es una fantasía distópica sin fundamento, pues ya se están dando pasos preocupantes en esta dirección.

¿Qué pasos habría que dar para evitar este escenario y qué papel jugaría la IA? Lo primero y fundamental sería usar bien la IA, no delegar en ella, sino usarla como herramienta que puede amplificar algunas capacidades, pero jamás reemplazar al pensamiento humano. Partiendo de esta premisa, y asumiendo que la IA estará cada vez más presente, habría que educar a la población desde la escuela a usarla de modo activo y crítico, no de modo pasivo como si fuera un oráculo. De forma paralela sería imprescindible la adopción de acuerdos internacionales y el desarrollo de legislación para poner límites éticos al uso de la IA, impidiendo que se convierta en una herramienta de manipulación social o se use con fines militares que puedan suponer violaciones de los derechos humanos, y promover su descentralización para evitar la acumulación de poder. En cualquier caso, el desarrollo exponencial de la IA chocará antes o después con la disponibilidad de recursos energéticos, hídricos y minerales (tanto para su entrenamiento y funcionamiento como para la fabricación de chips), de modo que la investigación en nuevos sistemas de mayor eficiencia y menos impactantes es fundamental.

Desgraciadamente, el panorama actual muestra señales que conducen con más probabilidad al escenario tecnofascista: concentración de poder, opacidad algorítmica, creciente dependencia cognitiva, pérdida de la privacidad, crisis climática, escasez de recursos, ambiente belicista, ruptura de los consensos internacionales y crecimiento de la pasividad social ante estos problemas. Las decisiones que se tomen en los próximos años serán clave.


Deja un comentario