Sobre la Inteligencia Artificial (IA) se ha escrito largo y tendido en la prensa tradicional, bien desde una perspectiva catastrofista, bien desde una perspectiva tecno-optimista. Los catastrofistas defienden que los avances recientes en IA tienen el potencial de llevarnos a la extinción, mientras que los tecno-optimistas esperan que esos mismos avances solucionen todos los problemas de la sociedad actual. Y como siempre, ninguno de los enfoques tienen una perspectiva de clase, ni siquiera piensan en la gente que va a sufrir esos cambios.
Los catastrofistas nos venden que la humanidad se va a extinguir porque la IA va a tomar el control de la sociedad y nos va a esclavizar a todas. Todo esto desde el desconocimiento (en el mejor de los casos) o desde el propósito de insuflar miedo en la sociedad para ralentizar el desarrollo de la IA (normalmente para poder ponerse a la altura y competir con los líderes actuales). Un ejemplo de este enfoque es la carta que firmaron grandes CEOs de empresas de IA y tecnológicas (entre otros) pidiendo una pausa de 6 meses en el desarrollo de la IA, con el claro objetivo (no explícito) de poder desarrollar ellos sus propias IAs que estuviesen a la altura de competir.
Los tecno-optimistas, por otro lado, nos intentan convencer de que el desarrollo de la IA sólo va a traer beneficios y va a mejorar la calidad de vida de las sociedades. Lo que no mencionan es toda la gente que se queda en el camino (normalmente clase trabajadora) que perderá sus puestos de trabajo, o que se verá discriminada por un mal uso de dicha IA. Lo cierto es que no todo es bueno, bonito y barato en la adopción de nuevas tecnologías, y menos en el capitalismo.
Para empezar a ver el gris y salir de esta tónica de o bueno o malo, es necesario empezar por entender qué es la IA, o para ser exactos, en qué consisten los métodos y algoritmos que hoy en día llamamos IA. Por poner un poco de contexto, la Inteligencia Artificial siempre ha sido un campo de la informática que ha buscado reproducir la inteligencia humana. Sin embargo, uno de sus principales problemas siempre ha sido definir qué es la inteligencia, y por ello siempre se han usado métricas ad hoc para medir cómo de bien un algoritmo simulaba la inteligencia humana. Este uso de métricas ad hoc llevó a que se definiese la inteligencia como la capacidad de resolver problemas complejos específicos, y por tanto se buscó la optimización de su resolución. Esto llevó a que el principal área de desarrollo dentro del campo llamado Inteligencia Artificial fuera la optimización, en especial después de sus asombrosos resultados ante ciertas tareas (como jugar al ajedrez).
Dado este contexto, es normal que haya cierta confusión entre qué es lo que se llama Inteligencia Artificial y qué es realmente la inteligencia artificial. La confusión reina también dentro del campo, donde se ha tenido que recurrir a términos como Inteligencia Artificial General (o «Artificial General Intelligence» en inglés) para separar aquellos algoritmos que buscan una inteligencia artificial real de los que sólo buscan simularla para problemas concretos (lo que se ha dado en llamar Inteligencia Artificial Restringida, o «Narrow Artificial Intelligence» en inglés). Todavía no hay algoritmos de Inteligencia Artificial General desarrollados, al menos de forma pública. Por tanto, todos los algoritmos de los que oímos hablar últimamente (ChatGPT, GPT-4, DALL-E, StableDiffusion, etc…) no son más que algoritmos de optimización.
Si entrásemos en las matemáticas detrás de estos algoritmos los riesgos que estos algoritmos suponen quedarían más claros, pero por simplificar aquí, simplemente decir que un factor importante en evaluar sus riesgos es entender que el cerebro humano, y por tanto la inteligencia, no son un algoritmo de optimización. Los modelos más recientes sobre cómo funciona el cerebro exponen que el cerebro modela y simula el mundo, pero no optimiza sus respuestas[1]. Por tanto, el riesgo de estos algoritmos tomando conciencia y eliminando a la humanidad es nulo. Sin embargo, el que sean algoritmos de optimización posee otros problemas.
El primero de estos problemas es que no razonan, no entienden lo que responden, sólo calculan la respuesta más optima para la función que han aprendido de los datos de entrenamiento. Por ejemplo, ChatGPT ha aprendido a dar la respuesta que un humano encontraría aceptable ante el texto que se le presenta, a partir de aprender del conjunto de Internet. Esto le ha permitido simular ser una inteligencia consciente y engañar a mucha gente, pero al mismo tiempo no es capaz de seguir razonamientos simples o recordar cosas que hayan pasado hace poco en la conversación. Debido a esta falta de razonamiento, sus respuestas dependen al 100 % de los datos con los que ha sido entrenado, y como su aprendizaje ha sido usando Internet sin filtro, esto ha supuesto que ha aprendido de un conjunto de datos muy desbalanceado, donde lo peor de la humanidad está más presente que lo mejor. Para atajar este problema OpenAI (la empresa detrás de ChatGPT) tuvo que contratar a trabajadores en Kenia para filtrar todo ese contenido nocivo antes de presentarlo en sociedad[2].
Este problema supone que si se les entrena con datos que estigmatizan, discriminan o directamente excluyen a personas, y se les pone a decidir, los algoritmos de IA reproducirán dicha estigmatización, discriminación y exclusión. Ejemplos hay ya muchos, siendo el caso de la IA que decidía si se contrataba a alguien en Amazon el más famoso[3]. En resumen, fue un algoritmo de IA que se entrenó con la plantilla existente de Amazon (mayoritariamente masculina) y que cuando se le puso a filtrar CVs se encontró que sólo sugería hombres, incluso aunque hubiera mujeres que eran mejores candidatas.
Otro problema que suponen estos algoritmos es su capacidad para automatizar tareas que hasta ahora no se habían automatizado. En una situación parecida a cómo las máquinas automatizaron el trabajo manual, estos algoritmos son capaces de automatizar el trabajo intelectual o «de oficina». Al ser capaces de trabajar con conceptos simbólicos como el lenguaje, estos algoritmos pueden automatizar un montón de tareas repetitivas y/o mecánicas que por ahora siguen haciendo los humanos. Por ejemplo, ya hay tecnologías que traducen de voz a texto, o de texto a imagen, y que permiten sustituir un montón de trabajos que se basan en hacer dichas traducciones. También, tecnologías como ChatGPT permiten la redacción, resumen y transformación de textos. Lo único que estas tecnologías no serán capaces de hacer es crear algo nuevo que no sea un agregado de las partes que han visto durante entrenamiento, así que están limitadas a lo que ya existe, cosa que para ciertos trabajos mecánicos y/o repetitivos es suficiente.
Este problema supone que habrá muchas personas cuyo trabajo quede desfasado por dichas tecnologías, reduciendo equipos enteros a una o dos personas para comprobar que lo que producen estos algoritmos tiene sentido y es correcto. Como comunistas debemos estar preparadas para el problema social y las oportunidades que ofrecerán estos cambios. El primer paso es entender que la contradicción del capitalismo no va a estar entre usar máquinas o humanos, tampoco estará entre controlar las IAs más o menos, sino que va a estar en una reconfiguración del mercado de trabajo para el cual no se van a tener en cuenta a la clase trabajadora, sino sólo los beneficios particulares de las empresas. Es decir, la contradicción va a estar en la gestión de la introducción de estas nuevas tecnologías.
Sobra decir que estas tecnologías son positivas para la sociedad, pues permiten automatizar trabajos repetitivos y/o mecánicos, y por tanto mejoran la calidad de los trabajos ofertados y con estos la calidad de vida de la clase trabajadora. Además, aumentan la productividad y por tanto son una mejora para la economía. Sin embargo, también dejan atrás un montón de trabajadoras que quedan desfasadas por dicha tecnología y que necesitan adquirir nuevos conocimientos para poder optar a los nuevos trabajos que se creen. Esto no debería ser un problema en una economía planificada, pero en el sistema capitalista actual supone una crisis social importante para la cual los estados actuales no tienen mecanismos de gestión, más allá de las subvenciones.
Otro problema más de estas tecnologías no está directamente relacionado con las tecnologías en sí, sino con lo que se venden que son. Es decir, se vende que estas tecnologías razonan y se les puede «enseñar» a proteger la humanidad. Sin embargo, como ya hemos visto, al ser algoritmos de optimización, estas tecnologías no tienen esas capacidades. Esto es un problema porque supone que haya gente que las emplee de forma errónea, pensando que tienen capacidades que no tienen, y esto sí puede llevar a la extinción de la humanidad (por ejemplo si se les pone a decidir si hay que lanzar una bomba nuclear o no, donde un simple error puede llevar a una catástrofe).
Finalmente, y relacionado con este último problema, el último problema de la IA que quiero exponer es el mismo problema que tiene cualquier herramienta: no tienen moral. Igual que un cuchillo se puede usar para cocinar o asesinar, estas herramientas se pueden usar para mejorar la sociedad o para empeorarla. Casos de esto último ya existen, como por ejemplo los algoritmos de las redes sociales que optimizan la función que haga que pases el mayor tiempo posible dentro de la red. Pero también existen casos de lo contrario, y en el fondo todo depende de la humanidad y de cómo queremos usar las herramientas que tenemos a nuestra disposición.
Para terminar, me gustaría recalcar que, como comunistas, estas nuevas tecnologías nos permiten poner de relieve la contradicción capital-trabajo, exponiendo claramente cómo a la burguesía le da igual lo que le pase a la clase trabajadora siempre y cuando sus beneficios aumenten, y como el cuento de la búsqueda del bien común a través del interés individual es una farsa. Finalmente, recordar que, como herramientas que son, también podemos usarlas para beneficio de la clase trabajadora.
[1] J. Hawkins and S. Blakeslee. On Intelligence. Times Books, USA, 2004. ISBN 0805074562.
[2] https://time.com/6247678/openai-chatgpt-kenya-workers/
[3] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G/







