Skip to main content

Juli Ponce Solé recupera la lección del ludismo para advertir que el problema no son las máquinas, sino quién decide cómo se usan, quién se queda la riqueza que generan y quién paga el coste social de la automatización.

La pregunta parece provocadora, pero no es retórica: ¿hay sangre en la inteligencia artificial? Juli Ponce Solé, catedrático de Derecho Administrativo de la Universitat de Barcelona, la plantea a partir de una lectura de Sangre en las máquinas, de Brian Merchant, publicado en español por Capitán Swing. Su reflexión, titulada “¿Sangre en la inteligencia artificial?”, no es una impugnación simplista de la tecnología. Es una advertencia histórica: cuando una innovación se despliega sin límites jurídicos, sin compensación social y bajo la lógica del beneficio privado inmediato, las víctimas no son las máquinas antiguas, sino las personas que pierden trabajo, dignidad, autonomía y futuro.

El punto de partida es el ludismo, el movimiento obrero que entre 1811 y 1817 se enfrentó en el Reino Unido al uso abusivo de maquinaria en la industria textil. Durante dos siglos, los luditas han sido caricaturizados como enemigos irracionales del progreso, ignorantes incapaces de entender la técnica. Ponce, siguiendo a Merchant, desmonta ese tópico: los luditas no rechazaban las máquinas por ser máquinas; rechazaban una forma concreta de usarlas para destruir empleos cualificados, degradar salarios, intensificar jornadas, explotar trabajo infantil y concentrar riqueza en manos de propietarios protegidos por el Estado.

Esa distinción es decisiva para entender el debate actual sobre la IA. Quien alerta sobre los efectos laborales de la inteligencia artificial no tiene por qué ser un reaccionario tecnológico. Puede estar haciendo exactamente lo que hicieron los luditas en su momento: denunciar que una tecnología útil se convierte en violencia social cuando se aplica sin reparto de beneficios, sin derechos y sin responsabilidad pública. El problema nunca es solo la máquina. El problema es el régimen económico, jurídico y político que decide para qué se usa.

Ponce recuerda que el movimiento ludita fue mucho más complejo de lo que cuenta el cliché. No fue exclusivamente inglés, ni puramente textil, ni formado por trabajadores incultos. Se extendió a otros sectores, tuvo ecos en España con episodios como Alcoy en 1821 o la Fábrica Bonaplata en Barcelona en 1835, utilizó propaganda, solicitudes parlamentarias y recursos legales, y recurrió a la destrucción de maquinaria en situaciones de desesperación. La violencia, subraya el análisis, se dirigió en general contra cosas, no contra personas.

La lección histórica es incómoda para Silicon Valley. Los luditas no eran enemigos de la innovación, sino trabajadores altamente cualificados que vieron cómo una nueva tecnología era usada para sustituir su saber por mano de obra más barata, más dócil y peor protegida. Algo parecido puede ocurrir ahora con traductores, conductores, diseñadores, redactores, abogados, programadores, administrativos, empleados públicos, artistas, docentes, periodistas o profesionales de servicios. La IA no amenaza solo tareas manuales repetitivas. Amenaza también trabajo cognitivo, creativo y burocrático que hasta hace poco parecía protegido.

Ese es el vínculo con el editorial de The EconomistPrepare for an AI jobs apocalypse”. La revista advierte que aún no hay una catástrofe laboral visible en las estadísticas, pero que los gobiernos no deberían esperar a verla para preparar redes de seguridad. La tesis es prudente y alarmante a la vez: puede que la destrucción masiva de empleo no haya llegado, pero si llega y las instituciones no han actuado antes, será demasiado tarde.

La comparación histórica ayuda a evitar dos errores. El primero es el alarmismo automático, según el cual toda tecnología nueva destruye inevitablemente el trabajo humano. La historia muestra que muchas innovaciones crearon empleos nuevos, aumentaron productividad y elevaron niveles de vida. El segundo error es el optimismo automático, según el cual el mercado siempre compensará a los perdedores y acabará creando suficientes oportunidades. La historia del ludismo enseña que el progreso puede producir décadas de sufrimiento si no se gobierna.

La IA puede aumentar productividad, acelerar investigación, mejorar diagnósticos, facilitar accesibilidad, optimizar servicios públicos y abrir nuevas formas de creación. Pero también puede servir para abaratar plantillas, vigilar trabajadores, fragmentar tareas, reducir autonomía profesional y transferir valor desde salarios hacia propietarios de modelos, datos, chips y plataformas. No hay nada inevitable en una u otra dirección. La cuestión es política.

Ponce lo formula desde el Derecho Administrativo y el Estado social. A diferencia de la Inglaterra de principios del siglo XIX, las democracias actuales disponen de constituciones, derechos fundamentales, sufragio universal, sindicatos, administración pública, seguridad social, derecho laboral y función social de la propiedad. Es decir, disponen de herramientas para no repetir la pasividad del primer capitalismo industrial. La insuficiente intervención pública ante la IA, sostiene, puede y debe ser corregida para afrontar fallos de mercado y externalidades sociales y ambientales.

La frase más importante de su análisis es que evitar nuevas crisis —y quizá nuevos “neoluditas”— exige dotarse de mecanismos jurídicos capaces de amortiguar los impactos sociales, económicos y ambientales. Entre esos mecanismos aparece una idea que ya estaba en el imaginario ludita: imponer impuestos a las máquinas o a la automatización para financiar fondos de compensación a trabajadores desplazados. No se trata de castigar la tecnología, sino de asegurar que los beneficios extraordinarios de la automatización no se concentren sin reparar el daño que producen.

Esta discusión vuelve con fuerza en la IA generativa. Si una empresa sustituye cientos de empleos de atención al cliente, diseño, redacción, programación o análisis por sistemas automatizados entrenados sobre datos colectivos, ¿debe apropiarse íntegramente del ahorro? ¿Debe contribuir a financiar recualificación, renta de transición, seguridad social o servicios públicos? ¿Debe pagar por los datos y contenidos que alimentan sus modelos? ¿Debe probar que la automatización es proporcional, segura y compatible con derechos?

El debate no es abstracto. La IA ya está reorganizando el trabajo antes incluso de destruirlo. En muchos sectores, los empleados no están siendo despedidos de golpe, sino convertidos en supervisores de sistemas, correctores de outputs, operadores de plataformas o trabajadores sometidos a métricas algorítmicas. La degradación puede llegar antes que el desempleo. Ponce señala que la precarización asociada a plataformas algorítmicas como Amazon o Uber ya muestra una degradación de condiciones laborales: más horas, peor remuneración, más control y menos autonomía.

Este punto conecta con una lectura más amplia del riesgo laboral. El problema de la IA no es únicamente que “quite empleos”, sino que transforme los empleos que quedan en trabajos más vigilados, fragmentados y deshumanizados. Un algoritmo puede asignar turnos, medir productividad, controlar pausas, evaluar rendimiento, decidir despidos o ajustar salarios. La IA puede ser tanto sustituto como capataz. Y quizá su impacto más extendido sea precisamente ese: no eliminar a todos los trabajadores, sino someterlos a una gestión automatizada más opaca.

El editorial de The Economist apunta al riesgo de una ruptura mayor: si la IA avanza con rapidez y automatiza partes sustanciales del trabajo de oficina, la política pública no podrá improvisar. Las sociedades necesitarán redes de protección, formación continua, movilidad laboral, seguros de ingresos y quizá nuevas formas de redistribución. Pero el texto de Ponce añade algo que la discusión económica suele olvidar: no basta con amortiguar después; también hay que decidir antes qué automatizaciones son jurídicamente aceptables y cuáles no.

Ahí aparece una idea clave: no todo lo técnicamente posible debe ser permitido. Ponce recupera a Joseph Weizenbaum, creador de ELIZA, uno de los primeros chatbots, para recordar que no tenemos por qué entregar todos los trabajos a la automatización. Una sociedad democrática puede decidir que ciertas funciones deben seguir en manos humanas por razones de dignidad, deliberación, responsabilidad, empatía o debido procedimiento.

Este argumento es especialmente importante en el sector público. Dictar sentencias, planificar ciudades, aprobar leyes, resolver expedientes sensibles, conceder prestaciones, denegar derechos, evaluar riesgos sociales o tomar decisiones que afecten profundamente a la vida de las personas no debería delegarse sin más en sistemas automatizados. La IA puede asistir, ordenar información o detectar patrones, pero la decisión última debe permanecer bajo responsabilidad humana cuando están en juego derechos fundamentales.

La automatización administrativa tiene una tentación poderosa: promete rapidez, reducción de costes y uniformidad. Pero puede convertir el Estado en una máquina opaca que decide sin escuchar, sin explicar y sin asumir responsabilidad. El Derecho Administrativo existe precisamente para evitar que el poder actúe de forma arbitraria. Si ese poder se desplaza a algoritmos, los principios de transparencia, motivación, audiencia, proporcionalidad, control judicial y responsabilidad deben reforzarse, no relajarse.

La función social de la propiedad, que Ponce invoca, permite ir más allá. Las empresas no pueden tratar la automatización como un derecho absoluto a maximizar beneficios ignorando daños colectivos. En un Estado social, la propiedad y la empresa tienen límites cuando afectan a derechos, cohesión, igualdad y sostenibilidad. Sustituir trabajadores por IA puede ser legítimo en algunos casos, pero debería hacerse de forma escalonada, proporcional y con compensaciones cuando genere daños sociales, económicos o ambientales.

El debate laboral de la IA se mezcla además con una crisis democrática. Ponce advierte del riesgo de que la frustración generada por cambios tecnológicos sea canalizada por populismos de ultraderecha que culpan a inmigrantes, minorías o enemigos culturales, mientras ocultan la verdadera fuente de la precarización: decisiones empresariales, desigualdad extrema, debilitamiento sindical y falta de intervención pública.

La historia vuelve a ser útil. En el siglo XIX, los trabajadores desplazados por máquinas no tenían sufragio universal, Estado social ni poder político real. Hoy sí existen instituciones democráticas, pero están sometidas a presiones enormes: desinformación, polarización, captura regulatoria, concentración de riqueza tecnológica y debilitamiento de mediaciones colectivas. Si la IA genera ansiedad laboral masiva y los gobiernos no responden, el malestar puede convertirse en combustible autoritario.

Por eso hablar de “sangre” en la IA no es exagerar gratuitamente. La sangre puede ser literal en el pasado industrial, con hambre, represión militar, encarcelamientos y condenas a muerte. Pero también puede ser metafórica y social en el presente: vidas precarizadas, carreras truncadas, jóvenes sin entrada al mercado laboral, profesionales sustituidos sin transición, comunidades sometidas a centros de datos, creadores despojados de obra y trabajadores convertidos en piezas de una cadena algorítmica.

La pregunta decisiva es quién controla la transición. Si la IA se despliega bajo la lógica del mercado desatado, como advierte Ponce, cualquier dispositivo que ahorre costes y mano de obra tenderá a imponerse, con independencia del daño social que cause. Si se despliega bajo reglas democráticas, puede orientarse hacia productividad compartida, reducción de tareas penosas, mejora de servicios públicos y creación de oportunidades.

Ese es el núcleo del nuevo contrato social de la IA. No basta con formar trabajadores para que “se adapten”. La adaptación individual tiene límites cuando el cambio es sistémico. También hay que adaptar empresas, instituciones fiscales, derecho laboral, negociación colectiva, educación, protección social y regulación tecnológica. Pedir a cada trabajador que aprenda prompts mientras las grandes compañías capturan la productividad es una respuesta insuficiente.

La formación será necesaria, pero no puede convertirse en coartada. Muchos empleos no desaparecerán porque sus trabajadores no sepan usar IA, sino porque la IA permitirá reorganizar cadenas de valor con menos personas. La recualificación ayuda a algunos, pero no resuelve por sí sola la distribución del poder económico. Si la productividad aumenta y los salarios no, el problema no será educativo, sino político.

El editorial de The Economist acierta al pedir preparación antes de que el daño sea evidente. Pero la preparación no debería limitarse a redes de seguridad pasivas. Debe incluir anticipación regulatoria: evaluaciones de impacto laboral antes de automatizaciones masivas, participación sindical, transparencia algorítmica, fiscalidad sobre ganancias extraordinarias, derecho a explicación, límites a vigilancia, protección de empleos de entrada y obligación de negociación en sectores afectados.

En España y Europa, el marco jurídico ofrece herramientas iniciales. El Reglamento Europeo de IA clasifica riesgos, impone obligaciones sobre sistemas de alto riesgo y refuerza ciertos controles. Pero la cuestión laboral necesitará normas específicas. No basta con regular seguridad del producto algorítmico; hay que regular su impacto en el empleo, la organización del trabajo y la distribución de productividad. La IA en la empresa no es solo una herramienta técnica: es una forma de poder.

También habrá que proteger a los jóvenes. Si la IA automatiza tareas iniciales —redacción básica, análisis documental, soporte administrativo, programación junior, traducción, atención al cliente— puede romper el primer escalón de muchas carreras. El problema no sería solo perder empleos, sino perder aprendizaje. Muchas profesiones se forman haciendo tareas que ahora parecen automatizables. Si se eliminan, ¿cómo se convierte un principiante en experto?

Esta pregunta afecta a derecho, periodismo, consultoría, programación, arquitectura, diseño, docencia, administración y cultura. La IA puede hacer más productivos a los expertos, pero dejar sin puerta de entrada a los novatos. Una política pública inteligente debería mirar ahí: prácticas, aprendizaje dual, protección de puestos formativos, uso de IA como tutor y no solo como sustituto, y obligación empresarial de mantener itinerarios de capacitación.

El Estado también deberá mirarse a sí mismo. La automatización de la administración puede mejorar trámites, reducir esperas y liberar personal de tareas repetitivas. Pero si se aplica para recortar empleo público, cerrar ventanillas y sustituir atención humana por sistemas opacos, puede degradar derechos. Las personas más vulnerables —mayores, migrantes, pobres, personas con discapacidad, ciudadanos con baja alfabetización digital— suelen sufrir más cuando el Estado se automatiza sin acompañamiento.

Ponce insiste en que dictar sentencias, planificar ciudades o aprobar leyes son funciones que deben seguir en manos humanas. Pero hay muchas zonas intermedias: baremar ayudas, detectar fraude, priorizar inspecciones, recomendar tratamientos, asignar recursos policiales, gestionar empleo público. En todas ellas, el principio debe ser claro: la IA puede asistir, pero la responsabilidad democrática no puede diluirse.

La comparación con el ludismo también obliga a revisar el lenguaje. Llamar “ludita” a quien critica la IA se ha convertido en un insulto cómodo. Sirve para desactivar cualquier objeción como atraso, miedo o ignorancia. Pero si los luditas históricos entendían perfectamente que las máquinas podían ser usadas contra ellos, quizá el insulto debería invertirse. El verdadero ingenuo no es quien pregunta por los efectos sociales de la IA, sino quien cree que el mercado resolverá automáticamente todos los daños.

La inteligencia artificial no necesita menos crítica, sino mejor crítica. Una crítica que distinga usos beneficiosos de usos abusivos; que no confunda investigación médica con automatización depredadora; que no trate igual herramientas de accesibilidad y sistemas de vigilancia laboral; que no ponga en el mismo saco creatividad asistida y extracción masiva de obras sin permiso. Esa crítica debe ser jurídica, económica, tecnológica y democrática.

El artículo de Juli Ponce Solé tiene valor porque desplaza la conversación desde el asombro técnico hacia la responsabilidad institucional. No pregunta si la IA será más o menos inteligente. Pregunta quién protegerá a quienes sufran sus impactos. No se queda en si habrá empleos nuevos. Pregunta qué ocurrirá durante la transición y quién asumirá sus costes. No idealiza a los luditas. Los rescata como trabajadores que reclamaban dignidad ante un cambio impuesto sin justicia.

La sangre en la IA no está escrita de antemano. Puede haber conflicto, precarización y ruptura social si se repite la pasividad del siglo XIX. Pero también puede haber una transición más justa si se acepta que la tecnología debe subordinarse al interés general. La pregunta no es si la IA avanzará. Avanzará. La pregunta es si lo hará como herramienta de emancipación compartida o como nueva máquina de concentración de poder.

Los luditas no pedían volver a un pasado idílico. Pedían que las máquinas no los condenaran al hambre. Dos siglos después, esa demanda sigue siendo actualizada: que la IA no condene a millones de trabajadores a la irrelevancia económica, la vigilancia permanente o la pérdida de dignidad. La tecnología puede cambiar; la pregunta moral permanece.

Por eso conviene leer a Ponce junto a la advertencia de The Economist. La catástrofe laboral quizá no ha llegado, pero esperar a verla en las estadísticas sería irresponsable. La historia enseña que cuando el daño social se hace evidente, ya hay vidas rotas. La política democrática debe actuar antes: regular, redistribuir, compensar, limitar, formar y decidir colectivamente qué tareas queremos automatizar y cuáles queremos preservar como humanas.

La IA no tiene por qué llevar sangre. Pero puede llevarla si se despliega como las máquinas de los primeros industriales: protegida por el poder, orientada al beneficio de unos pocos y ciega ante la dignidad de quienes trabajan. La diferencia entre una revolución tecnológica justa y una nueva fractura social no la decidirán los algoritmos. La decidirán las leyes, los sindicatos, los tribunales, los gobiernos, las empresas y los ciudadanos.

Dejar un comentario