por C. Brandon Ogbunu y Cristopher Moore
Durante la Comic Con de Nueva York de 2025, Jim Lee, presidente, editor y director creativo de DC Comics, se pronunció en contra del uso de la inteligencia artificial en la creación de los cómics del sello.
“DC Comics no apoyará la narración ni el arte generado por IA. Ni ahora. Ni nunca, mientras Anne DePies y yo estemos al mando”, dijo Lee, puntualizando sus comentarios con una observación concisa: “La IA no sueña. No siente. No hace arte; lo agrega”.
Para muchos, los comentarios de Lee son dignos de elogio: el líder de una institución venerada adoptando una posición firme contra la IA. Posturas como la suya surgen de los impactos negativos de la IA —especialmente de la IA generativa— en actores, escritores y otros trabajadores de las industrias creativas. Han surgido preocupaciones análogas en lo que respecta a la salud, la justicia y la educación.
Muchas voces reflexivas en la política y la cultura piden controles sobre la IA para proteger los derechos de quienes se ven afectados por ella, ya sean artistas, pacientes, inquilinos o acusados. Gran parte de esto se ha plasmado en un movimiento moderno etiquetado como “Ludita de la IA”. Al igual que los luditas originales de la década de 1800, estos luditas de la IA no son tanto antitecnología como prohumanos. Exigen que la tecnología refuerce la creatividad humana y la dignidad del trabajo, en lugar de reemplazar a los trabajadores calificados con un precariato no calificado, o reemplazarlos por completo con máquinas. Quieren que la tecnología sea una elección hecha por quienes la usan y por quienes se ven afectados por ella, en lugar de que se les imponga.
Argumentamos a favor de movimientos como estos que abrazan la complejidad en nuestro enfoque de la tecnología. En esa línea, nos centramos en una necesidad poco apreciada (y quizá irónica): la resistencia socialmente responsable a la IA debe incluir la adquisición y democratización del conocimiento sobre ella, especialmente entre las comunidades que probablemente se vean afectadas negativamente por la misma. Las críticas a la IA deben incluir orientación para un compromiso responsable con ella, no solo exhortaciones a evitarla. Al igual que los luditas del pasado, deberíamos exigir propiedad y control, no abstinencia.
Los luditas de la IA son emblemáticos de un creciente movimiento antitecnología impulsado por los numerosos problemas causados por la inteligencia artificial, por su uso indiscriminado y por la ética dudosa de los señores de la tecnología que la están construyendo. En el ala extrema de este movimiento, algunos sugieren que la forma de prevenir los daños de la IA es simplemente negarse a usarla. Incluso si esta postura fundamentalista está impulsada por buenas intenciones, pone en riesgo a las personas vulnerables y socava la mejor arma contra las conquistas desreguladas de la IA: una comprensión compartida de sus poderes, limitaciones y riesgos.
No debemos cometer los mismos errores que los movimientos de abstinencia del pasado. Por ejemplo, los defensores de la educación sexual basada únicamente en la abstinencia dicen a los jóvenes que eviten el sexo por completo hasta el matrimonio. Un cuerpo de literatura ha demostrado que este enfoque es ineficaz, o incluso contraproducente, para reducir el embarazo adolescente, junto con el VIH/SIDA y otras enfermedades de transmisión sexual. Está impulsado por la ideología, no por la evidencia o la eficacia.
Para un ejemplo más reciente, consideremos el movimiento ZeroCovid que surgió durante la pandemia dentro de la comunidad de salud pública en general. Implementado de forma más famosa en China, este movimiento adoptó un enfoque duro para eliminar el virus, con confinamientos estrictos, límites a los viajes y mandatos de comportamiento que primaban sobre las libertades individuales. Muchos defensores de ZeroCovid parecían creer que cualquier argumento a favor de la mitigación era cómplice de dañar a los vulnerables y de ayudar e instigar a sus enemigos antivacunas y anticiencia.
El tiempo no ha sido amable con esta perspectiva. Se ha acumulado evidencia de que los confinamientos tuvieron consecuencias negativas en la educación, la salud mental y la desigualdad. Seguimos siendo firmes defensores de una política de salud pública coordinada y centralizada. Pero el extremismo de ZeroCovid causó una fuerte reacción en China y aumentó la polarización en Estados Unidos, posiblemente socavando los objetivos de salud pública que afirmaba apoyar.
A pesar de las diferencias entre la educación sexual, un virus y una serie de productos de software, estas analogías son útiles. Por ejemplo, ZeroCovid no reconoció que la voluntad de las personas de aceptar algún riesgo para preservar la vida normal no las hace anticiencia; las hace humanas. Fue ingenuo porque no se puede evitar que la gente quiera vivir, trabajar, amar e interactuar con otros. De la misma manera, los enfoques de “IA Cero” son ingenuos porque no se puede evitar que miles de millones de personas utilicen una tecnología que está ampliamente disponible y que hace sus vidas más fáciles o entretenidas.
A día de hoy, se utilizan miles de millones de teléfonos inteligentes, y las proyecciones sugieren que muchos de ellos estarán equipados con hardware compatible con IA en los próximos años. Las herramientas de IA estarán sobre nuestros hombros, en nuestros ojos y oídos, y en nuestros escritorios. Para bien o para mal, los sistemas de IA ya ayudan a dirigir empresas y organizaciones en todo el mundo. Y los modelos de lenguaje extenso, la tecnología que impulsa los chatbots de IA, no solo ayudan con tareas técnicas como escribir código y analizar datos. Organizan listas de bodas, resumen reuniones y crean aplicaciones y páginas web para quienes no tienen conocimientos informáticos. La IA todavía no puede competir con los mejores artistas o programadores, pero pone amplios sectores de la creación tecnológica y artística al alcance de personas que, de otro modo, carecerían de las habilidades o el tiempo para perseguirlos.
Como muchas tecnologías nuevas, la IA puede amplificar la desigualdad o mejorarla, dependiendo de cómo se despliegue. Y los temores sobre la probabilidad de que amplifique la estratificación y la segregación son válidos. Pero abogar por la abstinencia negará a las comunidades el acceso a las herramientas que los privilegiados ya están utilizando para ayudarlos a escribir ensayos universitarios, hacer sus tareas escolares y aprender un segundo idioma. Las posturas puritanas dejan a las personas mal equipadas para usar esta tecnología de manera responsable, incapaces de beneficiarse de ella.
Nuestra perspectiva puede ser criticada por múltiples motivos. Quizás estemos cayendo en un tedioso “ambos-ladismo” u ofreciendo un vago enfoque de “reducción de daños” a un problema que requiere una intervención más drástica. O tal vez seamos unos cobardes, cediendo al status quo y fracasando en el sueño de un mundo libre de IA.
Pero nada requiere menos esfuerzo que exigir que el mundo simplemente se deshaga de las cosas que nos preocupan. Ignorar la IA no hará que desaparezca; simplemente creará una población incapaz de pensar críticamente sobre las fortalezas y debilidades de la tecnología, convirtiendo a las personas en blancos fáciles para las patrañas y la manipulación.
La buena noticia es que las soluciones no son difíciles de imaginar. A pesar de las connotaciones absolutistas de su nombre, el movimiento ludita de la IA incorpora gran parte de los matices que hemos esbozado para un compromiso responsable. Ahora tenemos la capacidad de sondear esta nueva tecnología, probar su precisión y equidad, y combinar la preocupación social con la experiencia técnica. Al igual que en la salud pública, necesitamos crear una fuerza laboral experta con conocimiento detallado de cómo operan las IA, incluidos expertos en el sector público que no estén subordinados a las ganancias corporativas. Estos expertos públicos pueden desmitificar la IA y construir una amplia comprensión democrática de ella. Pueden trabajar con comunidades, defensores y legisladores para diseñar estrategias y regulaciones que nos permitan disfrutar de los beneficios de la IA mientras mitigamos sus daños, para exigir que rinda cuentas y sea transparente ante cada parte interesada, y ayudarnos a decidir cuándo, dónde, cómo y si usarla.
De acuerdo con esto, muchas instituciones y académicos están redactando estrategias para preservar la calidad de la educación frente a la IA. Estas políticas abordan directamente la realidad de que la IA ya es una parte significativa de cómo las personas producen y consumen información. Tememos un futuro en el que los estudiantes finjan escribir ensayos y los profesores finjan leerlos; estamos de acuerdo en que escribir es pensar, y externalizar cualquiera de las dos cosas es peligroso. Pero, en teoría, la IA puede ayudar a cerrar las brechas en el lenguaje, el vocabulario y el acceso al conocimiento que actualmente impiden que muchos disfruten de los frutos de la educación. Y parte de esta educación debe consistir en empoderar a los humanos para que miren bajo el capó y detrás de la cortina, para entender cómo funciona la IA y qué puede y no puede hacer.
El pasado nos ha enseñado los peligros del fundamentalismo. La educación sexual basada solo en la abstinencia fue una postura moral y religiosa disfrazada de política de salud pública, y las posturas absolutistas sobre el Covid-19 fueron impulsadas por el pensamiento mágico más que por la ciencia. No debemos cometer el mismo error con la IA. Las decisiones que tomemos ahora determinarán si la IA será una herramienta para los poderosos, deslumbrando al resto de nosotros con su bombo publicitario y sometiéndonos a sus daños, o si será una herramienta imperfecta pero útil en manos de todos.
Undark. Traducción: Alina Klingsmen.