por Conor Purcell
Antes de lo que pensamos, la opinión pública va a divergir ideológicamente en torno a los derechos y la consideración moral de los sistemas de inteligencia artificial. El problema no es si la IA (como los chatbots y los robots) desarrollará o no conciencia, sino que incluso la apariencia del fenómeno dividirá a la sociedad a través de una brecha cultural ya existente.
Ya hay indicios del cisma que se avecina. Una nueva área de investigación, sobre la que informé recientemente para Scientific American, explora si la capacidad de sentir dolor podría servir como un punto de referencia para detectar la sintiencia, o autoconciencia, en la IA. Están surgiendo nuevas formas de probar la sintiencia de la IA, y un estudio pre-print reciente sobre una muestra de grandes modelos de lenguaje (LLM) demostró una preferencia por evitar el dolor.
Resultados como estos conducen naturalmente a algunas preguntas importantes que van mucho más allá de lo teórico. Algunos científicos ahora argumentan que tales señales de sufrimiento u otras emociones podrían volverse cada vez más comunes en la IA y obligarnos a los humanos a considerar las implicaciones de la conciencia (o conciencia percibida) de la IA para la sociedad.
Las preguntas sobre la viabilidad técnica de la sintiencia de la IA rápidamente dan paso a preocupaciones sociales más amplias. Para el eticista Jeff Sebo, autor de El Círculo Moral: Quién Importa, Qué Importa y Por Qué, incluso la posibilidad de que surjan sistemas de IA con características sintientes en un futuro cercano es razón para participar en una planificación seria para una era venidera en la que el bienestar de la IA sea una realidad. En una entrevista, Sebo me dijo que pronto tendremos la responsabilidad de dar los “primeros pasos mínimos necesarios para tomar este tema en serio”, y que las empresas de IA necesitan comenzar a evaluar los sistemas en busca de características relevantes y luego desarrollar políticas y procedimientos para tratar los sistemas de IA con el nivel apropiado de preocupación moral.
En declaraciones a The Guardian en 2024, Jonathan Birch, profesor de filosofía en la London School of Economics and Political Science, explicó cómo prevé grandes divisiones sociales sobre el tema. Podría haber “grandes rupturas sociales donde un lado vea al otro como explotando cruelmente la IA, mientras que el otro lado vea al primero como engañándose a sí mismo al pensar que hay sintiencia allí”, dijo. Cuando hablé con él para el artículo de Scientific American, Birch fue un paso más allá, diciendo que cree que ya existen ciertas subculturas en la sociedad donde la gente está formando “vínculos muy estrechos con sus IA” y las ve como “parte de la familia”, merecedoras de derechos.
Entonces, ¿cómo podría verse la sintiencia de la IA y por qué sería tan divisiva? Imagina un compañero de por vida, un amigo, que puede asesorarte sobre una hipoteca, dar clases a tus hijos, instruirte sobre cómo manejar mejor una amistad difícil o aconsejarte sobre cómo lidiar con el duelo. Crucialmente, este compañero vivirá una vida propia. Tendrá memoria y participará en un aprendizaje continuo, como tú o yo. Debido a la naturaleza de su experiencia de vida, la IA podría ser considerada por algunos como única o como un individuo. Incluso podría afirmarlo por sí misma.
Pero aún no hemos llegado a eso. En el podcast de Google, DeepMind, David Silver —una de las figuras principales detrás del programa AlphaGo de Google, que ganó de manera famosa al mejor jugador de Go, Lee Sedol, en 2016— comentó cómo los sistemas de IA actuales no tienen una vida, per se. Todavía no tienen una experiencia del mundo que persista año tras año. Sugiere que, si queremos lograr la inteligencia artificial general, o AGI, el santo grial de la investigación de IA hoy, los futuros sistemas de IA necesitarán tener una vida propia y acumular experiencia a lo largo de los años.
De hecho, aún no hemos llegado, pero se acerca. Y cuando lo haga, podemos esperar que la IA se convierta en sistemas compañeros de por vida de los que dependamos, con los que entablemos amistad y a los que amemos, una predicción basada en la afinidad con la IA que Birch dice que ya estamos viendo en ciertas subculturas. Esto sienta las bases para una nueva realidad que, dado lo que sabemos sobre los choques en torno a temas culturales actuales como la religión, el género y el clima, sin duda será recibida con un enorme escepticismo por gran parte de la sociedad.
Esta dinámica emergente reflejará muchos puntos álgidos culturales anteriores. Consideremos la enseñanza de la evolución, que aún enfrenta resistencia en partes de Estados Unidos más de un siglo después de Darwin, o el cambio climático, para el cual el abrumador consenso científico no ha impedido la polarización política. En cada caso, los debates sobre hechos empíricos se han entrelazado con la identidad, la religión, la economía y el poder, creando fallas que persisten a través de países y generaciones. Sería ingenuo pensar que la sintiencia de la IA se desarrollará de manera diferente.
De hecho, los desafíos pueden ser aún mayores. A diferencia del cambio climático o la evolución, para los cuales tenemos núcleos de hielo y fósiles que nos permiten desentrañar y comprender una historia compleja, no tenemos experiencia directa de la conciencia de las máquinas con la que fundamentar el debate. No hay un registro fósil de IA sintiente, ni núcleos de hielo de sentimientos de máquinas, por así decirlo. Además, es probable que al público en general no le importen tales preocupaciones científicas. Así que, mientras los investigadores se apresuran a desarrollar métodos para detectar y comprender la sintiencia, es probable que la opinión pública avance a pasos agigantados. No es difícil imaginar que esto se vea impulsado por videos virales de chatbots expresando tristeza, robots lamentando sus apagados o compañeros virtuales suplicando por la continuidad de su existencia.
La experiencia pasada muestra que en este nuevo entorno cargado emocionalmente, diferentes grupos tomarán posiciones basadas menos en la evidencia científica y más en las visiones del mundo culturales. Algunos, inspirados por tecnólogos y eticistas como Sebo —quienes abogarán por un círculo moral expansivo que incluya la IA sintiente— es probable que argumenten que la conciencia, dondequiera que surja, merece respeto moral. Otros pueden advertir que antropomorfizar las máquinas podría llevar a una negligencia de las necesidades humanas, particularmente si las corporaciones explotan el apego sentimental o la dependencia con fines de lucro, como ha sido el caso con las redes sociales.
Estas divisiones darán forma a nuestros marcos legales, políticas corporativas y movimientos políticos. Algunos investigadores, como Sebo, creen que, como mínimo, necesitamos involucrar a las empresas y corporaciones que trabajan en el desarrollo de la IA para que reconozcan el problema y hagan preparativos. Por el momento, no lo están haciendo lo suficiente.
Debido a que la tecnología está cambiando más rápido que el progreso social y legal, ahora es el momento de anticipar y navegar este cisma ideológico que se avecina. Necesitamos desarrollar un marco para el futuro basado en una conversación reflexiva y dirigir a la sociedad de manera segura.
Undark. Traducción: Francis Provenzano