HomeCONTEXTOEDUCACIÓNLa deuda ética de la inteligencia artificial

La deuda ética de la inteligencia artificial

Publicado el

por Casey Fiesler

A medida que crece la preocupación pública por las implicaciones éticas y sociales de la inteligencia artificial, parece ser que es hora de reducir la velocidad. Pero, dentro de las propias empresas tecnológicas, el sentimiento es todo lo contrario. A medida que la carrera de IA de Big Tech se calienta, sería un “error absolutamente fatal en este momento preocuparse por las cosas que se pueden arreglar más tarde”, escribió un ejecutivo de Microsoft en un correo electrónico interno sobre IA generativa, como informó el New York Times.

En otras palabras, es hora de “moverse rápido y romper cosas”, para citar el viejo lema de Mark Zuckerberg. Por supuesto, cuando rompes cosas, es posible que tengas que arreglarlas más tarde, a un costo.

En el desarrollo de software, el término “deuda técnica” se refiere al costo implícito de realizar arreglos futuros como consecuencia de elegir soluciones más rápidas y menos cuidadosas ahora. Correr al mercado puede significar lanzar un software que no está listo, sabiendo que, una vez que llegue al mercado, descubrirás cuáles son los errores y, con suerte, podrás corregirlos en ese momento.

Sin embargo, las noticias negativas sobre la IA generativa tienden a no ser sobre este tipo de errores. En cambio, gran parte de la preocupación es sobre los sistemas de IA que amplifican los sesgos y estereotipos dañinos y los estudiantes que usan la IA de manera engañosa. Escuchamos sobre preocupaciones de privacidad, personas engañadas por información errónea, explotación laboral y temores sobre la rapidez con la que se pueden reemplazar los trabajos humanos, por nombrar algunos. Estos problemas no son fallas de software. Darse cuenta de que una tecnología refuerza la opresión o el sesgo es muy diferente a saber que un botón en un sitio web no funciona.

Como educadora e investigadora de ética tecnológica, pensé mucho sobre este tipo de “errores”. Lo que se acumula aquí no es solo deuda técnica, sino deuda ética. Así como la deuda técnica puede resultar de pruebas limitadas durante el proceso de desarrollo, la deuda ética resulta de no considerar posibles consecuencias negativas o daños sociales. Y con la deuda ética en particular, las personas que incurren en ella rara vez son las personas que la pagan al final.

Más en New York Diario:  Trampas y placeres de la procrastinación

A las carreras

Tan pronto como se lanzó ChatGPT de OpenAI, en noviembre de 2022, la pistola de arranque para la carrera de IA de hoy, imaginé que el libro de deudas comenzaba a llenarse.

En cuestión de meses, Google y Microsoft lanzaron sus propios programas generativos de IA, que parecían haberse apresurado a salir al mercado en un esfuerzo por mantenerse al día. Los precios de las acciones de Google cayeron cuando su chatbot Bard proporcionó con confianza una respuesta incorrecta durante la demostración de la propia empresa. Uno podría esperar que Microsoft sea particularmente cauteloso cuando se trata de chatbots, considerando a Tay, su bot basado en Twitter que se cerró casi de inmediato en 2016 después de lanzar puntos de vista misóginos y supremacistas blancos. Sin embargo, las primeras conversaciones con Bing impulsado por IA dejaron inquietos a algunos usuarios, dada la repetición de información errónea conocida.

Cuando venza la deuda social de estos lanzamientos apresurados, espero que escuchemos mencionar consecuencias no deseadas o imprevistas. Después de todo, incluso con las pautas éticas vigentes, OpenAI, Microsoft o Google no pueden ver el futuro. ¿Cómo puede alguien saber qué problemas sociales podrían surgir antes de que la tecnología esté completamente desarrollada?

La raíz de este dilema es la incertidumbre, que es un efecto secundario común de muchas revoluciones tecnológicas, pero magnificado en el caso de la inteligencia artificial. Después de todo, parte del objetivo de la IA es que sus acciones no se conocen de antemano. La IA puede no estar diseñada para producir consecuencias negativas, pero está diseñada para producir lo imprevisto.

Sin embargo, es falso sugerir que los tecnólogos no pueden especular con precisión sobre cuáles podrían ser muchas de estas consecuencias. Hay innumerables ejemplos de cómo la IA puede reproducir sesgos y exacerbar las desigualdades sociales, pero estas empresas rara vez identifican públicamente estos problemas. Fueron investigadores externos quienes encontraron prejuicios raciales en sistemas comerciales de análisis facial ampliamente utilizados, por ejemplo, y en un algoritmo de predicción de riesgos médicos que se estaba aplicando a alrededor de 200 millones de estadounidenses. Académicos y organizaciones de defensa o investigación, como Algorithmic Justice League y Distributed AI Research Institute, están haciendo gran parte de este trabajo: identificar daños después del hecho. Y no parece probable que este patrón cambie si las empresas siguen despidiendo especialistas en ética.

Más en New York Diario:  Hablando sobre drogas con adolescentes

Especular responsablemente

A veces me describo como una optimista de la tecnología que piensa y se prepara como una pesimista. La única forma de disminuir la deuda ética es tomarse el tiempo para pensar con anticipación sobre las cosas que podrían salir mal, pero esto no es algo que necesariamente se les enseñe a hacer a los tecnólogos.

El científico e icónico escritor de ciencia ficción Isaac Asimov dijo una vez que los autores de ciencia ficción “prevén lo inevitable, y aunque los problemas y las catástrofes pueden ser inevitables, las soluciones no lo son”. Por supuesto, los escritores de ciencia ficción no suelen tener la tarea de desarrollar estas soluciones, pero, en este momento, los tecnólogos que desarrollan IA sí tienen la tarea.

Entonces, ¿cómo pueden los diseñadores de IA aprender a pensar más como escritores de ciencia ficción? Uno de mis proyectos de investigación actuales se centra en desarrollar formas de apoyar este proceso de especulación ética. No me refiero a diseñar pensando en guerras de robots lejanas; me refiero a la capacidad de considerar las consecuencias futuras, incluso en un futuro muy cercano.

Este es un tema que estuve explorando en mi enseñanza durante algún tiempo, alentando a los estudiantes a pensar en las implicaciones éticas de la tecnología de ciencia ficción para prepararlos para hacer lo mismo con la tecnología que puedan crear. Un ejercicio que desarrollé se llama Black Mirror Writers Room, donde los estudiantes especulan sobre las posibles consecuencias negativas de la tecnología, como los algoritmos de las redes sociales y los autos sin conductor. A menudo, estas discusiones se basan en patrones del pasado o en el potencial de malos actores.

Más en New York Diario:  Activismo comunitario y los privilegios de la gentrificación

Shamika Klassen y yo evaluamos este ejercicio de enseñanza en un estudio de investigación y descubrimos que hay beneficios pedagógicos en alentar a los estudiantes de computación a imaginar qué podría salir mal en el futuro, y luego generar ideas sobre cómo podríamos evitar ese futuro en primer lugar.

Sin embargo, el propósito no es preparar a los estudiantes para esos futuros lejanos; es enseñar la especulación como una habilidad que se puede aplicar inmediatamente. Esta habilidad es especialmente importante para ayudar a los estudiantes a imaginar el daño a otras personas, ya que los daños tecnológicos a menudo afectan de manera desproporcionada a los grupos marginados que están subrepresentados en las profesiones informáticas. Los siguientes pasos de mi investigación son traducir estas estrategias de especulación ética para los equipos de diseño de tecnología del mundo real.

¿Es hora de hacer una pausa?

En marzo de 2023, una carta abierta con miles de firmas abogaba por pausar el entrenamiento de sistemas de IA más potentes que GPT-4. Sin control, el desarrollo de la IA “podría eventualmente superarnos en número, astucia, obsolescencia y reemplazo”, o incluso causar una “pérdida de control de nuestra civilización”, advirtieron sus firmantes.

Como señalan las críticas a la carta, este enfoque en los riesgos hipotéticos ignora los daños reales que ocurren hoy. Sin embargo, creo que hay poco desacuerdo entre los especialistas en ética de la IA en cuanto a que su desarrollo debe ralentizarse: que los desarrolladores se den por vencidos y mencionen “consecuencias no deseadas” no lo va a solucionar.

Llevamos solo unos meses en la “carrera de la IA”, ganando una velocidad significativa, y creo que ya está claro que las consideraciones éticas se están dejando atrás. Pero la deuda vencerá, eventualmente, y la historia sugiere que los ejecutivos e inversores de Big Tech pueden no ser los que paguen por ella.

Fuente: The Conversation/ Traducción: Camille Searle

Últimos artículos

Desigualdades de Halloween

por Mara Taylor A medida que los días de octubre se acortan, las casas se...

Halloween inequalities

by Mara Taylor As the days of October shorten, houses donning elaborate decorations, and stores...

Derechos LGBTQ: ¿Dónde se paran Kamala Harris y Donald Trump?

por Marie-Amelie George Las encuestas muestran que los derechos LGBTQ probablemente serán un factor en...

LGBTQ rights: Where do Kamala Harris and Donald Trump stand?

by Marie-Amelie George Polls show that LGBTQ rights will likely factor into most Americans’ pick...

¿La ansiedad climática es un problema o un privilegio?

por Eve Andrews En mayo de 2014, Kate Schapira llevó una mesita con un cartel...

Un alimento amigable con el clima

por Matt Simon Como si se tratara de una pintura de valor incalculable, el hermoso...

¿Hace mal escuchar música todo el tiempo?

por Jillian Hubertz La música nos rodea. Puede ser nuestra compañera durante todo el día:...

Is it bad to listen to music all the time?

by Jillian Hubertz Music surrounds us. It can be a companion throughout the day –...

¿Las vidas negras importan en el espacio?

por Kimberley D. McKinson El 30 de mayo de 2020, sintonicé la televisión para ver...

La ropa como reliquia del mundo moderno

por Eve Andrews La ropa, en nuestros turbulentos tiempos modernos, se considera algo bastante trivial....

Baja el ritmo. Cierra los ojos. Escucha el mundo

por Mara Taylor La música no es sólo una forma de arte, sino un reflejo...

Slow down. Close your eyes. Hear the world.

by Mara Taylor Music is not just an art form; it is a reflection of...

¿Qué significa reciclable?

por Lisa Song La mayoría de los productos de una cocina típica utilizan plásticos que...

Haitianos, gatos y desinformación

por Mara Taylor Donald Trump repitió una afirmación falsa y extraña de que los inmigrantes...

Los inmigrantes haitianos no se están comiendo a tus gatos

por Tara Valencia La reciente afirmación de Donald Trump de que los inmigrantes haitianos comen...

Sigue leyendo

Desigualdades de Halloween

por Mara Taylor A medida que los días de octubre se acortan, las casas se...

Halloween inequalities

by Mara Taylor As the days of October shorten, houses donning elaborate decorations, and stores...

Derechos LGBTQ: ¿Dónde se paran Kamala Harris y Donald Trump?

por Marie-Amelie George Las encuestas muestran que los derechos LGBTQ probablemente serán un factor en...