Inteligencia artificial y teoría de la discapacidad



Por Laura Herman y Molly Bloom

 

La tecnología y la discapacidad tienen una relación larga, a veces incómoda. Muchas personas con discapacidad dependen de diversas tecnologías para acceder a sus mundos. Por ejemplo, una de nosotras, Molly, se basa en la tecnología biomédica que crea su silla de ruedas y los analgésicos para navegar por su mundo físico y social. El correo electrónico, los asistentes de voz y los subtítulos surgieron de tecnologías desarrolladas con y para personas discapacitadas, para ampliar su participación en la vida. Dentro de la industria de la tecnología, la accesibilidad se refiere a todo un campo que garantiza que las personas con discapacidad tengan acceso a sitios web, aplicaciones y experiencias digitales. Una ideología subyacente de estas tecnologías es el objetivo de un futuro equitativo para las personas discapacitadas y no discapacitadas. Por otro lado, muchas intervenciones tecnológicas sobre la discapacidad se inspiran en la imaginación de un futuro en el que se borra la discapacidad. Por ejemplo, Eli Clare (2017), uno de los muchos académicos que exploraron este tema, escribe sobre sus experiencias como persona con parálisis cerebral y rehabilitación. Señala que las tecnologías de rehabilitación a las que ha estado expuesto para minimizar su discapacidad han significado eliminar una parte importante de su experiencia encarnada.



La teoría de la discapacidad (Crip Theory) considera que la discapacidad es un aspecto importante de la diversidad de la humanidad. Alison Kafer (2013) se basa en la noción de teoría de la discapacidad para imaginar el futuro de los discapacitados como un anhelo de un futuro en el que la discapacidad sea bienvenida y en el que el conocimiento y las prácticas colectivas de las personas discapacitadas den forma a las estructuras del futuro. La tecnología también impone una mentalidad orientada al futuro en la producción. Hay mucho en juego sobre cómo la tecnología como la inteligencia artificial (IA) construye un futuro colectivo o una continuación del mundo desigual en el que vivimos.

 

Futuros de IA

Los sistemas de IA recopilan, construyen y actúan sobre el conocimiento que les proporciona su contexto (a menudo, conjuntos de datos). Los sistemas de inteligencia artificial mastican cantidades inconmensurables de datos a un ritmo récord para tomar decisiones. Creemos que estos datos y las acciones a las que contribuyen deben incorporar las complejidades de la vida de las personas con discapacidad, así como las necesidades de las personas con discapacidad.

La IA puede reducir la carga cognitiva: puede aliviar la carga de decisiones difíciles (las calles llenas de vehículos autónomos serían mucho más seguras que los automóviles manuales actuales) o las tareas tediosas. También hay un creciente interés en las iniciativas de “Inteligencia artificial para el bien social” (AI4SG), que van desde el aprendizaje reforzado online, que se enfoca en la educación sobre el VIH para jóvenes sin hogar hasta modelos probabilísticos que previenen la vigilancia policial dañina y apoyan la retención de estudiantes. AI4SG puede crear resultados socialmente buenos que antes eran inalcanzables, inviables o inasequibles.

Específicamente para las personas con discapacidad, la IA puede ayudar a eliminar las barreras de acceso. Por ejemplo, la visión por computadora impulsada por la inteligencia artificial podría traducir el mundo visual para las personas ciegas, mientras que los sistemas de reconocimiento de voz y traducción automática impulsados ​​por inteligencia artificial pueden ayudar a las personas con problemas de audición o sordos. Los robots, automóviles y máquinas autónomos también pueden satisfacer las necesidades de las personas con discapacidades sensoriales o de movilidad.

Sin embargo, estos resultados positivos basados ​​en la IA conllevan una serie de riesgos; algunos desafíos incluyen la protección de la autodeterminación humana, el reemplazo de oportunidades laborales humanas, algoritmos de elaboración de perfiles que discriminan a poblaciones históricamente marginadas (ver Birrer 2005; Barocas y Selbst 2016) y el impedimento general de propiedad sobre los datos personales. Los sistemas de IA están inevitablemente tomando decisiones sesgadas. Hay dos formas en que el sesgo ocurre a menudo: (1) el algoritmo exhibe los sesgos personales del diseñador o (2) el conjunto de datos le enseña al sistema los sesgos de toda la sociedad. Aunque el discurso que rodea a la IA imagina un futuro utópico y equitativo, muchas poblaciones marginadas experimentan los efectos dañinos del sesgo en la IA.

La IA puede usurpar la autodeterminación y aumentar la discriminación de las personas con discapacidad. A medida que las empresas de tecnología se apresuran a desarrollar sistemas de inteligencia artificial, estos sistemas a menudo no se construyen con un enfoque inclusivo. Incluso los sistemas con enormes ventajas potenciales para la comunidad de discapacitados no se han diseñado pensando en los usuarios discapacitados. Por ejemplo, los sistemas de voz a texto no funcionan para personas con impedimentos del habla. Además, los pocos sistemas de inteligencia artificial que se han desarrollado para usuarios discapacitados a menudo pierden su marca al no desarrollarse con usuarios discapacitados, por lo que no se tienen en cuenta los aspectos clave de la experiencia con discapacidades incorporada.

La IA también puede mejorar la discriminación basada en la discapacidad (Morris 2020). Meredith Ringel Morris y col. (2016) demostraron que la discapacidad de un usuario se puede reconstruir en función de su interacción con un sistema basado en inteligencia artificial. Los algoritmos podrían potencialmente usarse para apuntar a usuarios discapacitados con información dañina, oportunidades limitadas o elecciones sesgadas. Por ejemplo, los algoritmos de las compañías de seguros podrían reestructurar las opciones (o la falta de ellas) que se brindan a los usuarios.

Por último, la privacidad de las personas con discapacidad es de especial riesgo. Los usuarios con discapacidades raras corren un riesgo mucho mayor que la población en general cuando los sistemas de inteligencia artificial recopilan, almacenan y analizan grandes conjuntos de datos. El anonimato de estos conjuntos de datos, como exige la normativa actual, ciertamente no es una protección suficiente, ya que los datos se pueden volver a identificar fácilmente. La revelación de estos datos puede conducir a una espiral adicional de prejuicios, exclusión y desigualdad de oportunidades.

 

Guiando el futuro de la tecnología con sabiduría sobre discapacidades

En este ensayo, hemos explorado cómo la tecnología puede imaginar un futuro utópico que sea inclusivo o excluyente de las personas con discapacidad. Los sistemas de inteligencia artificial que adoptan el "futuro discapacitado" incorporarían perspectivas para discapacitados en el diseño y desarrollo de algoritmos. Además, es imperativo que las personas con discapacidad estén representadas dentro de los conjuntos de datos en los que se entrenan las tecnologías artificiales. Estos conjuntos de datos dan forma directamente a los hábitos aprendidos y los resultados finales de estas tecnologías en constante evolución; al controlar los datos que se les sirven, controlamos la realidad en la que opera esta inteligencia de máquina y, por lo tanto, el futuro que construyen. El futuro discapacitado puede garantizar que este contexto basado en datos sea mejor representativo de lo que pronto será nuestra inseparable realidad.

En nuestro trabajo en Adobe, hemos desarrollado prácticas para incluir voces discapacitadas en nuestros procesos de diseño e investigación de productos, de modo que nuestros programas se crean tanto con personas discapacitadas como para ellas. Llevar a cabo una investigación que ayudará a construir un futuro discapacitado ha sido más complicado que simplemente invitar a las personas discapacitadas a nuestra investigación. Nos ha obligado a reestructurar la forma en que pensamos acerca de los "usuarios típicos" y construir una infraestructura de contratación más sólida, profundizar nuestras relaciones con las comunidades de discapacitados y continuar ampliando la conciencia del diseño inclusivo en Adobe. Creemos que es particularmente importante considerar estas perspectivas al diseñar herramientas que permitan la creatividad y la expresividad; es imperativo que todos los usuarios puedan expresarse de forma eficaz. Después de todo, permitir una expresividad más equitativa nos ayudará a construir el "tiempo de promesa" que ofrece el futuro discapacitado.

--

Referencias

Barocas, Solon, and Andrew D. Selbst. 2016. “Big Data’s Disparate Impact.” California Law Review 104, no. 3: 671–732.

Birrer, Frans A. J. 2005. “Data Mining to Combat Terrorism and the Roots of Privacy Concerns.” Ethics and Information Technology 7, no. 4: 211–20.

Clare, Eli. 2017. Brilliant Imperfection: Grappling with Cure. Durham, N.C.: Duke University Press.

Kafer, Alison. 2013. Feminist, Queer, Crip. Bloomington: Indiana University Press.

McRuer, Robert. 2006. Crip Theory: Cultural Signs of Queerness and Disability. New York: NYU Press.

Morris, Meredith Ringel. 2020. “AI and Accessibility.” Communications of the ACM 63, no. 6: 35–37.

Morris, Meredith Ringel, Annuska Zolyomi, Catherine Yao, Sina Bahram, Jeffrey P. Bigham, and Shaun K. Kane. 2016. “‘With most of it being pictures now, I rarely use it’: Understanding Twitter’s Evolving Accessibility to Blind Users.” Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems: 5506–16.

Fuente: SCA


Recomendados

Seguir leyendo