Inteligencia artificial y teoría de la discapacidad
La tecnología y la discapacidad tienen una relación larga, a
veces incómoda. Muchas personas con discapacidad dependen de diversas
tecnologías para acceder a sus mundos. Por ejemplo, una de nosotras, Molly, se
basa en la tecnología biomédica que crea su silla de ruedas y los analgésicos
para navegar por su mundo físico y social. El correo electrónico, los
asistentes de voz y los subtítulos surgieron de tecnologías desarrolladas con y
para personas discapacitadas, para ampliar su participación en la vida. Dentro
de la industria de la tecnología, la accesibilidad se refiere a todo un campo
que garantiza que las personas con discapacidad tengan acceso a sitios web,
aplicaciones y experiencias digitales. Una ideología subyacente de estas
tecnologías es el objetivo de un futuro equitativo para las personas
discapacitadas y no discapacitadas. Por otro lado, muchas intervenciones
tecnológicas sobre la discapacidad se inspiran en la imaginación de un futuro
en el que se borra la discapacidad. Por ejemplo, Eli Clare (2017), uno de los
muchos académicos que exploraron este tema, escribe sobre sus experiencias como
persona con parálisis cerebral y rehabilitación. Señala que las tecnologías de
rehabilitación a las que ha estado expuesto para minimizar su discapacidad han
significado eliminar una parte importante de su experiencia encarnada.
La teoría de la discapacidad (Crip Theory) considera que la
discapacidad es un aspecto importante de la diversidad de la humanidad. Alison
Kafer (2013) se basa en la noción de teoría de la discapacidad para imaginar el
futuro de los discapacitados como un anhelo de un futuro en el que la discapacidad
sea bienvenida y en el que el conocimiento y las prácticas colectivas de las
personas discapacitadas den forma a las estructuras del futuro. La tecnología
también impone una mentalidad orientada al futuro en la producción. Hay mucho
en juego sobre cómo la tecnología como la inteligencia artificial (IA)
construye un futuro colectivo o una continuación del mundo desigual en el que
vivimos.
Futuros de IA
Los sistemas de IA recopilan, construyen y actúan sobre el
conocimiento que les proporciona su contexto (a menudo, conjuntos de datos).
Los sistemas de inteligencia artificial mastican cantidades inconmensurables de
datos a un ritmo récord para tomar decisiones. Creemos que estos datos y las
acciones a las que contribuyen deben incorporar las complejidades de la vida de
las personas con discapacidad, así como las necesidades de las personas con
discapacidad.
La IA puede reducir la carga cognitiva: puede aliviar la
carga de decisiones difíciles (las calles llenas de vehículos autónomos serían
mucho más seguras que los automóviles manuales actuales) o las tareas tediosas.
También hay un creciente interés en las iniciativas de “Inteligencia artificial
para el bien social” (AI4SG), que van desde el aprendizaje reforzado online,
que se enfoca en la educación sobre el VIH para jóvenes sin hogar hasta modelos
probabilísticos que previenen la vigilancia policial dañina y apoyan la
retención de estudiantes. AI4SG puede crear resultados socialmente buenos que
antes eran inalcanzables, inviables o inasequibles.
Específicamente para las personas con discapacidad, la IA
puede ayudar a eliminar las barreras de acceso. Por ejemplo, la visión por
computadora impulsada por la inteligencia artificial podría traducir el mundo
visual para las personas ciegas, mientras que los sistemas de reconocimiento de
voz y traducción automática impulsados por inteligencia artificial pueden
ayudar a las personas con problemas de audición o sordos. Los robots,
automóviles y máquinas autónomos también pueden satisfacer las necesidades de las
personas con discapacidades sensoriales o de movilidad.
Sin embargo, estos resultados positivos basados en la IA conllevan
una serie de riesgos; algunos desafíos incluyen la protección de la
autodeterminación humana, el reemplazo de oportunidades laborales humanas,
algoritmos de elaboración de perfiles que discriminan a poblaciones
históricamente marginadas (ver Birrer 2005; Barocas y Selbst 2016) y el
impedimento general de propiedad sobre los datos personales. Los sistemas de IA
están inevitablemente tomando decisiones sesgadas. Hay dos formas en que el
sesgo ocurre a menudo: (1) el algoritmo exhibe los sesgos personales del
diseñador o (2) el conjunto de datos le enseña al sistema los sesgos de toda la
sociedad. Aunque el discurso que rodea a la IA imagina un futuro utópico y
equitativo, muchas poblaciones marginadas experimentan los efectos dañinos del
sesgo en la IA.
La IA puede usurpar la autodeterminación y aumentar la
discriminación de las personas con discapacidad. A medida que las empresas de tecnología
se apresuran a desarrollar sistemas de inteligencia artificial, estos sistemas
a menudo no se construyen con un enfoque inclusivo. Incluso los sistemas con
enormes ventajas potenciales para la comunidad de discapacitados no se han
diseñado pensando en los usuarios discapacitados. Por ejemplo, los sistemas de
voz a texto no funcionan para personas con impedimentos del habla. Además, los
pocos sistemas de inteligencia artificial que se han desarrollado para usuarios
discapacitados a menudo pierden su marca al no desarrollarse con usuarios
discapacitados, por lo que no se tienen en cuenta los aspectos clave de la
experiencia con discapacidades incorporada.
La IA también puede mejorar la discriminación basada en la
discapacidad (Morris 2020). Meredith Ringel Morris y col. (2016) demostraron
que la discapacidad de un usuario se puede reconstruir en función de su
interacción con un sistema basado en inteligencia artificial. Los algoritmos
podrían potencialmente usarse para apuntar a usuarios discapacitados con
información dañina, oportunidades limitadas o elecciones sesgadas. Por ejemplo,
los algoritmos de las compañías de seguros podrían reestructurar las opciones
(o la falta de ellas) que se brindan a los usuarios.
Por último, la privacidad de las personas con discapacidad
es de especial riesgo. Los usuarios con discapacidades raras corren un riesgo
mucho mayor que la población en general cuando los sistemas de inteligencia
artificial recopilan, almacenan y analizan grandes conjuntos de datos. El
anonimato de estos conjuntos de datos, como exige la normativa actual,
ciertamente no es una protección suficiente, ya que los datos se pueden volver
a identificar fácilmente. La revelación de estos datos puede conducir a una
espiral adicional de prejuicios, exclusión y desigualdad de oportunidades.
Guiando el futuro de
la tecnología con sabiduría sobre discapacidades
En este ensayo, hemos explorado cómo la tecnología puede
imaginar un futuro utópico que sea inclusivo o excluyente de las personas con
discapacidad. Los sistemas de inteligencia artificial que adoptan el
"futuro discapacitado" incorporarían perspectivas para discapacitados
en el diseño y desarrollo de algoritmos. Además, es imperativo que las personas
con discapacidad estén representadas dentro de los conjuntos de datos en los
que se entrenan las tecnologías artificiales. Estos conjuntos de datos dan
forma directamente a los hábitos aprendidos y los resultados finales de estas
tecnologías en constante evolución; al controlar los datos que se les sirven,
controlamos la realidad en la que opera esta inteligencia de máquina y, por lo
tanto, el futuro que construyen. El futuro discapacitado puede garantizar que
este contexto basado en datos sea mejor representativo de lo que pronto será nuestra
inseparable realidad.
En nuestro trabajo en Adobe, hemos desarrollado prácticas
para incluir voces discapacitadas en nuestros procesos de diseño e
investigación de productos, de modo que nuestros programas se crean tanto con
personas discapacitadas como para ellas. Llevar a cabo una investigación que
ayudará a construir un futuro discapacitado ha sido más complicado que
simplemente invitar a las personas discapacitadas a nuestra investigación. Nos
ha obligado a reestructurar la forma en que pensamos acerca de los
"usuarios típicos" y construir una infraestructura de contratación
más sólida, profundizar nuestras relaciones con las comunidades de
discapacitados y continuar ampliando la conciencia del diseño inclusivo en
Adobe. Creemos que es particularmente importante considerar estas perspectivas
al diseñar herramientas que permitan la creatividad y la expresividad; es
imperativo que todos los usuarios puedan expresarse de forma eficaz. Después de
todo, permitir una expresividad más equitativa nos ayudará a construir el
"tiempo de promesa" que ofrece el futuro discapacitado.
--
Referencias
Barocas,
Solon, and Andrew D. Selbst. 2016. “Big Data’s Disparate Impact.” California Law
Review 104, no. 3: 671–732.
Birrer,
Frans A. J. 2005. “Data Mining to Combat Terrorism and the Roots of Privacy
Concerns.” Ethics and Information Technology 7, no. 4: 211–20.
Clare, Eli.
2017. Brilliant Imperfection: Grappling with Cure. Durham, N.C.: Duke
University Press.
Kafer,
Alison. 2013. Feminist, Queer, Crip. Bloomington: Indiana University Press.
McRuer,
Robert. 2006. Crip Theory: Cultural Signs of Queerness and Disability. New
York: NYU Press.
Morris,
Meredith Ringel. 2020. “AI and Accessibility.” Communications of the ACM 63,
no. 6: 35–37.
Morris,
Meredith Ringel, Annuska Zolyomi, Catherine Yao, Sina Bahram, Jeffrey P.
Bigham, and Shaun K. Kane. 2016. “‘With most of it being pictures now, I rarely
use it’: Understanding Twitter’s Evolving Accessibility to Blind Users.”
Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems:
5506–16.
Fuente: SCA