Una entrenadísima red neuronal dotada de inteligencia artificial (y supuestamente muy lista) tuvo en una ocasión la osadía de afirmar con un porcentaje de probabilidad el 99,7% que el sombrero que la reina Isabel II de Inglaterra lucía sobre su regia cabeza era en realidad un gorro de ducha.
Con este ejemplo (tan gracioso como preocupante), Kate Crawford, directora de Investigación Microsoft Research, quiso poner ayer sobre la mesa, durante su intervención en la conferencia de internet re:publica, las múltiples debilidades de una inteligencia artificial repleta no sólo de lagunas técnicas sino también de lagunas éticas.
A juicio de Crawford, las máquinas dotadas de aprendizaje artificial necesitan pertrecharse de ciertas reglas éticas. De lo contrario, a esas máquinas no les dolerán prendas a la hora de endilgarnos características que no son en realidad nuestras (ni queremos que lo sean).
Y si no, para muestra un botón. El sistema de inteligencia artificial i2 EIA (Enterprise Insight Analysis) de IBM (que es por cierto uno de los principales sponsors de re:publica) registra millones y millones datos no estructurados procedentes de diferentes fuentes públicas para reconocer a posibles sospechosos de terrorismo entre los refugiados.
Crawford denuncia que este sistema pone en evidencia la ética de la que adolece en ocasiones la jovencísima inteligencia artificial. Los refugiados sobre los que posa sus ojos i2 EIA no saben ni los datos personales que este sistema recopila sobre ellos ni el uso que da a tales datos personales.
¿Qué puede hacer una persona cuando es catalogada como un riesgo por parte de una máquina? ¿Cómo puede defenderse si la máquina se equivoca a la hora de catalogarla?, se pregunta Crawford.
El sistema i2 EIA es sólo un ejemplo de la poca o nula ética de la inteligencia artificial (por mucho que esa ausencia de ética no sea deliberadamente intencionada). Sin embargo, ahí fuera hay muchos más ejemplos de la inquietante orfandad moral de las máquinas bendecidas con el don de las inteligencia artificial. El sistema de reconocimiento facial de Google confundió en una ocasión a una persona de color con un gorila, recuerda Crawford. Y el sistema de reconocimiento facial de Nikon cometió también una “pifia” similar al confundir a una mujer asiática con una persona que estaba parpadeando ante la cámara (cegada quizás por los rayos de sol).
¿Qué se esconde detrás de estas sonoras meteduras de pata? Crawford lo tiene claro. Tanto el sistema de reconocimiento facial de Google como el de Nikon fueron entrenados con toneladas y toneladas de fotografías de personas blancas.
Si la decisión de si una persona puede subirse o no a un avión o puede recibir o no crédito está en manos de una máquina, esa máquina debe estar aprovisionada de datos diversos, recalca Crawford. Los algoritmos necesitan también lecciones de ética, añade.
Sin una pizca de ética a su vera, la inteligencia artificial está abocada a volcar sus prejuicios (que los tiene) en las personas menos privilegiadas, denuncia la investigadora. “Y nadie debería tener que ser la reina de Inglaterra para poder defenderse con garantías de los dislates cometidos por la inteligencia artificial”, concluye Crawford.
NOTE CREDIT: http://www.marketingdirecto.com/digital-general/digital/la-inteligencia-artificial-necesita-agua-mayo-una-pizca-etica-rpten/