La inteligencia artificial tiene una crisis de diversidad
AI Now, un instituto de investigación que examina el impacto social de la inteligencia artificial, acaba de publicar un estudio en el que diagnostica a la industria de la IA con una "crsis de diversidad". Con dicho diagnóstico, el estudio aborda cuestiones que probablemente no nos habíamos preguntado antes al pensar en el desarrollo de estas nuevas tecnologías.
El estudio en sí se llama "Disciminating Systems", en español "Sistemas de discriminación", y está disponible para su lectura en versión original en inglés en este enlace. De acuerdo con los hallazgos del estudio, se denuncian varios vacíos o deficiencias en el campo de la inteligencia artificial. El siguiente es uno de ellos:
Crisis diversidad de género y raza en el sector de la IA: "la desigualdad en la industria de la IA es extrema". Un 80% de los profesores de IA son varones, y solo un 18% de los autores en conferencias relevantes del campo son mujeres. El departamento de investigación de IA de Facebook ocupa sólo un 15% de mujeres y el de Google un 10%. No existen datos públicos sobre la ocupación de personas trans u otras minorías de género. Para las personas de color, la situación es incluso peor. Por ejemplo: sólo un 2,5% de los trabajadores de Google son de color, mientras que en Facebook y Microsoft la cifra llega apenas a un pobre 4%. Dadas las décadas de trabajo e inversión para revertir este tipo de desigualdad, la situación es alarmante.
Por supuesto, el informe hace varias sugerencias para mejorar el estado actual. Por ejemplo: las empresas podrían mejorar su transparencia publicando informes sobre el trabajo y su compensación económica, con un desglose en función de raza y género. También se sugiere la publicación de informes de transparencia sobre acoso y discriminación.
Bien, aún con la exposición de estos problemas y sugerencias, el planteamiento sigue estando en el campo de la abstracción, pero tiene consecuencias muy claras en la vida diaria y en el uso cotidiano de diversas tecnologías. Por ejemplo, el dominio del varón blanco puede ejercer influencia sobre los alogritmos diseñados para el reconocimiento facial, a su vez afectando a grupos históricamente marginales. Por nombrar un ejemplo, el uso de un programa para adivinar la orientación sexual de las personas utilizando un sistema de reconocimiento facial, experimento llevado a cabo por investigadores de la Universidad de Stanford.
Muchos trabajadores de la industria de la tecnología se han levantado para señalar importantes problemáticas en el desarrollo de la inteligencia artificial, impulsando a las empresas en las que trabajan a suspender o revisar el uso de herramientas con el potencial de perjudicar a grupos vulnerables o minoritarios. Empleados de Amazon han cuestionado a los directivos por el uso que hace la compañía del reconocimiento facial. Más recientemente, empleados de Google se levantaron contra una junta supervisora de ética en IA que incluía al presidente de la fundación Heritage Foundation, grupo conocido por hacer lobby contra los derechos de personas LGBTG. En respuesta, la empresa disolvió la junta por completo.
Los autores del informe concluyen: "la crisis de diversidad en el campo de la IA está bien documentada y tiene un alcance muy amplio", y prosiguen: "los síntomas pueden percibirse en la disparidad de puestos de trabajo en la industria y el ámbito académico, en la desigualdad de ofertas de empleo y ascensos, en tecnologías de IA que reflejan y propagan estereotipos prejuciosos, y en el resurgimiento del determinismo biológico en los sistemas automatizados".
¿Qué opináis al respecto? ¿Alguno de vosotros ha vivido o presenciado un caso de discriminación por parte de un sistema basado en inteligencia artificial? Podéis contarnos vuestra experiencia en los comentarios.
Fuente: AI Now Institute, The Verge
Contenido editorial recomendado
Con su consentimiento, aquí se cargan contenidos externos.
Al hacer clic en el botón anterior, acepta que se le muestren contenidos externos. En el proceso pueden transmitirse datos personales a terceros proveedores. Encontrará más información al respecto en nuestro Política de privacidad.