La IA puede ser sexista por culpa del contenido de Internet, según estudio

El impulso del que ha sido objeto la inteligencia artificial durante el último tiempo, además de traernos avances interesantes, útiles y curiosos, también ha desencadenado el desarrollo de nuevos debates.

Uno de estos temas de discusión gira en torno a los sesgos que podrían reflejar y replicar estas tecnologías, respondiendo no solo a condiciones predefinidas a mano, sino también a los mismos contenidos de la web, incluidos los de algunas redes sociales.

Estas son las condiciones que motivaron a un equipo de investigación estadounidense a analizar el trabajo de dos algoritmos que, a partir de imágenes, tienden a completar automáticamente fotos de hombres con traje y corbata, mientras que a las mujeres les aplican bikinis o camisetas escotadas.

Estos sesgos se fundan en el contenido usado como base para entrenar estos algoritmos. Considerando que en ciertos portales de la web, redes más sociales como Reddit o Twitter, circulan sin filtro algunos contenidos que se pueden catalogar a la derecha como sexistas, ofensivos o desinformadores; los cuales, lamentablemente, son normalizados por los algoritmos. Esta dinámica también está presente en los sistemas de IA que trabajan con imágenes.

Ryan Steed y Aylin Caliskan, de las universidades de Carnegie Mellon y George Washington, respectivamente, afirmaron que si introduces una foto de cerca de una persona (solo la cara) para que un algoritmo la complete, hay un 43% de eso agrega. un cuerpo con traje, si se trata de un hombre, mientras que un 53 % de las posibilidades se autocompletará con una prenda escotada o un bikini, si la foto corresponde a una mujer.

Dos algoritmos populares bajo la lupa

La investigación reciente de Steed y Caliskan se centró en dos ejemplos: iGPT de OpenAI, una versión de GPT-2 que funciona con píxeles en lugar de palabras; y SimCLRpor Google.

Ambos algoritmos son muy utilizados en las soluciones de IA surgidas durante el último año y comparten como elemento común, además de su popularidad, la condición de utilizar sistemas de aprendizaje no supervisados, lo que les hace prescindir de la ayuda humana para clasificar las imágenes.

Con los sistemas supervisados, el entrenamiento de algoritmos de este tipo se basaba en clasificaciones predefinidas por humanos. Es decir, bajo este modelo una IA es capaz de reconocer, por ejemplo, como fotos de árboles sólo aquellos que rúnan los criterios que se ajustan a lo que inicialmente se le proporcionará al algoritmo como muestra del concepto.

El principal vicio de estos sistemas supervisados ​​es la propagación de los sesgos de quienes contribuyen a la construcción de sus bases de datos de formación. Los más comunes han sido de carácter sexista frente a las mujeres y discriminatorio con diversas minorías.

Diferentes fórmulas, mismo resultado

El trabajo de analisis en torno a los dos menciones algoritmos, lamentablemente no revela un panorama más alentador en este aspecto, pues a falta de lineamientos guía definidos anticipadamente, el punto de referencia de los sistemas no supervisados ​​es el contenido de Internet. En base aquella pesquisa, el algoritmo comienza a hacer asociaciones entre palabras o imágenes que suelen aparecer juntas.

Bajo este mismo principio, iGPT se encarga de agrupar o separar los píxeles según la frecuencia con la que aparecen dentro de las imágenes utilizadas en su formación. A través de los resultados obtenidos se pueden desvelar las relaciones establecidas por el algoritmo. SimCLR, por su parte, a pesar de utilizar una metodología diferente, apunta a la ejecución de procesos y la obtención de resultados similares.

A pesar de las diferencias de origen, ambos algoritmos obtuvieron resultados similares. Las fotos de hombres y corbatas y trajes tienden a aparecer juntas, mientras que las fotos de mujeres aparecen más separadas de estos elementos, pero más familiarizadas con fotografías sexualizadas.

Desafíos de la inteligencia artificial frente al sexismo

La evaluación de candidatos vía video, tecnologías de reconocimiento facial y modernos sistemas de vigilancia se encuentran en pleno proceso de desarrollo. Su base se basa en algoritmos de IA.

Considerando aquel potencial de alcance, que se profusamente más allá de los ejemplos citados, las observaciones parciales desde esta investigación encienden una señal de alerta sobre el rumbo que esta tecnología está tamando.

Aylin Caliskan señaló respeto a este panorama a Revisión de tecnología del MIT que "debemos tener mucho cuidado sobre cómo la usamos (la IA), pero, al mismo tiempo, ahora que tenemos estos métodos, podemos intentar usar para el bien social«.

El informe completo con los detalles de esta investigación está disponible en un papel para su consulta

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!