Investigadores desarrollan método para enseñar nociones de justicia a AI

Aunque se puede llegar a un acuerdo sobre una definición de la justicia como palabra, en lo concreto, su aplicación puede ser objeto de análisis más profundo.

Así como la definición de lo que es justo o no puede ser un verdadero dilema para las personas, para la inteligencia artificial también es un desafío, el cual busca facilitare gracias a una nueva iniciatica surgida en la Universidad Estal de Michigan.

Clases de imparcialidad para algoritmos de IA

Teniendo en cuenta que los sistemas de inteligencia artificial están cada vez más presentes en las actividades y servicios cotidianos, surge la necesidad de dotar de la suficiente imparcialidad a las plataformas implicadas en la decisión de quién recibe una adecuada atención médica, quién es elegible para un préstamo bancario o quién se le asigna un trabajo.

Con fondos de Amazon y la National Science Foundation, Pang-Ning Tan, investigadora y profesora del Departamento de Computación y Ciencias de la Ingeniería de la citada casa de estudios norteamericana, dedicó el último año al entrenamiento de algoritmos de inteligencia artificial, para ayudarlos a discernir entre justicia e injusticia de sus propios actos.

«Estamos tratando de diseñar sistemas de IA que no sean solo para la informática, sino que también aporten valor y beneficios a la sociedad. Entonces comencé a pensar en cuáles son las áreas que son realmente desafiantes para la sociedad en este momento»señaló el investigador sobre los fundamentos de su iniciativa.

Este proyecto plantea la necesidad de desarrollar iniciativas con impacto directo en los usuarios. Desarrollando este mismo punto, Tan comentado tambien que "La equidad es un tema muy importante, especialmente a medida que nos volvemos más dependientes de la IA para las necesidades diarias, como la atención médica, pero también para cosas que parecen mundanas, como filtrar spam o poner historias en su sección de noticias".

Incluso cuando se trata de sistemas automatizados, los algoritmos de IA pueden transmitir ciertos sesgos heredados de los datos utilizados en su entrenamiento o incluso transmitidos directamente por sus creadores. Por ejemplo, según una encuesta realizada por el mismo equipo de investigación de Tan, existen casos de sistemas de IA que discriminan racialmente a la hora de gestionar la atención médica y la segregación sexual de las mujeres en los sistemas de solicitud de empleo.

Sobre esta realidad, Abdol-Hossein Esfahanian, miembro del equipo de investigación de Tan, comentó que «los algoritmos son creados por personas y la gente normalmente tiene sesgos, por lo que esos sesgos se filtran (…) we queremos tener justicia en todas partes, y queremos tener una mejor comprensión de cómo evaluarla».

Con el apoyo de teorías provenientes de las ciencias sociales, Tan y su equipo buscan aproximarse a la noción de equidad más universal posible. Para cumplir con este fin, los principios de justicia transmitidos al algoritmo no provendrán de una visión única, planteándole como desafío decidir entre posturas contrapuestas o contradictorias.

«Estamos tratando de hacer que la IA sea consciente de la justicia y para hacer eso, tienes que decir lo que es justo. Pero, ¿cómo diseñas una medida de equidad que sea aceptable para todos?», señaló Tan, agregando que «estamos viendo cómo una decisión afecta no solo a las personas, sino también a sus comunidades y círculos sociales».

El trabajo es ambicioso ya pesar de los avances, está recién comenzando. «Esta es una investigación muy continua. Hay muchos problemas y desafíos. ¿Cómo defines la equidad? ¿Cómo puedes ayudar a las personas a confiar en estos sistemas que usamos todos los días?», reflexionó Tan, agregando que «nuestro trabajo como investigadores es encontrar soluciones a estos problemas».

El informe completo de esta investigación puede consultarse en el sitio de la Universidad Estal de Michigan.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!