Los sistemas de inteligencia artificial deben desarrollarse e implementarse de manera transparente y responsable

La Unión Europea (UE) publicó hoy oficialmente un conjunto de pautas sobre cómo las empresas y los gobiernos deben seguir el desarrollo y la implementación de proyectos de inteligencia artificial para ser verdaderamente transparentes y "éticamente" justos.

UE Figura 1: Los sistemas de inteligencia artificial deben desarrollarse e implementarse de manera transparente y responsable

  1. El 91% de los gerentes de tecnología cree que la IA estará en el centro de la próxima revolución tecnológica

Esto de repente me recordó las Tres Leyes de la Robótica, mencionadas en la historia "Runaround" del autor ruso Isaac Azimov en 1942, un peligro para la humanidad. Regla 2: Los robots deben obedecer absolutamente las órdenes humanas, a menos que estas órdenes contradigan la primera regla. Lo tercero: los robots deben protegerse sin contradecir la primera y la segunda ley. Este es solo un conjunto de reglas "ficticias" que aparecieron hace casi 80 años, pero hoy, a medida que las personas ingresan gradualmente a la era de la inteligencia artificial, todavía está lleno de noticias de última hora. Por supuesto, el nuevo conjunto de normas de la UE será radicalmente diferente de las "Tres leyes de la robótica" de Isaac Azimov. Los legisladores europeos no están en condiciones de proporcionar un marco ético flexible a través del cual podamos controlar cosas como detener robots y martillos asesinos. En cambio, las pautas de la UE tienen como objetivo abordar los problemas "oscuros y fragmentados" que afectan negativamente a la sociedad, a medida que integramos la IA en muchas áreas importantes de nuestras vidas. Vive en el cuidado de la salud, la educación y la tecnología de consumo.

UE Figura 2: Los sistemas de inteligencia artificial deben desarrollarse e implementarse de manera transparente y responsable

  1. El ingeniero de IA de Facebook habla sobre aprendizaje profundo, nuevos lenguajes de programación y hardware de IA

Como un ejemplo simple, si un sistema de inteligencia artificial diagnostica a una persona con alto riesgo de desarrollar cáncer en el futuro, las pautas de la UE ayudarán a garantizar que se deba hacer algo de lo siguiente: ¿El software es sesgado o adicto según la raza del paciente o género, y brindar la información más clara y transparente sobre su condición médica, especialmente sin interferir u obstruir sus decisiones. Médico.

Entonces, sí, estas pautas son principalmente para limitar y controlar los modelos de IA en funcionamiento, pero solo a nivel administrativo y burocrático, no para evitar el asesinato del escritor Azimov.

UE Figura 3: Los sistemas de inteligencia artificial deben desarrollarse e implementarse de manera transparente y responsable

  1. [Infographic] La inteligencia artificial está reemplazando gradualmente los futuros trabajos de las personas

Para elaborar este conjunto de pautas, la UE tuvo que convocar a un grupo de 52 expertos y pedirles que discutan, acuerden y propongan siete requisitos que creen que los futuros sistemas de inteligencia artificial deben cumplir. Estos requisitos son los siguientes:

  1. La capacidad de observar y tomar decisiones finales debe permanecer en manos humanas: AI no debe, o más bien se le debe permitir, pisotear la autonomía y la autodeterminación de las personas. En cambio, las personas no deben ser manipuladas ni coaccionadas por los sistemas de IA. En última instancia, las personas deben poder intervenir o monitorear cualquier decisión que tome el software de IA si es necesario.
  2. Tecnología de implementación precisa, fiable y segura: Cada modelo de IA, ya sea que se implemente a escala de laboratorio o en la práctica, debe garantizar dos elementos, a saber, la seguridad y la precisión, que son requisitos previos. En otras palabras, el software de inteligencia artificial no debe ser fácilmente comprometido y controlado por ataques externos, y cualquier decisión que tome debe ser absolutamente confiable de la manera más razonable.
  3. Garantizar la confidencialidad y la gestión de datos: Los datos personales recopilados por los sistemas de inteligencia artificial deben mantenerse estrictamente confidenciales y completamente confidenciales. Ningún proxy puede filtrar ni acceder a estos datos, ni se pueden robar o perder fácilmente.
  4. Garantizar la transparencia: Los datos y los algoritmos se utilizan para crear un sistema de IA que debe ser accesible, mientras que las decisiones tomadas por el software deben demostrarse y explicarse claramente. En otras palabras, los operadores deben poder interpretar las decisiones tomadas por su sistema de IA de una manera específica y lógica.
  5. Garantizar la diversidad, la no discriminación y la justicia: Los servicios proporcionados por AI deben ser accesibles para todos, independientemente de su edad, sexo, raza u otras características. Al mismo tiempo, las decisiones que toma la IA no están sesgadas hacia ninguna característica u objeto.
  6. Impacto positivo en el medio ambiente y la sociedad: Los sistemas de inteligencia artificial deben implementarse y desarrollarse de manera sostenible (lo que significa que deben ser ambientalmente responsables) y estimular el cambio social en una dirección más positiva. .
  7. Responsabilidades: Sistemas artificiales la inteligencia debe ser auditada y protegida de las salvaguardas existentes. En otras palabras, los efectos negativos del sistema, si los hay, deben reconocerse honestamente y los operadores deben rendir cuentas por los efectos negativos causados ​​por sus sistemas de IA.

Puede encontrar que algunos de estos requisitos son muy abstractos y difíciles de evaluar en un sentido objetivo (por ejemplo, la definición de cambio social positivo causado por la inteligencia artificial puede variar mucho de una persona a otra y de un país a otro). Sin embargo, la mayoría de los otros proyectos son generalmente más simples y pueden probarse y garantizarse con la supervisión de las autoridades, por ejemplo, compartir datos utilizados para entrenar sistemas gubernamentales de IA puede ser una buena manera de combatir algoritmos sesgados y no transparentes.

Figura 4 de la UE: los sistemas de inteligencia artificial deben desarrollarse e implementarse de manera transparente y responsable

  1. [Infographic] Los beneficios y perjuicios de la inteligencia artificial

Las disposiciones de esta directriz de la UE claramente no son jurídicamente vinculantes, pero pueden utilizarse para dar forma a cualquier futura legislación de la UE. relacionados con el campo de la inteligencia artificial. La UE ha dicho repetidamente en el pasado que quiere hacer de Europa un pionero mundial en la implementación de modelos de IA "éticos" y ha emitido un conjunto de documentos de orientación. Esto muestra claramente que están listos para redactar leyes amplias para regular y proteger los derechos digitales.

La UE quiere dar forma a la industria de la inteligencia artificial con estándares éticos

Como parte de los esfuerzos para crear una industria de IA "ética", el Documento de orientación de la UE puede verse como un paso hacia el establecimiento de una "lista de verificación de revisión de IA confiable", cláusulas que podrían ayudar a los profesionales a encontrar posibles debilidades o peligros en el software de IA, incluso si ya ampliamente implementada, esta lista puede incluir cosas como "¿Puede demostrar cómo funciona su sistema de IA en situaciones y entornos complejos?" o "¿Puede evaluar el tipo y el alcance" de los datos en el conjunto de datos? ”El problema. ? . .

Por supuesto, esta lista de evaluación es solo tentativa y la UE deberá recopilar comentarios de empresas y expertos en inteligencia artificial en el futuro. La UE publicará un informe resumido sobre el tema en 2020.

Figura 5 de la UE: los sistemas de inteligencia artificial deben desarrollarse e implementarse de manera transparente y responsable

  1. Los investigadores de IA han dejado de desarrollar máquinas humanoides

La lista de verificación es una parte importante, dice Ani Hidwegi, directora ejecutiva de Access Now y la Organización de Derechos Digitales y una de los 52 expertos encargados de desarrollar las pautas de la UE. La conclusión más importante del informe: "Este documento tiene como objetivo proporcionar una perspectiva realista y prospectiva sobre cómo prevenir y minimizar el daño potencial de la inteligencia artificial".

“Creemos que la UE tiene el potencial y la responsabilidad de ser líder en este trabajo. Pero también creemos que la UE no debe basarse en principios éticos. Deberían considerar exigir a las futuras empresas de inteligencia artificial que cumplan la ley”, dijo Hidwegi. adicional.

Otros son escépticos de que la UE esté tratando de dar forma al desarrollo global de la IA a través de la investigación ética, lo que puede tener muchas consecuencias.

"Somos escépticos sobre el enfoque adoptado por las principales organizaciones europeas. Al establecer un estándar de oro para los sistemas de inteligencia artificial éticos, la idea de que la UE podrá establecer su lugar en el desarrollo de la industria global de inteligencia artificial es relativamente incierta. Elin Ch Pivot, analista sénior de políticas Para ser un líder en el establecimiento de reglas para la IA ética, la UE debe ser primero un líder en la propia IA, dijo el Centro Europeo de Innovación de Datos.

  1. Repasar etapas importantes en la historia del desarrollo de la inteligencia artificial durante más de 60 años

¿Cómo ves este problema? ¡Deja un comentario en la sección de comentarios a continuación!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
error: Content is protected !!