Abordar el sesgo en los algoritmos de IA

¿Deberíamos mantener las máquinas con estándares más altos que los de los humanos?

Un grupo interesante de diversas disciplinas se reunió para discutir el sesgo de la IA en la conferencia virtual CyberSec & AI Connected de Avast este mes. El evento mostró a destacados académicos y profesionales de la tecnología de todo el mundo para examinar cuestiones críticas en torno a la inteligencia artificial para la privacidad y la ciberseguridad.

La sesión del panel fue moderada por el capitalista de riesgo Samir Kumar, quien es el director gerente del fondo de riesgo interno de Microsoft M12 e incluyó:

  • Noel Sharkey, profesor jubilado de la Universidad de Sheffield (Reino Unido) que participa activamente en varias empresas de IA,
  • Celeste Fralick, directora científica de datos de McAfee e investigadora de IA,
  • Sandra Wachter, profesora asociada de la Universidad de Oxford (Reino Unido) y académica jurídica, y
  • Rajarshi Gupta, vicepresidente de Avast y jefe de sus áreas de práctica de seguridad de red e inteligencia artificial.

panel

El grupo exploró primero la naturaleza del sesgo de la IA, que se puede definir de varias maneras. En primer lugar, dijo Sharkey, está la “ injusticia algorítmica ”, donde hay claras violaciones de la dignidad humana. Ofreció ejemplos que van desde una seguridad aeroportuaria mejorada, que supuestamente elige a personas al azar para un escrutinio adicional, hasta la vigilancia policial predictiva.

Parte del problema de la IA es que el sesgo no es un parámetro tan simple . De hecho, según Fralick, hay dos categorías principales de sesgo: social y tecnológico,“Y los dos se alimentan entre sí para establecer el contexto entre las costumbres sociales comúnmente aceptadas”, dijo durante la presentación. “Y estas costumbres también evolucionan con el tiempo”. Parte de la evaluación de estas costumbres tiene que ver con el contexto legal, que Wachter recordó al panel. “Mire el progreso de la acción afirmativa en los Estados Unidos”, dijo. “Ahora que tenemos una mejor equidad en las facultades de medicina, por ejemplo, no la necesitamos tanto”. Wachter dijo que “los sesgos tecnológicos son más fáciles de corregir, como el uso de una colección más diversa de rostros al entrenar modelos de reconocimiento facial. A veces, tenemos que reducir nuestras expectativas cuando se trata de evaluar la tecnología “.

Por supuesto, parte del problema con la definición de sesgo es separar la correlación de la causalidad , que se mencionó varias veces durante la discusión.

Otro problema es la diversidad del equipo que crea algoritmos de IA. Fralick dijo que “si no contratas a personas diversas, obtienes lo que pagas”. Pero la diversidad no es solo por género o raza, sino también por diferentes campos profesionales y antecedentes. Wachter dijo: “Como abogado, pienso en los marcos legales, pero no puedo brindar asesoramiento técnico. Existe la necesidad de un discurso en diferentes contextos. Podemos usar la misma palabra de formas muy diferentes y tenemos que crear un lenguaje común para colaborar de manera efectiva “.

Una parte separada de la comprensión de los sesgos de la IA es comparar los estándares éticos implícitos en el resultado de la IA . Kumar preguntó si deberíamos mantener las máquinas con estándares más altos que los humanos. Sharkey dijo que “las máquinas no toman mejores decisiones que los humanos, se trata más del impacto que esas decisiones tienen en mí personalmente”. Wachter siente que los algoritmos se han mantenido con estándares más bajos que los humanos. Pero hay otro problema: “los algoritmos pueden enmascarar comportamientos racistas y sexistas y pueden excluir a ciertos grupos sin ningún efecto obvio. Podría suceder sin querer y, como resultado, ser mucho más peligroso “. Dada su experiencia legal, sugiere que este es un lugar donde podríamos aplicar nuevas regulaciones que puedan poner a prueba estas consecuencias no deseadas.

Una nota final tiene que ver con la interpretación de los resultados del modelado de IA . “Debemos poder explicar estos resultados”, dijo Gupta. “Pero los modelos han mejorado mucho más rápido que la calidad de las explicaciones, especialmente para los modelos de aprendizaje profundo”. Otros miembros del panel estuvieron de acuerdo y mencionaron que es necesario definir claramente los conjuntos de capacitación y prueba para proporcionar el contexto más apropiado.

Deja un comentario