Conectando normas y conciencia: la búsqueda de la UMD de una IA ética e inclusiva

TheM 10232020 SC 3084 1200x500

A medida que los sistemas de IA penetran cada vez más en los procesos clave de toma de decisiones en nuestra vida diaria, la integración de marcos éticos en el desarrollo de la IA se está convirtiendo en un foco de investigación. En la Universidad de Maryland (UMD), equipo interdisciplinario Aborde las complejas interacciones entre el razonamiento normativo, los algoritmos de aprendizaje automático y los sistemas sociotécnicos.

en una entrevista reciente Noticias de inteligencia artificialinvestigador postdoctoral Ilaria Canavotto y Vaisnav Kameswaran Combinando experiencia en filosofía, informática e interacción persona-computadora para abordar desafíos apremiantes en la ética de la inteligencia artificial. Su trabajo abarca los fundamentos teóricos de la incorporación de principios éticos en la arquitectura de la IA, así como las implicaciones prácticas del despliegue de la IA en áreas de alto riesgo como el empleo.

Una comprensión normativa de los sistemas de inteligencia artificial

Ilaria Canavotto es investigadora del programa de Inteligencia Artificial Centrada en Valor (VCAI) de la UMD, afiliado al Instituto de Computación Avanzada y al Departamento de Filosofía. Ella aborda una pregunta fundamental: ¿Cómo infundimos comprensión normativa en los sistemas de inteligencia artificial? A medida que la IA influye cada vez más en las decisiones que afectan los derechos humanos y el bienestar, los sistemas deben comprender las normas éticas y legales.

"Mi pregunta de investigación es, ¿cómo conseguimos esta información, esta comprensión normativa del mundo, en una máquina que podría ser un robot, un chatbot o algo así?", dijo Cannavoto.

Su investigación combina dos enfoques:

Los riesgos detrás del auge de la IA generativa: por qué ser cautelososLos riesgos detrás del auge de la IA generativa: por qué ser cautelosos

enfoque de arriba hacia abajo: Este enfoque tradicional implica programar explícitamente reglas y normas en el sistema. Sin embargo, Cannavoto señaló: "Es imposible escribirlas tan fácilmente. Siempre surgen situaciones nuevas".

enfoque ascendente: Una nueva forma de extraer reglas de los datos mediante el aprendizaje automático. Si bien es más flexible, carece de transparencia: "El problema con este enfoque es que no sabemos realmente qué ha aprendido el sistema y es difícil explicar sus decisiones", señaló Canavuto.

Cannavoto y sus colegas Jeff Hoti y Eric Paquette están desarrollando un enfoque híbrido que combina lo mejor de ambos enfoques. Su objetivo es crear sistemas de inteligencia artificial que puedan aprender reglas a partir de datos y al mismo tiempo mantener un proceso de toma de decisiones explicable basado en razonamientos legales y normativos.

"[Our] método […] Basado en un campo llamado inteligencia artificial y derecho. Entonces, en este campo desarrollan algoritmos para extraer información de los datos. Por eso queremos generalizar algunos de estos algoritmos y luego tener un sistema que pueda extraer información basada en razonamientos legales y normativos en general", explicó.

El impacto de la inteligencia artificial en las prácticas de contratación y la inclusión de la discapacidad

Canavotto se centra en los fundamentos teóricos, mientras que Vaishnav Kameswaran, afiliado al Instituto NSF para la Inteligencia Artificial Confiable y el Derecho y la Sociedad de la Universidad de Maryland, estudia los impactos de la IA en el mundo real, particularmente su impacto en las personas con discapacidades.

Muchas organizaciones no están preparadas para hacer frente a las amenazas de ciberseguridad de la IAMuchas organizaciones no están preparadas para hacer frente a las amenazas de ciberseguridad de la IA

La investigación de Kameswaran investiga el uso de la inteligencia artificial en los procesos de contratación y revela cómo los sistemas pueden discriminar inadvertidamente a los candidatos con discapacidad. "Hemos estado tratando de... abrir un poco la caja negra y tratar de entender qué hacen estos algoritmos en el back-end y cómo empiezan a evaluar a los candidatos", explicó.

Sus hallazgos sugieren que muchas plataformas de reclutamiento impulsadas por IA dependen en gran medida de señales de comportamiento normativas, como el contacto visual y las expresiones faciales, para evaluar a los candidatos. Este enfoque puede tener un impacto profundamente perjudicial en personas con ciertas discapacidades. Por ejemplo, los candidatos con discapacidad visual pueden tener dificultades para mantener el contacto visual, una señal que los sistemas de inteligencia artificial a menudo interpretan como una falta de compromiso.

“Al centrarse en algunas de estas cualidades y evaluar a los candidatos en función de ellas, estas plataformas tienden a exacerbar las desigualdades sociales existentes”, advierte Kameswaran. Cree que esta tendencia podría excluir aún más de la fuerza laboral a las personas con discapacidad, un grupo que ya se enfrenta. enormes desafíos en materia de empleo.

Índice
  • el panorama ético más amplio
  • el panorama ético más amplio

    Ambos investigadores enfatizaron que las cuestiones éticas que rodean a la inteligencia artificial se extienden mucho más allá de sus campos específicos de investigación. Cubren varias cuestiones clave:

    1. Privacidad de datos y consentimiento: Los investigadores destacaron las deficiencias de los mecanismos de consentimiento actuales, particularmente cuando se trata de la recopilación de datos para el entrenamiento de IA. Kameswaran citó el ejemplo de su trabajo en India, donde personas vulnerables, sin saberlo, entregaban grandes cantidades de datos personales a plataformas de préstamos impulsadas por inteligencia artificial durante la pandemia de COVID-19.
    2. Transparencia y explicabilidad: Ambos investigadores enfatizaron la importancia de comprender cómo los sistemas de inteligencia artificial toman decisiones, especialmente cuando esas decisiones tienen un impacto significativo en la vida de las personas.
    3. Actitudes y prejuicios sociales: Kameswaran señaló que las soluciones tecnológicas por sí solas no pueden resolver el problema de la discriminación. Se necesitan cambios más amplios en las actitudes de la sociedad hacia los grupos marginados, incluidas las personas con discapacidad.
    4. colaboración interdisciplinaria: El trabajo de investigadores de la Universidad de Maryland ilustra la importancia de la colaboración entre la filosofía, la informática y otras disciplinas para abordar cuestiones éticas sobre la inteligencia artificial.

    Mirando hacia el futuro: soluciones y desafíos

    Aunque los desafíos son enormes, ambos investigadores están trabajando arduamente para encontrar soluciones:

    • El enfoque híbrido de Cannavoto hacia la IA normativa podría conducir a sistemas de IA que sean más conscientes y explicables desde el punto de vista ético.
    • Kameswaran sugirió desarrollar herramientas de auditoría para que los grupos de defensa evalúen las plataformas de reclutamiento de IA en busca de posible discriminación.
    • Ambos resaltan la necesidad de cambios de políticas, como actualizar la Ley de Estadounidenses con Discapacidades, para abordar la discriminación relacionada con la inteligencia artificial.

    Sin embargo, también reconocen la complejidad del problema. Como señala Kameswaran: "Desafortunadamente, no creo que la solución técnica de entrenar la IA utilizando ciertos tipos de datos y herramientas de auditoría resuelva el problema por sí sola. Por lo tanto, se necesita un enfoque múltiple".

    Una conclusión importante del trabajo de los investigadores es la necesidad de aumentar la conciencia pública sobre el impacto de la inteligencia artificial en nuestras vidas. Las personas necesitan saber cuántos datos comparten o cómo se utilizan. Como señala Cannavoto, las empresas suelen tener incentivos para ocultar esta información, definiéndola como "empresas que intentan decirte que mi servicio será mejor para ti si me das tus datos".

    Los investigadores creen que es necesario hacer más para educar al público y responsabilizar a las empresas. En última instancia, el enfoque interdisciplinario de Kanavuoto y Kameswaran, que combina la investigación filosófica con aplicaciones prácticas, es un camino a seguir en la dirección correcta para garantizar que los sistemas de IA sean poderosos pero éticos y justos.

    Ver también: Regulaciones que ayudan o dificultan: el enfoque de Cloudflare

    ¿Quiere aprender más sobre inteligencia artificial y big data de la mano de los líderes de la industria? Controlar Expo Inteligencia Artificial y Big Data Celebrada en Amsterdam, California y Londres. El evento integral se lleva a cabo al mismo tiempo que otros eventos importantes, incluidos Conferencia de automatización inteligente, brockx, semana de transformación digitaly Expo Ciberseguridad y Nube.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiqueta: ai, inteligencia artificial, ética, investigación, sociedad

    Descubre herramientas IA similares a Conectando normas y conciencia: la búsqueda de la UMD de una IA ética e inclusiva puedes visitar la categoría Noticias.

    Avatar de Repositoria

    Repositoria

    Relacionado:

    Subir