Blog IDavinci

¿Cómo afecta la ética a la inteligencia artificial?

COMPARTIR

Muchos expertos de la industria de todo el mundo están demandando lo que se denomina como “IA responsable”, al mismo tiempo que los estudios que salen a la luz recogen que las organizaciones están cada vez más preocupadas por las implicaciones de la IA.

La IA, especialmente el machine learning, funciona usando inserciones de datos, aprendiendo algo de ellos y, a partir de eso, infiriendo conclusiones para hacer predicciones. Esto plantea la cuestión de cómo juzgamos si una salida o conclusión de un sistema de IA es segura y si sucumbirá o no al sesgo o causará algún daño. Esta es la clave de la ética de la IA.

Los puntos clave de la ética de la IA

Responsabilidad y explicabilidad: Es esencial que cualquier acción que realice la tecnología pueda explicarse y auditarse por completo: tiene que poder rendir cuentas. Para ser responsable, el sistema de inteligencia artificial debe ser transparente.

Certeza en los datos: El machine learning y el deep learning requieren enormes conjuntos de datos para aprender y mejorar. Cuantos más datos, mejores serán los resultados a lo largo del tiempo. Sin embargo, la regulación en torno a la privacidad, como la GDPR, impone nuevos niveles de responsabilidad a las organizaciones sobre cómo capturan, almacenan, usan, comparten y reportan los datos personales que poseen. Se debe saber cómo y por qué se están procesando los datos y los riesgos involucrados.

Los prejuicios o sesgos: El área de la ética que quizás ha recibido mayor atención es el sesgo, cuando los modelos de datos sesgados o los prejuicios de los desarrolladores se infiltran involuntariamente en el sistema de inteligencia artificial, lo cual no sorprende si se considera que hay 188 sesgos cognitivos diferentes. Ya sea un prejuicio inconsciente del creador del sistema o un sesgo integrado en el modelo de datos que éste utiliza, los resultados serán probablemente injustos, discriminatorios o simplemente incorrectos.

Transparencia: Para ser responsable, el sistema de inteligencia artificial debe ser transparente. Sin embargo, muchas soluciones de IA adoptan un enfoque de «caja negra» que no permite la visibilidad de los algoritmos subyacentes.

A la hora de incorporar la IA a los procesos de producción de las empresas, es fundamental dotar a la tecnología de principios y valores. Actualmente, parece difícil encontrar una solución ética a las cuestiones que plantea la IA. ¿será posible el desarrollo de algoritmos justos y carentes de sesgos?

Más información en www.desarrollo.idavinci.digital/contacto y en nuestro mail info@idavinci.es

Suscríbete a Nuestra Newsletter

Tabla de Contenidos

Artículos relacionados

Si te ha gustado este post, aquí tienes otros que pueden interesarte.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

idavinci.es te informa que los datos de carácter personal que me proporciones rellenando el presente formulario serán tratados por IDAVINCI IMAGINA S.L. como responsable de esta web. Destinatarios: Los datos no se cederán a terceros salvo en los casos en que exista una obligación legal. En todo caso, los datos que nos facilitas están ubicados en sopeo de Protección de Datos. Derechos: Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@idavinci.es así como el derecho a presentar una reclamación ante una autoridad de control como se explica en la información adicional.