Manufactura industrial
Internet industrial de las cosas | Materiales industriales | Mantenimiento y reparación de equipos | Programación industrial |
home  MfgRobots >> Manufactura industrial >  >> Industrial Internet of Things >> Tecnología de Internet de las cosas

Construyendo una IA responsable y confiable

Scott Zoldi de FICO

A medida que el uso de la IA se vuelve aún más omnipresente, los científicos de datos y las organizaciones simplemente "hacer lo mejor" no será suficiente. Scott Zoldi, experto en inteligencia artificial de FICO explica que con el aumento de los defensores de la IA, la IA responsable será la expectativa y el estándar.

En los últimos años, los datos y la inteligencia artificial se han utilizado ampliamente en una multitud de industrias para informar y dar forma a estrategias y servicios, desde la atención médica y el comercio minorista hasta la banca y los seguros. Y más recientemente, la IA ha pasado a primer plano en el seguimiento en la batalla contra el coronavirus.

Sin embargo, los crecientes volúmenes de datos generados digitalmente, junto con la necesidad de decisiones automatizadas habilitadas por la IA, están planteando nuevos desafíos, para las empresas y los gobiernos, con un enfoque creciente en el razonamiento detrás de los algoritmos de toma de decisiones de la IA.

A medida que la IA aleja la toma de decisiones de las personas a las que afecta, las decisiones pueden parecer más insensibles, tal vez incluso descuidadas. No es raro que las organizaciones citen datos y algoritmos como justificación de decisiones impopulares y esto puede ser motivo de preocupación cuando se trata de líderes respetados que cometen errores.

Algunos ejemplos incluyen:el chatbot en línea racista y ofensivo de Microsoft en 2016, el sistema de reclutamiento de inteligencia artificial de Amazon que ignoró a las solicitantes en 2018 y el automóvil Tesla que se estrelló en el piloto automático después de confundir un camión con una señal de calle suspendida en 2019.

Además de la posibilidad de que se tomen decisiones incorrectas, también existe el problema del sesgo de la IA. Como resultado, se han introducido nuevas regulaciones para proteger los derechos del consumidor y vigilar de cerca los desarrollos de la IA.

Los pilares de la IA responsable

Las organizaciones necesitan implementar una IA robusta ahora. Para ello deben fortalecer y fijar sus estándares con tres pilares de la IA responsable:explicabilidad, rendición de cuentas y ética. Con esto en su lugar, las organizaciones de todo tipo pueden estar seguras de que están tomando decisiones digitales acertadas.

Explicabilidad :Una empresa que se basa en un sistema de decisiones de inteligencia artificial debe asegurarse de contar con una construcción algorítmica que capture las relaciones entre las variables de decisión para llegar a una decisión comercial. Con acceso a estos datos, una empresa puede explicar por qué el modelo tomó la decisión que tomó, por ejemplo, marcó una transacción como de alto riesgo de fraude. Esta explicación puede ser utilizada por analistas humanos para investigar más a fondo las implicaciones y la precisión de la decisión.

Responsabilidad :Los modelos de aprendizaje automático deben construirse correctamente y con un enfoque en las limitaciones del aprendizaje automático y una consideración cuidadosa de los algoritmos utilizados. La tecnología debe ser transparente y compatible. La seriedad en el desarrollo de modelos asegura que las decisiones tengan sentido, por ejemplo, los puntajes se adaptan adecuadamente con un riesgo creciente.

Más allá de la inteligencia artificial explicable, existe el concepto de inteligencia artificial humilde:garantizar que el modelo se use solo en los ejemplos de datos similares a los datos en los que se entrenó. Cuando ese no sea el caso, es posible que el modelo no sea confiable y se debe degradar a un algoritmo alternativo.

Ética :Sobre la base de la explicabilidad y la rendición de cuentas, los modelos éticos deben haber sido probados y toda discriminación eliminada. Las arquitecturas de aprendizaje automático explicables permiten la extracción de las relaciones no lineales que suelen ocultar el funcionamiento interno de la mayoría de los modelos de aprendizaje automático. Estas relaciones no lineales deben probarse, ya que se aprenden en función de los datos sobre los que se entrenó el modelo y, con demasiada frecuencia, estos datos están implícitamente llenos de sesgos sociales. Los modelos éticos garantizan que los prejuicios y la discriminación se prueben y eliminen explícitamente.

Fuerzas que hacen cumplir la IA responsable

La creación de modelos de IA responsables requiere tiempo y trabajo minucioso, con un escrutinio continuo y meticuloso crucial para hacer cumplir una IA responsable continua. Este escrutinio debe incluir regulación, auditoría y promoción.

Las regulaciones son importantes para establecer el estándar de conducta y el estado de derecho para el uso de algoritmos. Sin embargo, al final las regulaciones se cumplen o no y demostrar alineación con las regulaciones requiere auditoría.

Demostrar el cumplimiento de la regulación requiere un marco para crear modelos auditables y procesos de modelado. Estos materiales de auditoría incluyen el proceso de desarrollo del modelo, los algoritmos utilizados, las pruebas de detección de sesgos y la demostración del uso de decisiones razonables y puntuación. Hoy en día, las auditorías del proceso de desarrollo de modelos se realizan de forma desordenada.

Se están introduciendo nuevos sistemas de auditoría de desarrollo de modelos basados ​​en blockchain para hacer cumplir y registrar estándares inmutables de desarrollo de modelos, métodos de prueba y resultados. Además, se utilizan para registrar contribuciones detalladas de los científicos de datos y las aprobaciones de la administración a lo largo del ciclo de desarrollo del modelo.

Mirando hacia el futuro, las organizaciones "haciendo lo mejor que pueden" con los datos y la IA no será suficiente. Con el aumento de los defensores de la IA y el sufrimiento real que se inflige debido a los resultados incorrectos de los sistemas de IA, la IA responsable pronto será la expectativa y el estándar en todos los ámbitos y en todo el mundo.

Las organizaciones deben hacer cumplir la IA responsable ahora y fortalecer y establecer sus estándares de explicabilidad, responsabilidad y ética de la IA para garantizar que se comportan de manera responsable al tomar decisiones digitales.

El autor es el Dr. Scott Zoldi, director de análisis de FICO .

Acerca del autor

El Dr. Scott Zoldi es director de análisis de FICO. Mientras estuvo en FICO, Scott ha sido responsable de la autoría de 110 patentes de autor, con 56 otorgadas y 54 pendientes. Scott participa activamente en el desarrollo de nuevos productos analíticos y aplicaciones de análisis de Big Data, muchas de las cuales aprovechan las nuevas innovaciones analíticas de transmisión, como la analítica adaptativa, la creación de perfiles colaborativos y la analítica de autocalibración. Scott es miembro de dos juntas directivas, Software San Diego y Cyber ​​Center of Excellence. Scott recibió su Ph.D. en física teórica y computacional de la Universidad de Duke.


Tecnología de Internet de las cosas

  1. Términos y conceptos de la memoria digital
  2. Variables de C# y tipos de datos (primitivos)
  3. Conversión de tipos de Python y conversión de tipos
  4. Creación de robots con Raspberry Pi y Python
  5. Construyendo aliados y fomentando el éxito
  6. Hiperconvergencia y almacenamiento secundario:Parte 2
  7. Construyendo seguridad en la infraestructura heredada
  8. Por qué los macrodatos y la analítica de edificios no van a ninguna parte:Parte 1
  9. IoT y su comprensión de los datos
  10. IoT y AI avanzan en tecnología
  11. El futuro de la integración de datos en 2022 y más allá