Información

¿Qué es la inteligencia artificial explicable y se necesita?

¿Qué es la inteligencia artificial explicable y se necesita?

La Inteligencia Artificial Explicable-XAI es un tema que se ha debatido con frecuencia en los últimos años y es objeto de contradicciones. Antes de discutir la confiabilidad de la Inteligencia Artificial (IA), si la IA está tratando de modelar nuestro pensamiento y toma de decisiones, ¡deberíamos poder explicar cómo realmente tomamos nuestras decisiones! ¿No lo es?

RELACIONADO: LA INTELIGENCIA ARTIFICIAL Y EL MIEDO A LO DESCONOCIDO

Existe una transformación del aprendizaje automático que ha estado ocurriendo a veces más rápido y a veces más lento desde la década de 1950. En el pasado reciente, el área más estudiada y llamativa es el aprendizaje automático, que tiene como objetivo modelar el sistema de decisión, el comportamiento y las reacciones.

Los exitosos resultados obtenidos en el campo del aprendizaje automático llevaron a un rápido aumento en la implementación de la IA. El trabajo avanzado promete ser sistemas autónomos capaces de autopercepción, aprendizaje, toma de decisiones y movimiento.

RELACIONADO: 13 SITIOS GRATUITOS PARA OBTENER UNA INTRODUCCIÓN AL APRENDIZAJE MÁQUINA

Especialmente después de la década de 1990, el concepto de aprendizaje profundo se basa en el pasado, pero las redes neuronales recursivas, las redes neuronales convolucionales, el aprendizaje por refuerzo y las redes contenciosas tienen un éxito notable. Si bien se obtienen resultados exitosos, es inadecuado explicar o explicar las decisiones y acciones de estos sistemas a los usuarios humanos.

Alcance de la inteligencia artificial explicable

Los modelos de aprendizaje profundo diseñados con cientos de millones de capas de redes neuronales artificiales no son infalibles. Pueden perder su credibilidad rápidamente, especialmente cuando simplemente son engañados como en el caso de un ataque de un píxel. Entonces se vuelve inevitable preguntarse cuán exitoso o fracasado.

El Departamento de Defensa (DoD) afirma que los sistemas más inteligentes, autónomos y simbióticos se enfrentan a desafíos.

"La inteligencia artificial explicable, especialmente el aprendizaje automático explicable, será esencial para que los futuros combatientes comprendan, confíen adecuadamente y administren de manera efectiva una generación emergente de socios de máquinas artificialmente inteligentes".

La complejidad de este tipo de aplicaciones avanzadas aumenta con los éxitos y la comprensión-explicabilidad se vuelve difícil. Incluso en algunas conferencias, solo hay sesiones donde se discute este tema.

Las razones de los nuevos sistemas de aprendizaje profundo / máquina

Su objetivo es explicar las razones de los nuevos sistemas de aprendizaje profundo / máquina, determinar sus fortalezas y debilidades y comprender cómo comportarse en el futuro. La estrategia para lograr este objetivo es desarrollar técnicas de aprendizaje artificial nuevas o modificadas que producirán modelos más definibles.

Estos modelos están pensados ​​para ser combinados con técnicas de interfaz interactiva hombre-computadora de última generación, que pueden convertir modelos en diálogos explicativos comprensibles y útiles para el usuario final.

Con tres expectativas básicas, se desea abordar el sistema:
▪. Explique el propósito detrás de cómo se ven afectadas las partes que diseñan y utilizan el sistema.
▪. Explique cómo se utilizan las fuentes de datos y los resultados.
▪. Explique cómo las entradas de un modelo de IA conducen a salidas.

“XAI es uno de los pocos programas actuales de DARPA que se espera que habiliten -los sistemas de IA de tercera ola- donde las máquinas comprendan el contexto y el entorno en el que operan y, con el tiempo, construyan modelos explicativos subyacentes que les permitan caracterizar fenómenos del mundo real . "

Si partimos de la práctica médica, luego de examinar los datos del paciente, tanto el médico debe comprender y explicar al paciente que le propuso al paciente en cuestión el riesgo de un infarto por recomendación del sistema de apoyo a la decisión.

En esta etapa, en primer lugar, qué datos se evalúan es otro criterio importante. También es importante identificar qué datos se necesitan y qué se debe hacer para una evaluación adecuada.

La psicología de la explicación

Veamos el punto en el que nos negamos a utilizar la tecnología de aprendizaje artificial porque no podemos explicar cómo la inteligencia artificial da su decisión. Por otro lado, ¡muchas personas no pueden explicar realmente cómo tomaron la decisión!

Imaginemos cómo una persona tomó una decisión a nivel de modelo: cuando nos acercamos a nuestra estructura biológica a nivel químico y físico, estamos hablando de señales eléctricas de una célula cerebral a otra célula cerebral. Si no queda satisfecho con esta explicación, ¡dígame cómo decidió pedir un café!

Cuando uno de tus amigos pide un café helado, el otro pide café caliente y el otro pide una taza de té en un café. ¿Por qué eligen café helado y café caliente? ¿Alguien puede explicar la química y las sinapsis en el cerebro? ¿Puedes explicar? ¿Quieres tal explicación? ¿Sabes lo que es? ¡Un humano está empezando a inventar una historia sobre cómo decide! Con suerte, será una historia fantástica que escucharás, ¡pruébalo!

¡Solo mire sus datos de entrada y salida y luego cuente una historia divertida! De hecho, existe un enfoque similar para cuestiones analíticas e importantes. Las interpretaciones, la transparencia y la claridad son analíticas, y los análisis sin una prueba son como un billete de tren de ida que provoca una sensación de seguridad.

En perfectas condiciones;
▪, Un sistema que produce el mejor rendimiento,
▪. Quieres la mejor explicación.

Pero la vida real nos obliga a elegir.

Rendimiento vs explicabilidad

Interpretación: Entiendes, ¡pero no funciona bien!

Actuación: ¡No lo entiendes pero funciona bien!

Especialmente los académicos, investigadores y empresas de tecnología generalmente no prestarán mucha atención en la medida en que le den más importancia al desempeño. Sin embargo, el escenario con las personas e instituciones involucradas en el sector es ligeramente diferente. Quieren confiar y esperan una explicación.

Los enfoques de IA difieren para bancos, compañías de seguros, proveedores de atención médica y otras industrias diferentes. Esto se debe a que los modelos para estos sectores traen diferentes normativas legales y requisitos éticos. En este caso, volvemos al mismo punto. Si desea que su sistema se explique en la siguiente condición, ¡tendrá que reemplazarlo por uno más simple que no sea demasiado fuerte, por ahora!

La investigación sobre este tema es principalmente DARPA, Google, DeepMind, etc. Si bien las instituciones se siguen llevando a cabo de manera intensiva, se entiende por los informes; Independientemente del sector y de quién sea utilizado por los sistemas de inteligencia artificial, existe tal relación entre claridad y precisión que una compensación es inevitable y parece continuar durante un tiempo.

Después de todo, la IA no debería transformarse en un poder divino que seremos llevados a perseguir sin establecer una relación causa-efecto. Por otro lado, no debemos ignorar la información que se nos proporcionará.

Básicamente, debemos pensar en crear modelos flexibles e interpretables que puedan trabajar en armonía con los expertos que tienen conocimientos a nivel técnico y académico y las opiniones de diferentes sectores y disciplinas.

Gracias

Agradecemos a Başak Buluz, Yavuz Kömeçoğlu ve Hakan Aydemir por sus comentarios.


Ver el vídeo: INTELIGENCIA ARTIFICIAL en 5 Minutos o más (Julio 2021).