El mundo financiero quiere abrir las cajas negras de AI



El mundo financiero quiere abrir las cajas negras de AI
Apr 12th 2017, 23:00


Algunas de las más poderosas técnicas de aprendizaje automático funciona de maneras misteriosas, lo cual es un problema si es necesario explicar la decisión de los clientes.
Daniel Bueno Gonzalez

Poderosos métodos de aprendizaje de máquinas han tomado el mundo de la tecnología por la tormenta en los últimos años, mejorando enormemente el reconocimiento de voz e imagen, la traducción automática, y muchas otras cosas.

Ahora bien, estas técnicas están a punto de poner de cabeza innumerables otras industrias, incluyendo el mundo de las finanzas. Pero el progreso puede ser obstaculizado por un problema significativo: a menudo es imposible explicar cómo estos algoritmos de aprendizaje “profunda” llegar a una decisión.

Adam Wenchel, vicepresidente de la máquina de aprendizaje e innovación de datos de Capital One, según la compañía le gustaría usar el aprendizaje profundo para todo tipo de funciones, incluyendo la decisión de quién se concede una tarjeta de crédito. Pero no puede hacerlo porque la ley obliga a las empresas a explicar la razón de tal decisión a un cliente potencial. A finales del año pasado Capital One creó un equipo de investigación, dirigido por Wenchel, dedicada a la búsqueda de formas de realizar estas técnicas informáticas más explicable.

“Nuestra investigación es para garantizar que podemos mantener esa barra alta para explainability en nuestro empeño en estos modelos mucho más avanzadas, e inherentemente más opacos,” dice.

El aprendizaje profundo surgido en los últimos cinco años como una poderosa manera de imitar las capacidades de percepción humana. El enfoque implica la formación de una red neuronal muy grande para reconocer patrones en los datos. Sin apretar se inspira en una teoría acerca de la forma en que las neuronas y sinapsis facilitar el aprendizaje. A pesar de que cada neurona simulada es simplemente una función matemática, la complejidad de estas funciones interrelacionadas hace el razonamiento de una red profunda extremadamente difícil de desenredar.

¿Los algoritmos de aprendizaje automático siempre necesitan ser explicable y responsable?
Comparte tus pensamientos.
Algunas otras técnicas de aprendizaje automático, incluyendo aquellos que superan el aprendizaje profundo en ciertos escenarios, son mucho más transparente. Pero el aprendizaje profundo, lo que permite análisis sofisticados que son útiles para la industria financiera, puede ser muy difícil para interrogar.

Algunas nuevas empresas tienen como objetivo explotar las preocupaciones sobre la opacidad de los algoritmos existentes con la promesa de utilizar enfoques más transparentes (ver “ una fórmula de crédito Impulsado por la IA podría ayudarle a obtener un préstamo ”).

Este problema podría ser más importante en los próximos años a medida que se convierte en un aprendizaje profundo y más comúnmente utilizado como reguladores dirigen su atención a la rendición de cuentas algorítmica. A partir del próximo año, en virtud de su Reglamento de protección de datos generales, la Unión Europea podrá requerir de cualquier empresa para ser capaz de explicar una decisión tomada por uno de sus algoritmos.

El problema también ha llamado la atención de la Agencia de Investigación de Proyectos Avanzados de Defensa, lo que hace la investigación para el Departamento de Defensa de Estados Unidos. El año pasado DARPA lanzó un esfuerzo para financiar enfoques de la máquina de fabricación de aprendizaje menos opaco (ver “ El Ejército de Estados Unidos quiere máquinas autónomas que dar explicaciones ”). Los 13 proyectos seleccionados muestran una variedad de enfoques para hacer algoritmos más transparente.

Recomendado para ti
El secreto oscuro en el corazón de la IA
Necesitamos más alternativas a Facebook
Cumplir con los individuos que venden “Neuralink” a Elon Musk sin darse cuenta
FDA abre compuertas genéticas con la Decisión 23andMe
Esto puede teléfono mudo libre US Smartphone de adicción?
La esperanza es que el aprendizaje profundo se puede utilizar para ir más allá de simplemente adaptar las funciones de percepción humana. Una compañía de tarjetas de crédito podría, por ejemplo, alimentar historial de crédito y otros datos financieros en una red profunda y entrenarlo para reconocer a las personas que podrían pagar sus pagos con tarjeta de crédito.

Capital One también está estudiando el aprendizaje profundo como una forma de detectar automáticamente los cargos fraudulentos con mayor fiabilidad, Wenchel dice, aunque la compañía no se fía de confiar en un sistema de este tipo cuando su razonamiento no puede ser examinado. “Operamos en una industria muy regulada”, dice. “Tenemos que ser capaces de explicar tanto a nivel interno, así como a la gente por qué estamos tomando decisiones. Y asegurarnos de que estamos tomando decisiones por las razones correctas “.

“El aprendizaje profundo es una gran palabra de moda en este momento, y ha habido un gran progreso en la visión artificial y procesamiento del lenguaje natural”, dice Trevor Darrell , profesor de la Universidad de Berkeley que dirige uno de los proyectos seleccionados para la financiación de DARPA. “Pero [sistemas de aprendizaje profundo] son criticados porque a veces es difícil de averiguar lo que está pasando dentro de ellos.”

Para el proyecto de DARPA, el grupo de Darrell está desarrollando varios nuevos enfoques de aprendizaje profundo, incluidas las redes profundas más complejos capaces de aprender varias cosas a la vez. También hay enfoques que incluyen una explicación en los datos de entrenamiento: en el caso de la imagen de subtítulos, por ejemplo, una imagen clasificada como un gato se puede combinar con una explicación de por qué se clasifica como tal. El mismo enfoque podría ser utilizado en la clasificación de cargos de tarjeta de crédito como fraudulenta. “Todas estas cosas nos llegan a las redes profundas más interpretables”, dice Darrell.

Daniel Bueno Gonzalez.