Los retos del aprendizaje automático; la decisión humana y la automatización

Hace unas semanas debatía con Carlos Dulanto sobre los datos. Él decía que no son small ni big, son humanos. Entendí lo que quería decir; los datos hablan sobre comportamientos humanos para ayudar a otros humanos (en este caso profesionales del marketing, los recursos humanos, las finanzas o la salud solo por poner algunos ejemplos) a tomar decisiones.

No siempre es así y sobre no siempre va a ser así. La inteligencia artificial, la automatización de decisiones provoca no pocos debates.

 

El último lo han protagonizado Mark Zuckerber y Elon Musk , o lo que es lo mismo los cerebros de Facebook y Tesla.

Musk pide una regulación proactiva de la inteligencia artificial, a la que considera “una amenaza para la existencia de nuestra civilización”. Una visión que Zuckerberg consideró apocalíptica. Lo curioso es que Musk habló del “conocimiento limitado” del asunto por parte del CEO de Facebook que es, en sí misma, la mayor plataforma de aprendizaje automática que hay sobre la tierra. Google, ya lo sé, es ya extraterrestre.

No hay que ser apocalíptico ni adorar a la tecnología. Es una herramienta. Para humanos, como señalaba‪@CDulantoS .

Cuando se automatiza por completo ocurren cosas como la que le sucedió a Uber en el doble atentado de Londres del pasado mes de junio. La aplicación utiliza el aprendizaje automático para la fijación dinámica del precio. Si la demanda de servicios “refuerza” la subida de precios, seguirá subiendo el precio hasta que el ritmo de contratación descienda. Optimiza los ingresos al apurar lo que el cliente puede estar dispuesto a pagar.

El problema es que era una situación excepcional, no un patrón, lo que había que analizar. La reputación y los sentimientos. En un clima de terror, Uber llegó casi a triplicar el precio a los usuarios que querían huir de la zona. Y la crisis de reputación no tardó en llegar a las redes sociales. Los taxistas de Londres por su parte ofrecieron sus servicios gratis toda la noche.

 

 

Así que tuvo que intervenir un humano. Suspender la fijación dinámica de precios, tomar la decisión de devolver los cargos de esa noche y capear con mensajes de este estilo: ““¿Qué tipo de empresa decide incrementar sus ingresos a costa de víctimas del terrorismo?”.

Así, dejando de lado los mensajes apocalípticos sobre la Inteligencia Artificial, sobre su impacto en el empleo (toda tecnología ha destruido empleos ha creado otros nuevos) lo cierto es que la decisión final debe ser humana. De ahí que algunos autores hable de “inteligencia aumentada” es decir de herramientas que ayuden a la inteligencia humana.

 

Facebook Twitter Google+

Deja un comentario

Apúntate a nuestras newsletters !!

×