Usando la IA para atrapar a los ladrones. ¿Esta mal?

Usando la IA para atrapar a los ladrones. ¿Esta mal?

July 14, 2019

Se está utilizando un nuevo software de inteligencia artificial en Japón para monitorear el lenguaje corporal de los compradores y buscar señales de que planean robar.

El software, que está hecho por una startup de Tokio llamada Vaak, difiere de productos similares que funcionan al hacer coincidir las caras con los antecedentes penales. En cambio, VaakEye utiliza el comportamiento para predecir la acción criminal.

El fundador de la compañía, Ryo Tanaka, dijo que su equipo alimentó el algoritmo con 100.000 horas de datos de vigilancia para entrenarlo para monitorear todo, desde las expresiones faciales de los compradores hasta sus movimientos y ropa.

Desde el lanzamiento de VaakEye el mes pasado, se ha implementado en 50 tiendas en todo Japón.

Vaak afirma que las pérdidas por robo en tiendas cayeron un 77% durante un período de prueba en tiendas de conveniencia locales. Eso podría ayudar a reducir los costos minoristas globales del robo en tiendas, que alcanzaron los $ 34 mil millones en 2017 según el Índice Global de Reducción.

Vaak CEO Ryo Tanaka said the system identifies suspicious activity on the basis of more than 100 aspects of shoppers’ behavior, including gait, hand movements, facial expressions and even clothing choices. Promotional videos show Vaakeye spotting a range of suspicious activities, from “restless” behavior and “sneaking” to putting items into bags or pockets.

Si el sistema detecta un comportamiento sospechoso, alerta al personal de la tienda a través de una aplicación. Luego, depende de los empleados tomar medidas, por lo general, acercándose a los ladrones potenciales y preguntándoles si necesitan ayuda. El sistema no etiqueta realmente a las personas como ladrones; más bien, dijo Tanaka, le dice a los empleados que “por favor verifiquen a estas personas, podrían robar cosas”.

Preguntas morales

Usar la IA para atrapar ladrones plantea todo tipo de preguntas éticas.

“Si bien el incentivo es prevenir el robo, ¿es legal o incluso moral evitar que alguien ingrese a una tienda basada en este software?” dijo el analista minorista Euromonitor Michelle Grant.

Esto no debería depender del desarrollador de software, dice Tanaka. “Lo que proporcionamos es la información de la imagen sospechosa y detectada. No decidimos quién es el criminal, la tienda decide quién es el criminal”, dijo.

Sin embargo, eso es precisamente lo que concierne a la organización de derechos humanos Liberty, que hace campaña para prohibir la tecnología de reconocimiento facial en el Reino Unido.

“Un entorno minorista, un organismo privado, está empezando a realizar algo parecido a una función policial”, dijo Hannah Couchman, responsable de políticas y defensa de Liberty.

A Liberty también le preocupa el potencial de la IA para alimentar la discriminación. Un estudio de 2018 realizado por MIT y la Universidad de Stanford encontró que varios programas comerciales de análisis facial demostraron sesgos de género y tipo de piel.

Tanaka explica que, dado que el software Vaak se basa en el comportamiento más que en la raza o el género, esto no debería ser un problema. Pero Couchman se mantiene escéptico.

“Con las tecnologías que se basan en algoritmos, especialmente en lo que respecta al comportamiento humano, el potencial de discriminación siempre está ahí”, dijo. “Los seres humanos tienen que enseñar al algoritmo qué tratar con sospecha”.

Consentimiento del cliente

Luego está el tema de la transparencia.

“¿La gente es consciente de lo que está pasando?” preguntó Couchman. “¿Consienten? ¿Es un consentimiento significativo? ¿Qué sucede con los datos? ¿Cómo se protege? ¿Se puede compartir?”

Grant dijo que los consumidores están dispuestos a sacrificar algo de privacidad por conveniencia, como usar el reconocimiento facial para la autenticación de pago, pero solo cuando saben que se está utilizando la tecnología.

Tanaka no disputa esto. “Debería haber un aviso antes de que [los clientes] ingresen a la tienda para que puedan optar por no participar”, dijo.

“Los gobiernos deben aplicar reglas que hagan que las tiendas divulguen información: dónde y qué analizan, cómo la usan y cuánto tiempo la usan”, dijo.

Christopher Eastham, especialista en inteligencia artificial en la firma de abogados Fieldfisher, dijo que el marco para regular la tecnología aún no está en su lugar.

“Hay una necesidad de claridad por parte de los legisladores y la orientación de los reguladores, quienes en última instancia deberán decidir en qué circunstancias el uso de esta tecnología será apropiado o deseable como una cuestión de política pública”, dijo.

Fuentes: CNN Business y NBC News.