El Observatorio Vodafone de la Empresa


¿Se debería utilizar la Inteligencia Artificial para atrapar ladrones?

NELL LEWIS, CNN BUSINESS


¿Se debería utilizar la Inteligencia Artificial para atrapar ladrones?

El software, que desarrolla una startup de Tokio llamada Vaak, es diferente a otros productos similares que comparan rostros con antecedentes penales. En lugar de ello, VaakEye, utiliza el comportamiento para predecir la acción criminal. El fundador de la compañía, Ryo Tanaka, explicó que su equipo nutrió al algoritmo con 100.000 horas de datos de vigilancia para que pudiera analizarlo todo, desde las expresiones faciales de los compradores hasta sus movimientos y su ropa.

Desde el lanzamiento de VaakEye el mes pasado, se ha utilizado en 50 comercios minoristas en todo Japón. Vaak afirma que las pérdidas por hurtos en los comercios minoristas locales disminuyeron en un 77% durante el período de prueba. Con este sofware se podrían reducir las pérdidas globales por hurtos en los comercios minoristas, que en 2017 alcanzó los 34.000 millones de dólares americanos según el Índice sobre la Pérdida Global.

Preguntas morales

Utilizar la Inteligencia Artificial para atrapar ladrones plantea todo tipo de preguntas éticas. “Aunque el objetivo sea evitar los hurtos, ¿es legal o incluso moral impedirle a alguien la entrada en una tienda en base a este software?”, preguntó la analista de comercio minorista de Euromonitor, Michelle Grant. Esta decisión no depende de quienes desarrollan el software, dice Tanaka. “Nosotros facilitamos información de las imágenes sospechosas que se detectan. No decidimos si una persona es o no un delincuente, esto lo decide la tienda”, explicó.

“Nosotros facilitamos información de las imágenes sospechosas que se detectan. No decidimos si una persona es o no un delincuente”

Sin embargo, eso es precisamente lo que preocupa a la organización de derechos humanos Liberty, que trabaja para prohibir la tecnología de reconocimiento facial en Reino Unido. “Una tienda de comercio minorista, una entidad privada, estaría realizando una función casi policial”, dijo Hannah Couchman, responsable de políticas e incidencia de Liberty. A Liberty también le preocupa que la Inteligencia Artificial pueda exacerbar la discriminación. Según un estudio de 2018 realizado por el MIT y la Universidad de Stanford, varios programas comerciales de análisis facial mostraron un sesgo por razón de género y tipo de piel.

Tanaka explica que el software de Vaak se basa en comportamientos y no en cuestiones de raza o de género y que, por tanto, no debería haber ningún problema en este sentido. Pero Couchman tiene sus dudas. “Con las tecnologías que se basan en algoritmos, especialmente en lo que respecta al comportamiento humano, siempre hay una posibilidad de discriminación”, dijo. “Son los seres humanos quienes enseñan al algoritmo qué comportamientos debe considerar sospechosos”.

“¿Sabe la gente lo que pasa? ¿Han dado su consentimiento? ¿Es válido su consentimiento? ¿Qué pasa con los datos? ¿Cómo se protegen? ¿Se pueden compartir?”

Consentimiento del cliente

También hay que tener en cuenta el tema de la transparencia. “¿Sabe la gente lo que pasa?”, preguntó Couchman, “¿Han dado su consentimiento? ¿Es válido su consentimiento? ¿Qué pasa con los datos? ¿Cómo se protegen? ¿Se pueden compartir? “. Michelle Grant explicó que los consumidores están dispuestos a sacrificar algo de privacidad por conveniencia, como el uso del reconocimiento facial para la autenticación de pagos, pero solo cuando saben que se está utilizando tecnología.
Tanaka no lo cuestiona. “Se debería avisar a [los clientes] antes de que entren en la tienda, para que puedan decidir si quieren entrar o no”, dijo. “Los gobiernos deben tener normas para que los comercios minoristas gestionen la información con transparencia: dónde y qué analizan, cómo usan la información y durante cuánto tiempo la usan”, añadió.

Christopher Eastham, especialista en Inteligencia Artificial en la firma de abogados Fieldfisher, dijo que el marco para regular la tecnología todavía no está establecido.
“Se necesita claridad por parte de los legisladores y directrices de los reguladores, quienes en última instancia deben decidir en qué circunstancias el uso de esta tecnología es apropiado o deseable como una cuestión de política pública”, dijo.

Descargar artículo