El Observatorio Vodafone de la Empresa


Europa establece normas sobre Inteligencia Artificial para evitar una nueva crisis tecnológica

IVANA KOTTASOVÁ, CNN BUSINESS


Europa establece normas sobre Inteligencia Artificial para evitar una nueva crisis tecnológica

El lunes, la Comisión Europea presentó directrices éticas diseñadas para influir en el desarrollo de los sistemas de Inteligencia Artificial antes de que sean parte integral de la sociedad. Esta iniciativa podría ayudar a corregir la situación actual, en que los reguladores van por detrás de las tecnologías emergentes, con consecuencias negativas imprevistas. La importancia de este tipo de normativa quedó de manifiesto el lunes cuando Gran Bretaña propuso nuevas normas para que las empresas de Internet sean legalmente responsables de retirar de sus plataformas los contenidos dañinos.

“Es como poner los cimientos antes de construir una casa … ahora es el momento de hacerlo”, dijo Liam Benham, vicepresidente de asuntos regulatorios en Europa de IBM, que participó en la elaboración de las directrices sobre Inteligencia Artificial. La Unión Europea ha asumido el liderazgo mundial en materia de regulación tecnológica. El año pasado introdujo una ley sobre privacidad de datos y persigue las prácticas anticompetitivas y el impago de impuestos de las grandes empresas tecnológicas.
La Inteligencia Artificial, que ha captado la imaginación del público y que ha generado graves advertencias sobre su posible uso indebido, es el último frente en materia regulatoria para la Unión Europea.

Google cerró su nuevo consejo ético Sobre IA porque sus empleados exigieron la salida del presidente de un ‘think thank’ conservador

No es un tema fácil. Por ejemplo, la semana pasada Google cerró su nuevo consejo ético para asuntos de Inteligencia Artificial después de que sus empleados exigieran la salida del grupo del presidente de un ‘think thank’ conservador. La Comisión Europea ha identificado siete principios rectores para el desarrollo de la Inteligencia Artificial y el fomento de la confianza. A pesar de que las directrices no son vinculantes, podrían constituir la base de nuevas medidas en el futuro.

La transparencia es un factor clave

Mariya Gabriel, principal autoridad europea sobre economía digital, dijo que las compañías que utilizan sistemas de Inteligencia Artificial deben ser transparentes con el público. “Los ciudadanos deben saber cuándo están en contacto con un algoritmo y no con otro ser humano”, dijo Gabriel. “Cualquier decisión que tome un algoritmo se debe poder verificar y explicar.” Por ejemplo, una compañía de seguros que rechaza una reclamación en base a un algoritmo debe garantizar que el cliente sabe cómo y por qué se tomó la decisión. Un humano debe poder intervenir y revertir la decisión.

La Comisión Europea dijo que los futuros sistemas de Inteligencia Artificial deben ser seguros y fiables durante todo su ciclo de vida. También dijo que la protección de datos debe ser una prioridad y que los usuarios deben tener el control de su propia información. Según las directrices, la responsabilidad recae directamente sobre quienes desarrollan y utilizan sistemas de Inteligencia Artificial. “Si una empresa introduce un sistema de Inteligencia Artificial, esa empresa es responsable de dicho sistema… Este punto es muy importante si se produce un accidente”, dijo Gabriel.

Evitar la discriminación

Gabriel también dijo que las empresas deben garantizar que sus sistemas de Inteligencia Artificial son justos.
Explicó que, por ejemplo, si en un proceso de contratación se utiliza un algoritmo diseñado con datos de una empresa que solo contrataba a hombres, probablemente no seleccionará a ninguna mujer. “El uso de información sesgada puede suponer un problema”, dijo Gabriel.

“Las directrices se basan en la idea de una ‘Inteligencia Artificial confiable’ y eso es problemático porque no es un término claro”

AlgorithmWatch, una organización sin ánimo de lucro, afirmó que, si bien es una buena idea establecer directrices, existen problemas con el enfoque adoptado por la Unión Europa. “Las directrices se basan en la idea de una ‘Inteligencia Artificial confiable’ y eso es problemático porque no es un término bien definido”, dijo Matthias Spielkamp, cofundador del grupo. “¿Quién tiene que confiar y en quién?”, agregó. También dijo que aún no está claro cómo se supervisará la Inteligencia Artificial en el futuro. Thomas Metzinger, filósofo y profesor de la Universidad de Mainz, ayudó en la elaboración de las directrices, pero las criticó porque no prohíben el uso de la Inteligencia Artificial para la fabricación de armas.

A otros les preocupa el impacto que las directrices tendrán en la innovación. “Nos preocupa que el nivel de precisión de las directrices dificulte su aplicación a muchas empresas, especialmente a las pequeñas y medianas empresas”, dijo Antony Walker, director general adjunto de TechUK, un grupo industrial. La Unión Europea intentará ahora resolver estas y otras preguntas con un programa piloto con las grandes empresas tecnológicas.

Descargar artículo