Retos de cumplimiento normativo en el uso de la inteligencia artificial

Mar Zapata_BBVA AM_noticia
Firma: cedida (BBVA AM).

TRIBUNA de Mar Zapata, Compliance manager, BBVA AM. Comentario patrocinado por BBVA Asset Management.

En los últimos años estamos presenciando el desarrollo de nuevos modelos de trabajo impulsados por la integración de la inteligencia artificial (IA) en los procesos de toma de decisión de las empresas. El uso de estas innovadoras tecnologías presenta nuevos retos y desafíos para las áreas de cumplimiento normativo, que deben adaptarse a un sector en continua evolución.

La Unión Europea (UE) está siendo pionera en la regulación de la IA, buscando establecer un marco que equilibre la innovación tecnológica con la protección de la seguridad, la salud y los derechos fundamentales de los ciudadanos. La reciente legislación de la UE en IA se distingue por su carácter horizontal y su enfoque en riesgos, abogando por sistemas de IA que sean seguros, transparentes y no discriminatorios. La comparación entre las regulaciones de la UE y las de otras jurisdicciones revela una diversidad de enfoques. Mientras algunas regulaciones priorizan la innovación o la soberanía nacional, otras, como la de la UE, enfatizan la protección de derechos fundamentales. Este análisis comparativo no solo enriquece nuestra comprensión de la regulación global de la IA sino que también subraya la importancia de un enfoque colaborativo internacional en la formulación de políticas.

En el contexto actual, marcado por el avance acelerado de la IA, la protección de datos se enfrenta a desafíos sin precedentes. Las organizaciones tienen la responsabilidad de adaptar sus enfoques y estrategias para asegurar que el uso de la IA respeta la privacidad y seguridad de los datos y también cumple con la normativa aplicable.

La implementación de IA implica la recogida, almacenamiento y procesamiento de grandes volúmenes de datos, muchos de los cuales pueden ser personales y sensibles. Por lo tanto, es crucial que las organizaciones evalúen y comprendan los mecanismos y algoritmos de sus aplicaciones de IA para garantizar que los datos se manejan de manera segura y ética. Las organizaciones deben esforzarse por ser transparentes respecto a cómo se utilizan los datos en sus sistemas de IA, y cómo estos sistemas toman decisiones o aprenden a partir de los datos ingresados.

Esto también implica un desafío para los reguladores y legisladores, quienes deben desarrollar y adaptar marcos legales que respondan a las complejidades introducidas por la IA. Dichos marcos deben equilibrar la innovación y el avance tecnológico con la protección de los derechos individuales y la privacidad de los datos personales. En materia de derechos de autor y propiedad intelectual, podría ser necesario evolucionar la regulación actual para adaptarse al uso de la información por parte de la IA y al potencial de esta para la creación de contenidos.

La IA se entrena con información, incluyendo textos, imágenes y sonidos, que pueden estar protegidos por derechos de autor. El uso de esta información sin las correspondientes licencias o autorizaciones plantea problemas legales significativos. Esto supone que, para mitigar el riesgo del uso de la IA, las entidades deben implementar mecanismos para asegurar que el contenido protegido por derechos de autor se utiliza de manera legal: el contenido utilizado por la IA cuenta con las correspondientes licencias; el entrenamiento de la IA se basa en contenido generado por la propia entidad; o se limita su uso a contenido de dominio público.

La protección del contenido generado mediante IA también supone un reto normativo para los próximos años. En el ámbito de la propiedad industrial, por ejemplo, la determinación de la autoría de una invención creada con una IA es compleja. Las legislaciones actuales no están  preparadas para abordar la cuestión de si una invención generada con IA puede o no ser patentable o si la IA podría ser considerada como autor o inventor.

La adopción de la IA también plantea interrogantes en cuanto al manejo de la información confidencial. Las entidades deben establecer protocolos robustos que garanticen que la IA no compromete el secreto profesional o la confidencialidad. Esto incluye el desarrollo de sistemas de IA que puedan identificar y proteger la información sensible, así como la implementación de medidas de seguridad avanzadas para prevenir accesos no autorizados o filtraciones de datos.

La evolución continua de la IA implica que los mapas de riesgos tradicionales pueden quedar rápidamente obsoletos. Los riesgos asociados con la IA, como decisiones automatizadas erróneas o sesgos en algoritmos, demandan una revisión y actualización constantes de estos mapas. Este proceso no solo debe identificar nuevos riesgos sino también desarrollar estrategias  para su mitigación.

En definitiva, los avances tecnológicos de la IA supone un reto constante para las áreas de cumplimiento normativo de las entidades, que deberán establecer procesos de reevaluación de los riesgos que implica el uso de estas nuevas tecnologías. La adaptación a los cambios normativos, la revisión de los mapas de riesgos y el manejo de desafíos específicos en protección de datos, derechos de autor, propiedad intelectual e industrial, y la confidencialidad son esenciales para que las entidades operen ética y legalmente en un contexto de innovación tecnológica. La anticipación y adaptación a estos desafíos será clave para asegurar el éxito en un entorno regulado y en constante cambio.