Huawei propone crear un entorno digital seguro para la inteligencia artificial
- Seguridad
Con el libro blanco sobre ciberseguridad en entornos de IA, Huawei hace un llamamiento a todos los jugadores implicados en el desarrollo de la tecnología para que analicen y contribuyan en la creación de un entorno digital seguro, proporcionando productos y servicios que garanticen su seguridad y privacidad.
Dando un paso más en la relación de colaboración que mantiene con la organización ISMS Forum Spain, Huawei ha participado en el IX Encuentro de Cloud Security Alliance España, un evento donde Alan Tang, director adjunto de la oficina global de ciberseguridad y protección de la privacidad de Huawei, ha explicado los recientes pasos que ha dado la compañía en relación a la protección de los datos de los usuarios en los entornos digitales. Entre ellos se encuentra el libro blanco de ciberseguridad en entornos de Inteligencia Artificial (IA) que pretende dar respuesta a la necesidad de que gobiernos, organismos e industria tecnológica trabajen de manera conjunta para desarrollar códigos de conducta, estándares y leyes que mejoren la seguridad y la protección en la nueva era de la IA.
Según Alan Tang, “la Inteligencia Artificial forma ya parte de nuestro día a día, impactando de manera positiva en la vida de millones de personas, sin embargo, es obvio que la tecnología avanza más rápido que los marcos legales y las políticas que las deben regular. Por ese motivo la industria y los gobiernos deben actuar de forma conjunta y rápida para crear estándares de seguridad comunes que maximicen las oportunidades y protejan a los ciudadanos de consecuencias no deseadas”.
El documento elaborado por Huawei plantea prácticas y perspectivas sobre cuestiones de seguridad y privacidad a través de un modelo de Responsabilidad Compartida, en el que la compañía hace un llamamiento a todos los jugadores implicados en el desarrollo de la IA para que analicen y contribuyan en la creación de un entorno digital seguro, proporcionando productos y servicios que garanticen su seguridad y privacidad. Las cinco entidades responsables que deben trabajar de manera conjunta en un desarrollo seguro son consumidores/clientes, desarrolladores de aplicaciones, implementadores, proveedores de soluciones full-stack y recolectores de datos.
El libro blanco describe la perspectiva y las prácticas de la empresa en materia de seguridad de IA, problemas de privacidad y soluciones relacionadas a través de siete objetivos:
--Seguridad y capacidad de control del sistema. El sistema debe cumplir los requisitos de seguridad de robustez, estabilidad y adaptabilidad además de proporcionar una certificación de seguridad.
--Transparencia y trazabilidad. Las lógicas generadas por el sistema, como, por ejemplo, predicción, juicio y acciones automatizadas, deben ser explicables y transparentes.
--Protección de la privacidad. La información y los datos personales deben protegerse y administrarse de conformidad con el Reglamento General de Protección de Datos (RGPD) y otras leyes aplicables.
--Equidad. Para mitigar los posibles casos de inequidad causada por los procedimientos, las decisiones tomadas por medio de la IA deben cuestionar y buscar soluciones efectivas a estos hechos.
--Gestión de datos. Se debe garantizar la integridad, precisión, disponibilidad, confidencialidad y exhaustividad de los datos.
--Competencia. Un proveedor de soluciones debe especificar el conocimiento y las habilidades necesarias para ejecutar la tecnología IA de manera segura y efectiva. Y, además, aquellos que implementen y desarrollen soluciones deben seguir estos conocimientos y habilidades.
--Garantía del objetivo de despliegue. El despliegue y la aplicación de IA deben cumplir los requisitos de legalidad, equidad, seguridad, protección de la privacidad y el no uso indebido, así como los propósitos de despliegue.