Con un enfoque estructural, el Reino Unido y Estados Unidos, junto a socios internacionales de otros 16 países, publicaron la semana pasada, nuevas directrices para el desarrollo de sistemas seguros de inteligencia artificial (IA).
«El enfoque prioriza la propiedad de los resultados de seguridad para los clientes, adopta una transparencia y responsabilidad radicales y establece estructuras organizativas donde el diseño seguro es una prioridad máxima», dijo la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA ).
Desde el Centro Nacional de Seguridad Cibernética (NCSC), aseguran que los esfuerzos se centran en un objetivo clave, que es el de aumentar los niveles de seguridad cibernética de la IA y, ayudar a garantizar que la tecnología se diseñe, desarrolle e implemente de manera segura. Las directrices, se basan en gestionar los riesgos que plantea la Inteligencia Artificial, garantizando que las nuevas herramientas se prueben adecuadamente antes de su lanzamiento al público, implementando barreras de seguridad para abordar daños sociales como el sesgo, la discriminación y las preocupaciones sobre la privacidad, estableciendo métodos sólidos para que los consumidores identifiquen el material generado por IA.
Dentro de esos esfuerzos, se exige también, que las empresas se comprometan a facilitar el descubrimiento y la notificación por parte de terceros, sobre vulnerabilidades en sus sistemas de inteligencia artificial, mediante un esquema de recompensas por errores, que servirá para brindar soluciones rápidas ante cualquier tipo de eventualidad.
Las últimas directrices «ayudan a los desarrolladores a garantizar que la seguridad cibernética sea una condición previa esencial para la seguridad del sistema de (IA), y una parte integral del proceso de desarrollo desde el inicio, durante, y en todo momento, lo que se conoce como un enfoque ‘seguro por diseño'», dijo el NCSC.
El seguro por diseño, como se dijo anteriormente, abarca también el desarrollo seguro, la implementación segura y la operación y mantenimiento seguros, cubriendo todas las áreas importantes dentro del ciclo de vida del desarrollo del sistema de (IA), lo que requiere que las organizaciones modelen las amenazas a sus sistemas, así como salvaguarden sus cadenas de suministro e infraestructura.
Como se detalló al principio, es combatir también los ataques adversarios, dirigidos a sistemas de inteligencia artificial y aprendizaje automático (ML) que tienen como objetivo causar comportamientos no deseados de diversas maneras, incluido afectar la clasificación de un modelo, permitir a los usuarios realizar acciones no autorizadas y extraer información confidencial.
Según NCSC, «los ataques de inyección rápida en el dominio del modelo de lenguaje grande (LLM), es una de las muchas maneras de realizar esto, otra es corromper deliberadamente los datos de entrenamiento o los comentarios de usuarios (conocido como ‘intoxicación de datos’)».
Fuente
https://thehackernews.com/2023/11/us-uk-and-global-partners-release.html
