Seguridad y robustez en sistemas de Inteligencia Artificial
En los últimos años se ha adoptado de manera muy rápida los sistemas de inteligencia artificial lo que a su vez ha introducido vulnerabilidades que no quedan cubiertas por la ciberseguridad tradicional, especialmente en modelos expuestos a manipulación, datos no confiables y entornos dinámicos. Es muy necesario tener criterios técnicos y prácticas aplicables para evaluar riesgos y reforzar la robustez.
En esta jornada se abordarán los principales retos de seguridad y resiliencia en sistemas de inteligencia artificial desde una perspectiva técnica y aplicada. Se analizarán vulnerabilidades reales en modelos de aprendizaje automático. Se presentarán ejemplos concretos en ámbitos como visión por computador y procesamiento de lenguaje natural. Se explorarán técnicas actuales de defensa, desde entrenamiento robusto hasta mecanismos de monitorización y detección de anomalías. Se hablará de los riesgos emergentes asociados a modelos fundacionales y cadenas de suministro de IA. Se revisarán enfoques prácticos para integrar seguridad en el ciclo de vida del machine learning. El objetivo es proporcionar criterios técnicos para evaluar, diseñar y proteger sistemas de IA frente a amenazas reales.
Dirigido a
Profesionales de ciberseguridad, ingenieros de IA, y responsables que buscan entender y enfrentar los desafíos de la seguridad.
Requisitos
Conocimientos de aprendizaje automático, incluyendo entrenamiento, validación y métricas de modelos supervisados. Familiaridad con conceptos de ciberseguridad como vectores de ataque, superficie de exposición y análisis de amenazas.
Programa
- Introducción
- Amenazas en sistemas de IA
- Explicación de caso real
- Defensas y robustez
- Retos y tendencias
Ponentes
Alberto Miranda. Investigador en Ciberseguridad en Tecnalia. Doctor en Ciberseguridad e Inteligencia Artificial por la Universidad de Deusto. Ha trabajado en diferentes centros investigando en el campo de la detección de amenazas y securización de sistemas de inteligencia artificial. Actualmente dedicado a proyectos de I+D de ámbito nacional y europeo enfocados en detección inteligente y el desarrollo de sistemas de IA seguros y confiables.
Mª Carmen Palacios. Investigadora Senior en Ciberseguridad en Tecnalia. Licenciada en Físicas por la EHU y máster universitario en Ingeniería de la Seguridad Informática e Inteligencia Artificial por la URV. Ha participado en diferentes programas I + D + i a nivel nacional y europeo en los campos de inteligencia artificial (IA) y ciberseguridad, aplicando tanto aprendizaje automático como métodos de optimización basada en algoritmos evolutivos o bio-inspirados. Asimismo, ha impartido charlas sobre ciberseguridad e IA en la EHU, UCAV y otros foros nacionales de relevancia.

