En Madrid, durante o Congreso Internacional «Intelixencia Artificial Xerativa: retos éticos, xurídicos e sociais» celebrado os días 10 e 11 de marzo de 2026 na Universidade CEU San Pablo, voces institucionais e académicas pediron un pacto social europeo para regular a implantación da IA xerativa. Organizadores como a Cátedra Internacional ENIA en IA Xerativa, xunto con Deloitte e o Observatorio OdiseIA, reclamaron que a entrada en vigor do AI Act vaia acompañada de salvagardas en saúde, emprego e protección fronte á desinformación. Reguladores, investigadores e empresas insistiron en que a tecnoloxía xa está fóra do laboratorio e que a lei por si soa non abonda. O obxectivo, sinalaron, é combinar normativa, responsabilidade civil e medidas sociais para mitigar riscos e aproveitar oportunidades.
Os poñentes presentaron un mapa con 16 investigacións pioneiras que amosan como a IA xerativa está reconfigurando ámbitos tan diversos como o diagnóstico médico, a concesión de créditos, as campañas políticas e os procesos de selección de persoal. Na Aula Magna debatéronse resultados sobre discriminación algorítmica, impacto en colectivos vulnerables, responsabilidade civil, emprego e difusión de noticias falsas. O congreso serviu ademais para que os autores deses estudos propoñeran medidas concretas que poidan incorporarse á regulación e ás políticas públicas. Participaron desde autoridades de control até representantes da industria tecnolóxica e centros universitarios.
O acto de apertura correu a cargo de David de Francisco, subdirector de Intelixencia Artificial na Secretaría de Estado de Dixitalización e Intelixencia Artificial, quen defendeu que a implantación da IA xerativa debe buscar un impacto positivo e xerar novos modelos de negocio asistidos por esta tecnoloxía. De Francisco subliñou a necesidade de que as administracións acompañen a transición con marcos que faciliten a innovación pero eviten danos reais a dereitos e servizos esenciais. Tamén salientou a importancia da colaboración público-privada para desenvolver estándares de seguridade e transparencia. A súa intervención marcou o ton pragmático do congreso: regulación útil e aplicable.
Entre os asistentes figurou o presidente da Agencia Española de Protección de Datos, Lorenzo Cotino Hueso, quen recordou que a protección de datos e a privacidade deben estar no centro de calquera marco regulatorio sobre IA. Cotino advertiu sobre os riscos que supoñen os sesgos e a opacidade nos sistemas xerativos cando se aplican en saúde ou en decisións administrativas. Tamén reclamou ferramentas de auditoría e mecanismos que permitan aos cidadáns coñecer e corrixir decisións automatizadas. Para os reguladores, a lei europea debe materializarse en obrigas prácticas e sen ambigüidades.
A directora da Cátedra e presidenta do Observatorio OdiseIA, Idoia Salazar, plantexou a urxencia dun pacto social que vaia máis alá de normas técnicas e contemple dereitos laborais, protección de colectivos vulnerables e estratexias fronte aos deepfakes. Salazar defendeu un enfoque holístico que incorpore formación, políticas de recualificación e redes de seguridade para as persoas cuxo emprego se vexa afectado pola automatización. Tamén reclamou maior investimento en investigación independente e en recursos para verificar a integridade da información xerada por estes sistemas. A súa intervención puxo o acento nas consecuencias sociais e non só nas solucións tecnolóxicas.
A reitora da Universidade CEU San Pablo, Rosa Visiedo Claverol, subliñou o papel das universidades como espazos de avaliación crítica e desenvolvemento responsable da IA. Visiedo abogou por integrar a ética e a gobernanza tecnolóxica nos plans formativos e por promover colaboracións entre centros académicos, administracións e empresas. En paralelo, os asistentes debatéronse sobre a necesidade de mecanismos de responsabilidade civil que faciliten a reparación cando unha decisión automatizada provoque dano. O consenso emerxente foi que a aplicación do AI Act debe complementarse con regras que asignen responsabilidades claras a desenvolvedores, despregadores e usuarios.
Os traballos presentados nas mesas técnicas ofreceron propostas accionables: estándares de transparencia en modelos xerativos, protocolos de verificación fronte aos deepfakes, criterios para avaliar sesgos e esquemas de auditoría independentes. Tamén se expuxeron recomendacións para garantir a continuidade asistencial en saúde cando intervén a IA e para protexer a igualdade de oportunidades en procesos de selección. Os expertos insistiron en que a regulación non pode quedar en principios vagos, senón traducirse en obrigas verificables e sancións disuasorias. A combinación de investigación empírica e propostas normativas foi un dos principais valores do congreso.
O mensaxe final de Madrid foi claro: Europa necesita unha resposta colectiva que combine a posta en marcha do AI Act cun paquete de garantías sociais, técnicas e xurídicas. Reguladores, academia e empresa coincidiron en que só así se poderá extraer o máximo beneficio social da IA xerativa minimizando os seus danos. O congreso intentou converter achados científicos en propostas de política pública para que a Unión Europea governe este poder tecnolóxico con criterios de xustiza e protección cidadá. A chamada a un pacto social queda agora sobre a mesa para as institucións comunitarias e os gobernos nacionais.