Investigadores do Mass General Brigham, nos Estados Unidos, desenvolveron modelos de Intelixencia artificial que, ao analizar historiais clínicos electrónicos, poden predicir o risco de sufrir violencia de parella con anos de antelación. O traballo, baseado en datos de pacientes atendidos entre 2017 e 2022, foi publicado en 2026 na revista npj Women’s Health. Os autores sosteñen que estas ferramentas poderían permitir intervencións precoces, aínda que advirten sobre a necesidade de supervisión humana e garantías de privacidade.
O sistema combina varias fontes de información: datos estruturados como diagnósticos e medicación, notas clínicas en texto libre e un modelo de fusión chamado Holistic AI in Medicine (HAIM). Os investigadores adestraron tres variantes para comparar a súa capacidade de identificar sinais asociadas ao risco futuro de abuso. A motivación é aproveitar patróns silenciosos na atención sanitaria que, illados, non chaman a atención pero que, unidos, poden indicar vulnerabilidade.
Os patróns detectados pola IA inclúen visitas repetidas a urxencias, antecedentes de trastornos mentais, dor crónica e certas lesións visibles en probas de imaxe, segundo o estudo. Os autores partiron dunha cohorte de pacientes que acudiron a un centro especializado en intervención contra a violencia. A partir deses historiais, o algoritmo aprendeu a diferenzar traxectorias clínicas con maior probabilidade de rematar nunha consulta por violencia de parella.
Resultados e rendemento do modelo
A versión que integra múltiples fontes (HAIM) obtivo os mellores resultados nas probas: alcanzou unha precisión do 88% nun dos conxuntos de análise. Ademais, a ferramenta puido predicir o 80,5% dos casos cun horizonte medio de 3,7 anos antes de que as vítimas solicitasen atención especializada. Eses datos suxiren que os rexistros clínicos conteñen sinais precoces que, combinadas mediante aprendizaxe automático, permiten identificar o risco con antelación.
O traballo, asinado por Jiayi Gu e colaboradores, inclúe métricas e comparacións entre modelos que usan só datos estruturados, só texto libre ou a fusión multimodal. O estudo sinala diferenzas na sensibilidade e na especificidade segundo a fonte de datos e o tipo de paciente, o que apunta á necesidade de calibrar os sistemas segundo o contexto clínico e demográfico.
Potencial clínico e riscos éticos
Os autores propoñen que estas alertas poderían integrarse na historia clínica electrónica e avisar aos profesionais para iniciar conversacións seguras e derivar recursos antes de que a situación se agrave. Ese uso preventivo permitiría priorizar seguimentos e ofrecer apoio social e psicolóxico a persoas en risco, acurtando a reacción fronte a sinais que hoxe pasan desapercibidas.
«A nosa investigación ofrece unha proba de concepto de que a IA pode axudar a sinalar posibles casos de abuso de forma precoz»
Ao mesmo tempo, os investigadores e expertos en bioética insisten en límites claros: a automatización non debe substituír a avaliación humana. Os modelos poden incorporar sesgos presentes nos datos de orixe, producir falsos positivos que expoñan a persoas a intervencións innecesarias ou, pola contra, falsos negativos que deixen sen protección a vítimas reais.
A privacidade é outro desafío crucial. Integrar alarmas en sistemas clínicos requere garantías concretas sobre quen accede ás alertas, como se gardan e como se protexe a información sensible. Tamén é necesario avaliar o impacto en poboacións vulnerables e en contornos sanitarios con recursos limitados, onde as derivacións non sempre son factibles.
Os autores recomendan ensaios prospectivos e avaliación en contextos diversos antes de despregar a tecnoloxía a gran escala. Ademais, abogan por marcos regulamentarios e protocolos de gobernanza que inclúan auditorías, transparencia nos modelos e participación de profesionais sanitarios e organizacións de defensa das víctimas.
No panorama máis amplo, este estudo súmase a unha crecente corrente que aplica aprendizaxe multimodal na medicina para anticipar riscos e personalizar a atención. Os seus resultados son prometedores, pero lembran que a promesa tecnolóxica debe ir acompañada de controis clínicos e éticos estritos para protexer a quen se pretende axudar.
Referencia: Jiayi Gu et al., «Leveraging multimodal machine learning for accurate risk identification of intimate partner violence», npj Women’s Health (2026). DOI: https://doi.org/10.1038/s44294-025-00126-3.






