Investigadores del Mass General Brigham, en Estados Unidos, han desarrollado modelos de Inteligencia Artificial que, al analizar historiales clínicos electrónicos, pueden predecir el riesgo de sufrir violencia de pareja con años de antelación. El trabajo, basado en datos de pacientes atendidos entre 2017 y 2022, fue publicado en 2026 en la revista npj Women’s Health. Los autores sostienen que estas herramientas podrían permitir intervenciones tempranas, aunque advierten sobre la necesidad de supervisión humana y garantías de privacidad.
El sistema combina varias fuentes de información: datos estructurados como diagnósticos y medicación, notas clínicas en texto libre y un modelo de fusión llamado Holistic AI in Medicine (HAIM). Los investigadores entrenaron tres variantes para comparar su capacidad de identificar señales asociadas a riesgo futuro de abuso. La motivación es aprovechar patrones silenciosos en la atención sanitaria que, aislados, no llaman la atención pero que, unidos, pueden indicar vulnerabilidad.
Los patrones detectados por la IA incluyen visitas repetidas a urgencias, antecedentes de trastornos mentales, dolor crónico y ciertas lesiones visibles en pruebas de imagen, según el estudio. Los autores partieron de una cohorte de pacientes que acudieron a un centro especializado en intervención contra la violencia. A partir de esos historiales, el algoritmo aprendió a diferenciar trayectorias clínicas con mayor probabilidad de acabar en una consulta por violencia de pareja.
Salado Golf & Beach Resort
Descubre la oportunidad de inversión más exclusiva del Caribe. Villas de lujo con retorno garantizado del 12% anual en Punta Cana.
Conoce más →Resultados y rendimiento del modelo
La versión que integra múltiples fuentes (HAIM) obtuvo los mejores resultados en las pruebas: alcanzó una precisión del 88% en uno de los conjuntos de análisis. Además, la herramienta pudo predecir el 80,5% de los casos con un horizonte medio de 3,7 años antes de que las víctimas solicitaran atención especializada. Esos datos sugieren que los registros clínicos contienen señales tempranas que, combinadas mediante aprendizaje automático, permiten identificar riesgo con antelación.
El trabajo, firmado por Jiayi Gu y colaboradores, incluye métricas y comparaciones entre modelos que usan solo datos estructurados, solo texto libre o la fusión multimodal. El estudio señala diferencias en la sensibilidad y la especificidad según la fuente de datos y el tipo de paciente, lo que apunta a la necesidad de calibrar los sistemas según el contexto clínico y demográfico.
Potencial clínico y riesgos éticos
Los autores plantean que estas alertas podrían integrarse en la historia clínica electrónica y avisar a los profesionales para iniciar conversaciones seguras y derivar recursos antes de que la situación se agrave. Ese uso preventivo permitiría priorizar seguimientos y ofrecer apoyo social y psicológico a personas en riesgo, acortando la reacción frente a señales que hoy pasan desapercibidas.
«Nuestra investigación ofrece una prueba de concepto en torno a que la IA puede ayudar a señalar posibles casos de abuso de forma temprana»
Al mismo tiempo, los investigadores y expertos en bioética insisten en límites claros: la automatización no debe sustituir la evaluación humana. Los modelos pueden incorporar sesgos presentes en los datos de origen, producir falsos positivos que expongan a personas a intervenciones innecesarias o, por el contrario, falsos negativos que dejen sin protección a víctimas reales.
La privacidad es otro desafío crucial. Integrar alarmas en sistemas clínicos requiere garantías concretas sobre quién accede a las alertas, cómo se almacenan y cómo se protege la información sensible. También es necesario evaluar el impacto en poblaciones vulnerables y en entornos sanitarios con recursos limitados, donde las derivaciones no siempre son factibles.
Los autores recomiendan ensayos prospectivos y evaluación en contextos diversos antes de desplegar la tecnología a gran escala. Además, abogan por marcos regulatorios y protocolos de gobernanza que incluyan auditorías, transparencia en los modelos y participación de profesionales sanitarios y organizaciones de defensa de las víctimas.
En el panorama más amplio, este estudio se suma a una creciente corriente que aplica aprendizaje multimodal en medicina para anticipar riesgos y personalizar la atención. Sus resultados son prometedores, pero recuerdan que la promesa tecnológica debe ir acompañada de controles clínicos y éticos estrictos para proteger a quienes se pretende ayudar.
Referencia: Jiayi Gu et al., «Leveraging multimodal machine learning for accurate risk identification of intimate partner violence», npj Women’s Health (2026). DOI: https://doi.org/10.1038/s44294-025-00126-3.
¿Buscas una Inversión Segura?
Salado Golf & Beach Resort te ofrece la oportunidad de invertir en el Caribe con rentabilidad garantizada del 12% anual
Solicitar Información Ahora