L'IA peut-elle vraiment prédire le risque de violences conjugales ? Une étude répond

il y a 2 hour 1

En 2025, 473 000 victimes de violences physiques ont été enregistrées par les services de police et de gendarmerie nationale en France. Parmi ces victimes, un peu plus de la moitié ont subi des violences dans le cadre familial (conjugal ou non). Dans le monde, ce chiffre s’élève à 840 millions de personnes en 2025. Ils sont la preuve qu’il existe un réel besoin de prévention et de détection plus efficace des violences conjugales.

Pour des chercheurs américains du Centre de recherche et d’innovation en imagerie traumatologique du Brigham and Women’s Hospital à Boston, « les professionnels de santé disposent d’un atout majeur pour identifier les signes précoces de violence conjugale, car les victimes se présentent souvent à eux avant de solliciter l’aide des forces de l’ordre ou des services sociaux » (source 1). Toutefois, les outils de dépistage actuels mis en place dans les lieux de santé ne permettent de détecter qu’une faction des cas, car « ils reposent uniquement sur l’autodéclaration des violences ».

Utiliser l’IA pour aider à déceler les signes de violences conjugales

Grâce à certains indices visibles sur les radios, comme des lésions au visage, au cou et aux membres supérieurs, ou encore en cas de fréquence élevée d’examens radiologiques, un professionnel de santé peut remarquer des anomalies médicales, signes potentiels de violence conjugal.

Un problème néanmoins : les soignants sont souvent surchargés ce qui peut limiter leur capacité à exploiter les informations qu’ils détiennent. « D’où le besoin d’un outil d’aide à la décision automatisé capable d’utiliser les résultats radiologiques et d’autres informations cliniques pour améliorer l’identification des violences conjugales », écrivent les chercheurs de Boston.

À lire aussi

Trois modèles d’IA pour trois scénarios différents

Pour répondre à ce besoin, ces derniers ont développé trois modèles d’IA.

  • Le premier basé sur les comptes rendus des examens radiologiques,
  • le second basé sur des données structurées des dossiers médicaux électroniques (DME),
  • et le dernier basé sur un mix des deux pour les scénarios où toutes les données sont disponibles.

Les trois modèles ont été entrainés sur « un ensemble de données de patientes inscrites dans un centre d’intervention et de prévention des violences conjugales d’un centre hospitalier universitaire américain, selon l’âge et les caractéristiques démographiques ».

Selon les chercheurs, le modèle qui fusionne les comptes rendus radiologiques et l’historique médical des patients est le plus à même d’avoir un résultat cohérent. « L’approche de modélisation multimodale améliore la stabilité des performances du modèle ».

Les potentiels risques liées à l’utilisation d’un outil IA

En l’absence d’un regard humain, l’outil IA peut être influencé par des biais de sélection, de documentation, de démographie. « Il y a même un risque que l’IA apprenne et reproduise des schémas discriminatoires basés sur l’origine ethnique ou l’âge ».

Ces biais peuvent entraîner des erreurs de prédiction, or « si le modèle ne détecte pas une potentielle victime, elle risque de ne pas recevoir l’aide nécessaire, la laissant vulnérable à la poursuite des abus. Inversement, étiqueter à tort une personne comme victime peut entraîner des interventions inutiles, une détresse émotionnelle et potentiellement nuire à la relation de confiance entre le patient et le clinicien ».

Un tel outil peut en effet être perçu comme intrusif pour les patients. Pour cette raison, « il est impératif que les conversations déclenchées par une alerte de l’IA soient menées de manière sensible et centrées sur le patient, sans compromettre son autonomie ou lui imposer un diagnostic », ont conclu les auteurs.

Lire l’article en entier