Ć»ąűŇůÔş

Event

Intelligence artificielle et responsabilité civile en matière médicale : Le cas des logiciels d’aide à la décision

Wednesday, May 2, 2018 12:30to14:00
Chancellor Day Hall NCDH 316, 3644 rue Peel, Montreal, QC, H3A 1W9, CA

The Ć»ąűŇůÔş Research Group on Health and Law welcomes , UniversitĂ© de Bretagne occidentale, France, for a lunchtime seminar about AI, decision support software and civil liability in medical matters. Lunch will be served, so kindly RSVP to rghl.law [at] mcgill.ca so we can plan the catering.

Abstract

[In French only] Lorsque l’on aborde les questions croisées d’intelligence artificielle et de responsabilité, on interroge notamment les processus automatiques et les mécanismes d’aide à la décision. La recherche opérationnelle est une discipline des méthodes scientifiques utilisables pour élaborer de meilleures décisions. Elle peut aider à trouver une solution où l’homme n’en trouvait pas, ou une solution à des problèmes nouveaux où l’homme n’a aucune expérience.

Elle peut encore aider Ă  juger de la qualitĂ© d’une solution, mais aussi Ă  confirmer/justifier des dĂ©cisions. La recherche opĂ©rationnelle intervient dans des domaines très diversĚý: GPS, finance, environnement et dĂ©veloppement durable, domaine spatial, politiques publiques,
gestion des ressources hospitalières, etc. Elle favorise une culture scientifique dans la prise de dĂ©cision.

Ainsi, la recherche opĂ©rationnelle, dont procèdent les systèmes d’aide au diagnostic mĂ©dical, est au cĹ“ur de problĂ©matiques juridiques fourniesĚý: qu’il s’agisse de confidentialitĂ© des donnĂ©es (Big data), d’imputation d’obligation, de prise de dĂ©cision, ou d’information des utilisateurs. Que se passe-t-il lorsque le système d’aide au diagnostic mĂ©dical devient systĂ©matiquement «ĚýlaĚý» dĂ©cision ? Qui est responsable des mauvais choix opĂ©rĂ©s par le système (le programmeur, l’exploitant, le propriĂ©taire, le mĂ©decin, le patient, etc.) ? Existe-t-il des règles dĂ©ontologiques ou Ă©thiques lorsque ces techniques ont un impact sur l’homme ? Quid de la responsabilitĂ© du mĂ©decin qui ne se conformerait pas dans son diagnostic Ă  celui dĂ©livrĂ© par le logiciel et qu’il se rĂ©vèle prĂ©judiciable au patientĚý? Le mĂ©decin doit-il ĂŞtre le seul responsable de l’utilisation du logiciel si elle entraĂ®ne un effet nĂ©gatif pour le patientĚý?

L’arbre de décision qui conduit au diagnostic médical et au choix d’une option thérapeutique se rapproche des mécanismes d’automatiques. Peut-on en déduire qu’il serait possible d’automatiser tout ou partie de la décision médicale ? La recherche opérationnelle ne se contente pas de suppléer l’activité humaine, elle la change.

The speaker

[In French only] Laurène MAZEAU-NININĚýest Docteur en Droit privĂ© et sciences criminelles de l’UniversitĂ© de Toulouse 1 depuis 2010. Elle est MaĂ®tre de confĂ©rences Ă  l’UniversitĂ© de Bretagne occidentale et rattachĂ©e au Laboratoire de recherches en Droit (Lab-Lex) depuis 2012. Elle est l’auteurĚýde plus d’une vingtaine de publications dans le domaine des rapports qu’entretiennent le Droit de la responsabilitĂ© et les Nouvelles TechnologiesĚý: intelligence artificielle, aide Ă  la dĂ©cision, recherche opĂ©rationnelle, robot, internet. Elle codirige une chronique dans la revueĚýCahiers Droit Sciences & Technologies depuisĚý2014. Elle est membre de la Commission Recherche deĚýl’UniversitĂ© de Bretagne occidentale depuis 2015.Ěý

A request for accreditation for 1.5 hours of Continuing Legal Education for jurists has been made.

Ěý

Back to top