Les prestataires de soins de santé vont rejoindre le plan américain de gestion des risques liés à l'IA - Maison Blanche
information fournie par Reuters 14/12/2023 à 15:00

par Andrea Shalal

Vingt-huit sociétés de soins de santé, dont CVS Health CVS.N , ont signé les engagements volontaires du président américain Joe Biden visant à garantir le développement sûr de l'intelligence artificielle (AI), a déclaré jeudi un responsable de la Maison Blanche.

Les engagements des prestataires de soins de santé et des organismes payeurs font suite à ceux de 15 grandes entreprises d'IA, dont Google, OpenAI et Microsoft MSFT.O , partenaire d'OpenAI, visant à développer des modèles d'IA de manière responsable.

Le gouvernement de M. Biden s'efforce de définir des paramètres pour l'IA, qui gagne rapidement en capacité et en popularité, alors que la réglementation reste limitée.

"L'administration actionne tous les leviers dont elle dispose pour faire progresser l'IA responsable dans les domaines liés à la santé", a déclaré le responsable de la Maison Blanche, ajoutant que l'IA avait un énorme potentiel pour bénéficier aux patients, aux médecins et au personnel hospitalier, à condition d'être gérée de manière responsable.

Le 30 octobre, M. Biden a publié un décret exigeant que les développeurs de systèmes d'IA qui présentent des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis partagent les résultats des tests de sécurité avec le gouvernement avant de les rendre publics.

Les fournisseurs qui ont signé les engagements comprennent Oscar OSCR.N , Curai, Devoted Health, Duke Health, Emory Healthcare et WellSpan Health, a déclaré le responsable de la Maison Blanche dans un communiqué.

"Nous devons rester vigilants pour concrétiser la promesse de l'IA d'améliorer les résultats en matière de santé", a déclaré le fonctionnaire. "En l'absence de tests appropriés, de mesures d'atténuation des risques et de surveillance humaine, les outils d'IA utilisés pour prendre des décisions cliniques peuvent commettre des erreurs qui sont au mieux coûteuses et au pire dangereuses

En l'absence d'une surveillance appropriée, les diagnostics posés par l'IA peuvent être biaisés en fonction du sexe ou de la race, en particulier lorsque l'IA n'est pas entraînée sur des données représentant la population qu'elle est censée traiter, a ajouté le fonctionnaire.

Les principes qui sous-tendent le plan de l'administration prévoient que les entreprises informent les utilisateurs chaque fois qu'ils reçoivent un contenu généré en grande partie par l'IA et non revu ou corrigé par des personnes, et qu'elles surveillent et traitent les préjudices que les applications pourraient causer.

Les entreprises qui signent les engagements s'engagent à développer des utilisations de l'IA de manière responsable, y compris des solutions qui font progresser l'équité en matière de santé, élargissent l'accès aux soins, rendent les soins abordables, coordonnent les soins pour améliorer les résultats, réduisent l'épuisement des cliniciens et améliorent d'une autre manière l'expérience des patients.