1. Aide
    1. Espace Client
    2. Connexion
  1. Aide
    1. Espace Client
    2. Connexion
Espace Membre Boursorama

Erreur d'authentification

Vous êtes authentifié. Nous chargeons votre espace membre.

Mot de passe oublié ?

Nouveau sur Boursorama ? Devenez membre

Identifiant/Mot de passe oublié
Si vous êtes Membre de la Communauté Boursorama, veuillez indiquer l'adresse email que vous avez fournie lors de votre enregistrement pour recevoir votre identifiant et/ou ré-initialiser votre mot de passe :

Nouveau sur Boursorama ? Devenez membre

Fermer

Assurance santé : l'intelligence artificielle pourrait faciliter les fraudes selon une étude
Boursorama avec Newsgene09/05/2019 à 09:15

Assurance santé : l'intelligence artificielle pourrait faciliter les fraudes selon une étude

L'intelligence artificielle appliquée au secteur de la santé pourrait faciliter les fraudes à l'assurance, selon une étude américaine. Des personnes malintentionnées pourraient falsifier des images médicales pour tromper le système, poser de faux diagnostics, et ainsi obtenir des remboursements injustifiés.

L'intelligence artificielle se développe dans de nombreux secteurs, notamment la médecine. Certains logiciels perfectionnés peuvent maintenant analyser des clichés d'imagerie médicale et poser un diagnostic. Mais des chercheurs de Harvard et du MIT estiment que l'IA pourrait aussi faciliter les fraudes à l'assurance en générant de fausses informations médicales, selon une étude publiée dans la revue Science et relayée par Les Echos.

Falsifier des images médicales

Les scientifiques mettent en garde contre une technologie très en vogue actuellement reposant sur les réseaux de neurones antagonistes, ou GAN (« generative adversarial networks »). C'est cette technologie qui permet de produire de fausses images vidéo ou de faux documents sonores avec un réalisme déconcertant. Elle permet par exemple de créer des deepfakes, ces vidéos truquées ultra-réalistes.

Ainsi, il serait possible de falsifier des images médicales pour « simuler » une maladie. Il suffit parfois de quelques pixels pour qu'un grain de beauté soit perçu comme un mélanome. « Malgré le fait que la perturbation est si fine qu'elle est imperceptible pour un humain, elle trompe le modèle qui catégorise le grain de beauté comme malin avec une confiance de 100% », expliquent les chercheurs.

Ce type de fraudes pourrait permettre de tromper l'assurance maladie. En effet, aux Etats-Unis, « la description des symptômes peut décider du remboursement ou non », explique Les Echos. Les chercheurs recommandent donc de mettre en place un « organe de certification des données médicales susceptibles d'être altérées ».

3 commentaires

Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement

  • mxnagg
    07 mai20:00

    Oui c'est evident une IA doit bosser en direct sur le RAW en sortie de capteur et PAS sur datas de base de donnees. les Datas de masse sont pour l'education point barre. pour de l'actif il faut traiter la source en direct { ou pas du tout }

    Signaler un abus

Voir plus de commentaires

Signaler le commentaire

Fermer

Annonces immobilières

Les Risques en Bourse

Fermer