11.7 C
Bruxelles
jeudi, mai 23, 2024
AccueilFrançaisACTUALITELa promesse – et les pièges – de l'IA médicale se dirigent...

La promesse – et les pièges – de l’IA médicale se dirigent vers nous

Publié le


Les chercheurs de Stanford établissent un cadre pour les ingénieurs alors qu’ils développent et construisent de nouveaux modèles d’intelligence artificielle médicale.

Chirurgie assistée par robot. Crédit image : فاطمه درستی via WikimédiaCC-BY-SA-4.0

Un patient est allongé sur la table d’opération alors que l’équipe chirurgicale se retrouve dans une impasse. Ils ne trouvent pas la rupture intestinale. Un chirurgien demande à voix haute : « Vérifiez si nous avons manqué une vue d’une section intestinale dans le flux visuel des 15 dernières minutes. »

Un assistante médicale en intelligence artificielle se met au travail en examinant les scans passés du patient et en mettant en évidence les flux vidéo de la procédure en temps réel. Il alerte l’équipe lorsqu’elle a sauté une étape de la procédure et lit la littérature médicale pertinente lorsque les chirurgiens rencontrent un phénomène anatomique rare.

Les médecins de toutes les disciplines, avec l’aide de l’intelligence artificielle, pourraient bientôt avoir la possibilité de consulter rapidement l’intégralité du dossier médical d’un patient avec en toile de fond toutes les données médicales et toutes les publications médicales publiées en ligne. Cette polyvalence potentielle dans le cabinet du médecin n’est désormais possible que grâce à la dernière génération de modèles d’IA.

« Nous voyons un changement de paradigme venir dans le domaine de l’IA médicale », a déclaré Jure Leskovec, professeur d’informatique à Stanford Engineering. « Auparavant, les modèles d’IA médicale ne pouvaient traiter que de très petites pièces étroites du puzzle des soins de santé. Nous entrons maintenant dans une nouvelle ère, où il s’agit bien plus de pièces plus grosses du puzzle dans ce domaine à enjeux élevés.

Les chercheurs de Stanford et leurs collaborateurs décrivent l’intelligence artificielle médicale généraliste, ou GMAI, comme une nouvelle classe de modèles d’IA médicale qui sont bien informés, flexibles et réutilisables dans de nombreuses applications médicales et types de données. Leur point de vue sur cette avancée est publié dans le numéro de Nature.

Leskovec et ses collaborateurs expliquent comment GMAI interprétera diverses combinaisons de données issues de l’imagerie, des dossiers de santé électroniques, des résultats de laboratoire, de la génomique et des textes médicaux bien au-delà des capacités de modèles simultanés comme ChatGPT. Ces modèles GMAI fourniront des explications orales, offriront des recommandations, dessineront des croquis et annoteront des images.

« Beaucoup d’inefficacités et d’erreurs qui se produisent en médecine aujourd’hui sont dues à l’hyper-spécialisation des médecins humains et au flux d’informations lent et inégal », a déclaré le co-premier auteur. Michel Moor, docteur en médecine et maintenant chercheur postdoctoral à Stanford Engineering. « L’impact potentiel des modèles d’IA médicale généraliste pourrait être profond car ils ne seraient pas seulement un expert dans leur propre domaine étroit, mais auraient plus de capacités dans toutes les spécialités. »

Médecine sans frontières

Sur plus de 500 modèles d’IA pour la médecine clinique approuvés par la FDA, la plupart n’effectuent qu’une ou deux tâches étroites, telles que la numérisation d’une radiographie pulmonaire à la recherche de signes de pneumonie. Mais les avancées récentes dans la recherche sur les modèles de fondation promettent de résoudre des tâches plus diverses et plus difficiles.

« La partie passionnante et révolutionnaire est que les modèles d’IA médicale généraliste pourront ingérer différents types d’informations médicales – par exemple, des études d’imagerie, des résultats de laboratoire et des données génomiques – pour ensuite effectuer des tâches que nous leur demandons de faire à la volée. », a déclaré Leskovec.

« Nous nous attendons à voir un changement significatif dans le fonctionnement de l’IA médicale », a poursuivi Moor. « Ensuite, nous aurons des appareils qui, plutôt que d’effectuer une seule tâche, peuvent effectuer peut-être un millier de tâches, dont certaines n’étaient même pas prévues lors du développement du modèle. »

Les auteurs, qui incluent également Oishi Banerjee et Pranav Rajpurkar de l’Université de Harvard, Harlan Krumholz de Yale, Zahra Shakeri Hossein Abad de l’Université de Toronto et Eric Topol du Scripps Research Translational Institute, expliquent comment GMAI pourrait aborder une variété d’applications de chatbots avec les patients, à la prise de notes, jusqu’à l’aide à la décision au chevet des médecins.

Dans le service de radiologie, proposent les auteurs, des modèles pourraient rédiger des rapports de radiologie qui signalent visuellement les anomalies, tout en tenant compte de l’histoire du patient. Les radiologues pouvaient améliorer leur compréhension des cas en discutant avec les modèles GMAI : « Pouvez-vous mettre en évidence de nouvelles lésions de sclérose en plaques qui n’étaient pas présentes dans l’image précédente ? »

Dans leur article, les scientifiques décrivent les exigences et les capacités supplémentaires nécessaires pour développer GMAI en une technologie fiable. Ils soulignent que le modèle doit consommer toutes les données médicales personnelles, ainsi que les connaissances médicales historiques, et s’y référer uniquement lors de l’interaction avec des utilisateurs autorisés. Il doit ensuite être capable de tenir une conversation avec un patient, un peu comme une infirmière de triage ou un médecin pour recueillir de nouvelles preuves et données ou suggérer divers plans de traitement.

Préoccupations pour le développement futur

Dans leur article de recherche, les co-auteurs abordent les implications d’un modèle capable de 1 000 missions médicales avec le potentiel d’en apprendre encore plus. « Nous pensons que le plus gros problème des modèles généralistes en médecine est la vérification. Comment savons-nous que le modèle est correct – et pas seulement inventer des choses ? » dit Leskovec.

Ils soulignent les failles déjà détectées dans le modèle de langage ChatGPT. De même, une image générée par l’IA du pape portant un manteau gonflé de créateur est amusante. « Mais s’il y a un scénario à fort enjeu et que le système d’IA décide de la vie ou de la mort, la vérification devient vraiment importante », a déclaré Moor.

Les auteurs poursuivent que la protection de la vie privée est également une nécessité. « C’est un énorme problème car avec des modèles comme ChatGPT et GPT-4, la communauté en ligne a déjà identifié des moyens de jailbreaker les protections actuelles en place », a déclaré Moor.

« Déchiffrer entre les données et les préjugés sociaux pose également un grand défi pour GMAI », a ajouté Leskovec. Les modèles GMAI doivent pouvoir se concentrer sur les signaux qui sont la cause d’une maladie donnée et ignorer les signaux parasites qui ne tendent qu’à être corrélés avec le résultat.

En supposant que la taille du modèle ne fera qu’augmenter, Moor souligne les premières recherches qui montrent que les modèles plus grands ont tendance à présenter plus de préjugés sociaux que les modèles plus petits. « Il est de la responsabilité des propriétaires et des développeurs de ces modèles et fournisseurs, en particulier s’ils les déploient dans les hôpitaux, de s’assurer que ces biais sont identifiés et traités dès le début », a déclaré Moor.

« La technologie actuelle est très prometteuse, mais il manque encore beaucoup », a reconnu Leskovec. « La question est : pouvons-nous identifier les éléments manquants actuels, comme la vérification des faits, la compréhension des préjugés et l’explicabilité/justification des réponses afin que nous donnions un programme à la communauté sur la manière de progresser pour réaliser pleinement le potentiel profond de GMAI ? ”

Source: Université de Stanford

Source link

Publicité
spot_img

Autres articles

Mesurer les temps d’attente dans les soins de santé : pour qui, pourquoi, comment ?

Contrairement à ce que l’on observe dans d’autres pays, les initiatives de mesure du...

Une riche histoire, pour un avenir prometteur : 175 ans du Conseil Supérieur de la Santé

08h30   Réception autour d'un café 09h15   Accueil et introductionDr. Yves Van Laethem, CHU Saint-Pierre, ULBPrésident actuel...

Le visage humain de l’anticultisme en France : récits personnels et combats

Dans un monde qui comprend souvent mal et ostracise les croyances non conventionnelles, le...

Nouveau projet de recherche sur la mobilité humaine sur les données intelligentes

AVIS DE NON-RESPONSABILITÉ : Les informations et opinions reproduites dans les articles sont celles...

autres articles

Mesurer les temps d’attente dans les soins de santé : pour qui, pourquoi, comment ?

Contrairement à ce que l’on observe dans d’autres pays, les initiatives de mesure du...

Une riche histoire, pour un avenir prometteur : 175 ans du Conseil Supérieur de la Santé

08h30   Réception autour d'un café 09h15   Accueil et introductionDr. Yves Van Laethem, CHU Saint-Pierre, ULBPrésident actuel...

Le visage humain de l’anticultisme en France : récits personnels et combats

Dans un monde qui comprend souvent mal et ostracise les croyances non conventionnelles, le...