intelligence artificielle

Santé : quels sont les enjeux de l’intelligence artificielle ?

Mis à jour le
min de lecture

C’est dans les années 1950 que l’intelligence artificielle a fait son apparition. Ce qui alors ressemblait à de la science-fiction avait un but noble : automatiser des tâches autrefois réalisées par des humains, en les laissant aux mains de machines… intelligentes. Désormais, l’intelligence artificielle est au cœur de nos vies et notre santé en dépend de plus en plus. Quelles problématiques rencontre-t-on ? Et quels sont les risques pour la société dans son ensemble ?

Santé et innovation : les balbutiements d’une révolution

De nos jours, l’innovation amène avec elle son lot de révolutions et de questionnements. Alors que la domotique et l’intelligence artificielle (IA) se démocratisent, de nouveaux enjeux se créent, ainsi que des problématiques jusqu’alors inconcevables. L’un des domaines les plus sensibles en ce sens est évidemment la médecine. Incontournables, la connectivité et la technologie peuvent être autant bénéfiques que néfastes en fonction de l’utilisation que l’on en a. Au cœur d’un marché mouvant dont les métamorphoses sont parfois trop rapides pour établir un cadre légal réellement adapté, tout reste à penser et à faire, sans compter les effets de la mondialisation. Rien qu’en France, on prévoit 1,5 milliard d’euros investis dans l’intelligence artificielle d’ici 2022. Un marché loin d’être négligeable, donc.

Avec la domotique se démocratise l’utilisation quotidienne des intelligences artificielles. Elles sont partout : dans nos ordinateurs, dans nos villes et désormais dans nos maisons. Si l’on peut déjà constater des effets positifs de celle-ci – comme l’automation de tâches pénibles ou l’amélioration du bien-être –, les potentielles conséquences négatives ne sont jamais bien loin – comme l’utilisation des données personnelles ou la rupture sociale que les objets connectés peuvent amener. Le futur de la médecine sera connecté, mais à quel prix ?

Depuis les années 2010, l’intelligence artificielle est souvent présentée comme la solution à tous nos problèmes. Pourtant l’usage incontrôlé de ces technologies – de l’apprentissage automatique aux réseaux neuronaux – est évidemment risqué. Le déploiement de ces outils n’en est encore qu’à ses débuts, et il semble ainsi audacieux de faire preuve d’une confiance totale en ceux-ci. Comme l’expliquait brillamment Katherine Maher, la directrice générale de la Wikimedia Foundation, dans une tribune publiée sur le New York Times, l’automation des interactions sociales sans contrôle peut mettre la société en pilote automatique. Pour elle, sans les humains, les ravages de l’IA sur nos sociétés ne font aucun doute. Dans la santé, cela revient à devoir penser l’IA comme un outil d’accompagnement du médecin et non comme son éventuel remplacement.

Nouvelles technologies : un monde ferméAujourd’hui, toutes ces technologies sont essentiellement entre les mains d’acteurs privés, dont la transparence laisse largement à désirer. Cette opacité sur leurs pratiques en interne est aussi l’objet de nombreuses critiques, et ne fait que nourrir la méfiance des personnes quant à la domotique ou à l’intelligence artificielle.

Intelligence artificielle : de la subjectivité des algorithmes

Notre société change et se connecte, mais comment cela impacte-t-il notre santé ?

L’intelligence artificielle a des biais. Ainsi, l’on a pu voir l’apparition d’algorithmes racistes et/ou sexistes. C’est notamment l’un des sujets de prédilection de Hannah Fry, mathématicienne de l’University College de Londres, qui explique que si les algorithmes ne sont ni bons ni mauvais à la base, il est indispensable de savoir qui les programme. Dans son livre Hello World: How to be Human in the Age of the Machine (Penguin Books, 2019) elle rappelle comment, de nos jours, les gens deviennent désormais des produits comme les autres, et les moyens de réaliser des bénéfices sur le dos de chaque individu se diversifient. La scientifique explique ainsi qu’il est possible pour des entreprises désireuses de s’enrichir de présenter leur algorithme comme elles l’entendent, sans qu’il soit possible de vérifier ce qu’elles avancent à son sujet. Et aujourd’hui, il n’est pas vraiment possible d’empêcher cela.

Dans le cadre de la santé, il est important de rappeler que les données médicales ne sont pas des données privées comme les autres. En 2016, un scandale outre-Manche faisait la une de la presse. L’hebdomadaire New Scientist avait en effet révélé que les dossiers médicaux des patients de trois hôpitaux londoniens gérés par le National Health Service (NHS) – soit 1,6 million de personnes – avaient été confiés à une entreprise, DeepMind, possédée par Google. Sa spécialité ? L’intelligence artificielle, évidemment. La nature de l’accord entre les partis n’avait pas été totalement révélée au grand public au moment de son annonce, et c’est donc avec colère qu’ont été accueillies les révélations : tous les dossiers des patients avaient été transmis à l’entreprise, toutes données confondues, même les plus sensibles.

Bien sûr, l’on applaudit généralement les performances de l’IA, par exemple dans le domaine du diagnostic médical. On pourrait notamment évoquer l’IA permettant de diagnostiquer des tumeurs grâce aux photographies de fonds d’œil, dont la commercialisation a été autorisée en 2018 pour la première fois par l’agence de santé américaine, la Food and Drug Administration – ou FDA.

Le succès de cette IA repose en grande partie sur la collecte de données. Plus la technologie peut analyser d’images, plus le système de diagnostic est performant.

Et l’on en revient donc au problème initial : l’exploitation des données privées et médicales collectées. En Europe, la seule protection des individus face à cela est le Règlement général sur la protection des données – ou RGPD. Mais pour beaucoup, celui-ci n’est pas suffisant, puisque les géants du Web sont majoritairement installés aux États-Unis, un pays où de telles réglementations sont tout simplement inexistantes.

Domotique et IA : un manque de communication évidentAujourd’hui, l’un des grands enjeux de la domotique et de l’intelligence artificielle repose dans la pédagogie déployée par les acteurs du marché afin de pallier les méconnaissances du grand public. Le premier baromètre Boulanger/IFOP de 2018 montrait notamment que si les trois quarts des Français voient en la domotique une révolution (74 %) son fonctionnement reste pour beaucoup un mystère. 64 % des sondés avouaient par exemple n’utiliser qu’une partie des fonctionnalités d’un objet connecté parce qu’ils ne savent pas vraiment s’en servir, et 32 % insistaient sur la complexité de la mise en service et de l’installation des objets connectés.

Intelligence artificielle et médecine : tromper l’IA pour des gains financiers

Ainsi, l’on voit des appels à la vigilance se multiplier, visant à sensibiliser le grand public, mais aussi à alerter les acteurs du marché de l’intelligence artificielle concernant les implications de son utilisation. En mars 2019, des chercheurs nous mettaient ainsi en garde face à la démocratisation rapide de l’IA dans le cadre de la médecine. Les craintes sont nombreuses, mais la plus grande est l’utilisation et la manipulation des données dans une logique marchande, se faisant aux dépens des patients et de la protection de leur vie privée... et de leur santé.

L’étude, publiée dans la revue Science, mettait en avant les conséquences dévastatrices que de cette généralisation, malgré les bénéfices évidents qu’elle apporte avec elle, comme la facilitation de diagnostic. Pour les chercheurs de l’étude, différents acteurs de la santé pourraient ainsi profiter des manipulations de l’IA, à l’instar des assureurs ou même des hôpitaux. Comment ? Par la facturation d’actes médicaux inutiles par exemple. L’IA n’est pas infaillible, et celle utilisée dans la santé fonctionne majoritairement grâce aux réseaux neuronaux. Ainsi, de petits ajustements pourraient suffire à la tromper, désignés dans l’étude comme des « adversarial attacks ».

Concrètement, cela pourrait revenir à changer quelques pixels sur scanner pulmonaire, auquel cas l’IA identifierait une maladie qui n’est pas vraiment là. Comme l’explique l’un des auteurs de l’étude, Samuel Finlayson, chercheur à la Harvard Medical School et au MIT, « l’ambiguïté inhérente à l’information médicale, ajoutée à des incitations financières souvent concurrentielles, permet aux décisions impliquant des enjeux élevés de se fonder sur des éléments d’information très subtils ». Et ces attaques pourraient être favorisées par la reconnaissance faciale, les véhicules sans conducteurs ou même les scanners de reconnaissance de l’iris.

Bien sûr, si la vigilance est de mise, tout n’est pas noir. En France, quelques démarches sont notables, comme la publication fin 2018 d’un livre blanc constitué de 33 propositions par le Conseil national de l’Ordre des médecins – ou CNOPM – destinées à accompagner le développement du numérique dans la santé en faveur des patients et des soignants à l’ère des data, des algorithmes et de l’intelligence artificielle. Dans ce document, les patients sont mis au centre du processus de réflexion, tout comme les relations humaines, ce qui semble être indispensable pour éviter le pire.

Protection des données santé : peut-on les vendre librement ?En France, les données santé des personnes sont entre les mains de l’Assurance maladie, puisqu’enregistrées via la Carte vitale du patient. Pour autant, elle n’est pas la seule à récolter nos données. Les géants du Web sont également présents, tout comme différentes entreprises proposant par exemple des objets connectés destinés au suivi santé. Aujourd’hui, les données santé sont soumises au droit commun, et donc protégées même si elles ne nous appartiennent pas vraiment – ce qui exclut la possibilité de les vendre par le particulier. Quant aux structures qui les collectent, c’est un autre problème. Pour l’instant, elles peuvent les vendre sous couvert d’anonymat et de l’accord de la personne.

Partager cet article !