Accéder au contenu principal

Apprendre à désapprendre : le nouveau défi de l’intelligence artificielle

Par  Martin Van Waerebeke , Inria et Marco Lorenzi , Inria Vos données vous appartiennent. Du moins, c’est ce que prévoit la loi européenne sur la régulation des données (RGPD). D’une part, elle limite la collecte de vos données par les entreprises privées à ce que vous avez consenti. D’une autre, elle vous permet de demander l’effacement total des informations vous concernant des serveurs de cet acteur : il s’agit du droit à l’oubli. C’est ce second volet qui nous intéresse ici, et son applicabilité dans le monde moderne. Si supprimer quelques lignes d’une base de données n’a rien de compliqué, la tâche devient nettement plus périlleuse quand l’ intelligence artificielle (IA) entre en jeu. En effet, des modèles d’IA de plus en plus complexes, fondés sur des réseaux de neurones artificiels, sont déjà déployés par de nombreux acteurs privés. Ces modèles ont besoin d’apprendre à partir d’un maximum de données pour être performants. Ainsi, la présence d’informations vous concernant da

IA éthique : 7 leviers et actions à adopter

IA

Par Camille RAMIREZ, Responsable Marketing Digital chez Synapses Développement

L’intelligence artificielle (IA) a fait d’énormes progrès ces dernières années, transformant la façon dont nous interagissons avec la technologie et le monde qui nous entoure. Cependant, avec ces avancées viennent des préoccupations croissantes quant à l’éthique de l’IA. Comment pouvons-nous garantir que l’IA soit développée et utilisée de manière éthique ? Voici les 7 leviers et actions qui peuvent être mis en place pour assurer une IA éthique et responsable.

1. La conception éthique dès le début

Le premier levier essentiel pour garantir une IA éthique réside dans sa conception même. En effet, les développeurs doivent intégrer des considérations éthiques dès les premières phases du développement. Cela signifie :

  • Evaluer les implications morales de l’IA,
  • Identifier les biais potentiels
  • Réfléchir aux conséquences sociales de son utilisation.

Au final, il est primordial d’adopter une approche inclusive et diversifiée lors de la constitution des équipes de développement, afin de minimiser les biais inconscients.

2. La transparence et l’explicabilité

L’opacité de l’IA peut être source de méfiance et de problèmes éthiques. Il est important de rendre les décisions prises par les systèmes d’IA compréhensibles par les humains (L’IA n’est pas l’ennemi de l’homme mais bien son compagnon au quotidien !). Cela peut être réalisé grâce à des modèles expliquables, des visualisations claires du processus décisionnel de l’IA et la mise à disposition de documentation détaillée. La transparence permet aux utilisateurs de comprendre comment les décisions sont prises et de déceler d’éventuels biais.

3. La collecte et l’utilisation responsable des données

L’IA repose largement sur les données pour apprendre et généraliser à partir de celles-ci. Il est essentiel de collecter des données de manière éthique, en respectant la vie privée et en évitant les données biaisées ou discriminatoires. De plus, il faut veiller à obtenir le consentement éclairé des individus dont les données sont utilisées. L’utilisation de données provenant de sources variées et représentatives contribue à réduire les biais indésirables.

4. L’apprentissage continu et l’adaptation

Les systèmes d’IA doivent être conçus pour apprendre et s’adapter en continu. Cependant, cela doit être fait de manière responsable. La surveillance constante de l’IA et l’identification rapide des dérives potentielles sont essentielles pour éviter que les systèmes ne génèrent des résultats inappropriés ou biaisés au fil du temps. L’ajout de mécanismes d’apprentissage éthique dans les algorithmes peut aider à corriger ces dérives.

5. L’engagement avec les parties prenantes

Les parties prenantes, notamment les experts en éthique, les utilisateurs, les chercheurs et les décideurs politiques, doivent être impliquées dans le développement, l’évaluation et la régulation de l’IA. Effectivement, leur diversité d’opinions et d’expertises contribue à identifier les problèmes éthiques potentiels et à formuler des solutions adéquates.

6. La réglementation et les normes éthiques

De nos jours, les gouvernements et les organismes de réglementation jouent un rôle crucial dans la promotion d’une IA éthique. L’établissement de normes éthiques et de lignes directrices contraignantes peut aider à encadrer le développement et l’utilisation de l’IA. Cependant, ces réglementations doivent être flexibles pour s’adapter à l’évolution rapide de la technologie.

7. La responsabilité et la reddition de comptes

Les développeurs et les organisations qui déploient des systèmes d’IA doivent être tenus responsables de leurs actions. Cela signifie qu’ils doivent être prêts à assumer les conséquences de l’utilisation de l’IA, qu’elles soient positives ou négatives. La reddition de comptes peut encourager à adopter des pratiques éthiques et à éviter les comportements risqués.

En conclusion, assurer une IA éthique nécessite une approche multidimensionnelle. Cela implique une réflexion profonde dès la phase de conception, la transparence dans les décisions prises, une utilisation responsable des données, un engagement avec les parties prenantes et la mise en place de réglementations adaptéesEn combinant ces leviers et actions, nous pouvons façonner un avenir où l’IA améliore notre société tout en respectant nos valeurs éthiques fondamentales.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

L’Europe veut s’armer contre la cybercriminalité avec le Cyber Resilience Act

  Par  Patricia Mouy , Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et Sébastien Bardin , Commissariat à l’énergie atomique et aux énergies alternatives (CEA) Assez des cyberattaques  ? La loi sur la cyberrésilience, ou Cyber Resilience Act a été adoptée par les députés européens le 12 mars dernier et arrive en application dans les mois à venir, avec l’ambition de changer la donne en termes de sécurité des systèmes numériques en Europe. Alors que les systèmes numériques sont littéralement au cœur des sociétés modernes, leurs potentielles faiblesses face aux attaques informatiques deviennent des sources de risques majeurs – vol de données privées, espionnage entre états ou encore guerre économique. Citons par exemple le cas de Mirai , attaque à grande échelle en 2016, utilisant le détournement de dispositifs grand public comme des caméras connectées pour surcharger des domaines Internet d’entreprise, attaque de type DDoS (déni de service distribué)

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips. En