Accéder au contenu principal

Apprendre à désapprendre : le nouveau défi de l’intelligence artificielle

Par  Martin Van Waerebeke , Inria et Marco Lorenzi , Inria Vos données vous appartiennent. Du moins, c’est ce que prévoit la loi européenne sur la régulation des données (RGPD). D’une part, elle limite la collecte de vos données par les entreprises privées à ce que vous avez consenti. D’une autre, elle vous permet de demander l’effacement total des informations vous concernant des serveurs de cet acteur : il s’agit du droit à l’oubli. C’est ce second volet qui nous intéresse ici, et son applicabilité dans le monde moderne. Si supprimer quelques lignes d’une base de données n’a rien de compliqué, la tâche devient nettement plus périlleuse quand l’ intelligence artificielle (IA) entre en jeu. En effet, des modèles d’IA de plus en plus complexes, fondés sur des réseaux de neurones artificiels, sont déjà déployés par de nombreux acteurs privés. Ces modèles ont besoin d’apprendre à partir d’un maximum de données pour être performants. Ainsi, la présence d’informations vous concernant da

Alan Turing : de l’ordinateur à l’IA, parcours d’un génie des maths

 

Pionnier de l’informatique, il a entrevu l’intelligence informatique et aidé les Alliés à remporter la Seconde Guerre mondiale. Alan Turing connut pourtant une fin tragique. Yiming Ma/Unsplash, CC BY
Par Delphine Billouard-Fuentes, EM Lyon Business School
Portrait photographique en noir et blanc d’Alan Turing
Alan Turing à l’Université de Princeton en 1936.

Connu du grand public grâce au film Imitation Game (2014), Alan Turing est un mathématicien anglais né en 1912. Ce film retrace une période marquante de sa vie, au cours de laquelle il a joué un rôle primordial dans le décryptage des messages de l’armée allemande pendant la Seconde Guerre mondiale. Mais la richesse de ses recherches va cependant bien au-delà de son apport à la victoire alliée : pionnier de l’informatique et de l’intelligence artificielle, il reste une figure marquante encore de nos jours.

Un attrait pour les sciences dès l’enfance

Fils d’un fonctionnaire détaché en Inde, Alan Turing débute sa scolarité dans un pensionnat en Angleterre. Peu attentif dans les matières littéraires, il est considéré comme un élève peu brillant, manquant de concentration. Il développe cependant une passion pour les sciences, lisant des ouvrages de sciences naturelles. Très jeune, il se passionne pour la régularité des formes dans la nature et pense qu’il est possible de déterminer les lois qui régissent leur construction.

À la sortie du pensionnat, son niveau en mathématiques lui permet de rejoindre le King’s College de Cambridge, un établissement très sélectif, pour préparer une licence de mathématiques. Après avoir publié plusieurs articles et obtenu une bourse de recherche, il décide de concentrer ses travaux sur le problème de la décision, problème formulé par le mathématicien David Hilbert en 1900. La question est ici de se demander s’il existe un procédé mécanique qui permette de déterminer après un certain nombre d’étapes si un énoncé mathématique est vrai ou faux.

La machine de Turing, ancêtre de l’ordinateur moderne

Cette avancée en mathématiques amène Alan Turing à s’interroger sur la résolution des problèmes calculables. Il établit que les problèmes calculables peuvent être décomposés en différentes étapes et imagine que chacune de ces étapes pourrait être réalisée par une machine. Il élabore une machine à calculer abstraite, appelée machine de Turing.

Celle-ci est composée d’une longue bande de papier divisée en cellules. Chaque cellule peut contenir un 1, un 0 ou un espace vide. Une tête de lecture/écriture peut lire le contenu de chaque cellule et éventuellement le modifier. Après chaque lecture, la tête peut soit se déplacer à gauche ou à droite, soit modifier la valeur inscrite dans la cellule. Une table de transition indique à la machine quelle action réaliser en fonction de la valeur contenue dans la cellule.

Reproduction d’une machine de Turing. Un long ruban, enroulé de chaque côté, passe sous la tête de lecture/écriture
S’il s’agit à l’origine d’une expérience de pensée, la machine de Turing a parfois été reproduite physiquement. On voit ici le ruban qui défile sous la tête de lecture/écriture, au centre de la machine. Rocky Acosta/Wikimedia, CC BY

La réflexion d’Alan Turing l’a même amené à envisager la création d’une machine de Turing universelle, qui pourrait reproduire le fonctionnement de toutes les machines de Turing. Ce concept pose les bases de ce qui sera l’informatique moderne, avec un ordinateur unique permettant d’utiliser différents programmes en fonction de l’objectif visé. Après la parution d’un article sur cette invention, Alan Turing part aux États-Unis pour préparer un doctorat à l’Université de Princeton. Il reviendra cependant en Angleterre au bout de 2 ans en 1938, alors que la Seconde Guerre mondiale s’annonce.

De la « bombe Turing » aux premiers ordinateurs

Dès son retour en Angleterre, Alan Turing rejoint la Government Code and Cypher School pour se former à la cryptographie. Il rejoint ainsi le quartier général des renseignements anglais à Bletchley Park en septembre 1939 pour contribuer à décoder les messages échangés par l’armée allemande.

Au début de la guerre, les Allemands remportèrent de nombreuses victoires, utilisant une machine à coder appelée Enigma pour transmettre les ordres aux troupes sur le terrain. Cette machine permettait de coder les messages à l’aide de clés de chiffrement changées tous les jours. Alan Turing contribue à décrypter ce code en créant les « bombes Turing », des machines permettant de décrypter les messages envoyés en testant toutes les clés de chiffrement possibles en un temps très court. Ainsi, en 1942, entre 40 000 et 80 000 messages étaient décryptés chaque mois ! Certains historiens estiment que des dizaines de milliers de vies ont été sauvées grâce à ces machines.

Après la guerre, Alan Turing rejoint le Laboratoire national de physique près de Londres où il dessine les plans d’un prototype d’Automatic Computing Machine (ACE), le premier prototype d’ordinateur conçu en Angleterre, qui sera mis en service dès 1950 dans une version simplifiée. Mais un laboratoire de l’Université de Manchester réussit à finaliser le premier ordinateur dès 1948, utilisant les principes de la machine de Turing universelle pour le développer. Alan Turing rejoint alors l’université de Manchester, où il endosse le rôle de directeur adjoint du laboratoire d’informatique.

La science cognitive, discipline fondatrice de l’intelligence artificielle

Toujours passionné par les sciences naturelles, Alan Turing envisage progressivement la possibilité de construire un équivalent au cerveau humain. Il imagine ce dernier comme une machine, qui serait non organisée à la naissance et qui le deviendrait grâce à l’entraînement. Il fait alors l’hypothèse que les machines pourraient à leur tour développer une forme d’intelligence, définissant les bases de l’intelligence artificielle. Cette idée novatrice pose les bases de la science cognitive, domaine pluridisciplinaire dont l’objectif est de décrire et expliquer les processus de la connaissance.

Pour démonter cette intelligence des machines, il élabore un test, appelé test de Turing ou « jeu de l’imitation ». Dans ce test, un évaluateur humain observe une conversation écrite entre un être humain et une machine, et doit déterminer quel interlocuteur est la machine. S’il n’y est pas parvenu après 5 minutes, le test est considéré comme réussi. Ce test est encore d’actualité avec l’apparition des intelligences artificielles conversationnelles comme ChatGPT ou Perplexity. Ces IA génératives ont en effet réussi à plusieurs reprises à passer le test de Turing. Pour certains cependant, cela montre que ce critère n’est pas assez fort pour déterminer ce qui relève véritablement de l’intelligence.

Un scientifique remarquable, mais une reconnaissance tardive

Au début des années 1950, Alan Turing retourne vers ses premiers centres d’intérêt et utilise ses multiples connaissances pour étudier la croissance des êtres vivants. Il publie un article dans lequel il modélise la croissance des formes biologiques en utilisant des équations différentielles très complexes. Cet article sera fondamental pour le domaine de la biologie du développement.

Les dernières années de la vie d’Alan Turing seront plus sombres. Accusé d’homosexualité, il accepte un traitement de castration chimique pour éviter la prison. Un après la fin de ce traitement, il est retrouvé mort chez lui après s’être suicidé par empoisonnement au cyanure, potentiellement en mangeant une pomme, retrouvée croquée près de son lit. Il n’aura jamais pu voir l’impact de ses recherches, en particulier dans les domaines de l’informatique et de l’intelligence artificielle.

En 1966, la communauté informatique, à travers l’Association for Computing Machinery (ACM), rend hommage à Alan Turing en créant le prix Turing, une récompense attribuée chaque année à une personne sélectionnée pour ses apports à la communauté informatique. Ce prix est considéré comme étant équivalent à un prix Nobel en informatique et rend le plus beau des hommages à ce scientifique incontournable.The Conversation

Delphine Billouard-Fuentes, Professeur associé, EM Lyon Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra

L’Europe veut s’armer contre la cybercriminalité avec le Cyber Resilience Act

  Par  Patricia Mouy , Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et Sébastien Bardin , Commissariat à l’énergie atomique et aux énergies alternatives (CEA) Assez des cyberattaques  ? La loi sur la cyberrésilience, ou Cyber Resilience Act a été adoptée par les députés européens le 12 mars dernier et arrive en application dans les mois à venir, avec l’ambition de changer la donne en termes de sécurité des systèmes numériques en Europe. Alors que les systèmes numériques sont littéralement au cœur des sociétés modernes, leurs potentielles faiblesses face aux attaques informatiques deviennent des sources de risques majeurs – vol de données privées, espionnage entre états ou encore guerre économique. Citons par exemple le cas de Mirai , attaque à grande échelle en 2016, utilisant le détournement de dispositifs grand public comme des caméras connectées pour surcharger des domaines Internet d’entreprise, attaque de type DDoS (déni de service distribué)