Skip to content
JOURNÉE
PORTES OUVERTES
Venez nous rencontrer lors de nos journées portes ouvertes
JOURNÉE
PORTES OUVERTES
Venez nous rencontrer lors de nos journées portes ouvertes

TIC & Géopolitique 2018 : l’intelligence artificielle vue par Amal El Fallah Seghrouchni et Cédric Villani

TIC & Géopolitique 2018 : l’intelligence artificielle vue par Amal El Fallah Seghrouchni et Cédric Villani

Organisée le jeudi 13 décembre à Paris, la nouvelle conférence TIC et Géopolitique de l’EPITA abordait la grande question de l’intelligence artificielle (IA) en compagnie d’Amal El Fallah Seghrouchni, professeure à Sorbonne Université chercheuse au Laboratoire d’informatique de Paris 6 (LIP6) et Cédric Villani, député et célèbre mathématicien. Questionnés par le journaliste Nicolas Arpagian et les personnes de l’auditoire, étudiants comme professionnels, ces deux experts ont pu livrer quelques clés pour comprendre les enjeux d’une technologie qui n’a plus rien de la science-fiction.


Amal El Fallah Seghrouchni, Cédric Villani et Nicolas Arpagian


L’IA, c’est quoi ?

Amal El Fallah Seghrouchni : « C’est une réalité, pas un fantasme. C’est aussi une réelle rupture technologique qui dépasse largement les précédentes révolutions industrielles et à laquelle nous sommes confrontés au quotidien, dans nos téléphones, nos voitures, nos maisons… Une vraie disruption dans les usages !  Pervasive et diffuse, l’IA interpelle nos sens. Elle va remplacer la vision, intervenir au niveau de la parole, du texte, etc. Elle apporte des réponses et solutions à des fonctions très intimes de l’être humain. Elle peut ainsi générer de la connaissance et interpeller la conscience, chambouler tous les paradigmes, bien au-delà des technologies. C’est pourquoi l’IA a aussi besoin de garde-fous. »

Cédric Villani : « L’IA, c’est aussi un nom trompeur, un nom qui fait débat chez les chercheurs depuis les années 50. C’est un terme tellement vague et évocateur de fantasmes qu’il est naturellement gênant pour un scientifique. L’IA aujourd’hui, c’est aussi trois approches distinctes. Il y a d’abord l’approche système menée par les experts de la symbolique, pour comprendre ce qu’il se passe. Il y a ensuite l’approche qui consiste à utiliser un grand ensemble de données pour forcer un algorithme à reproduire une action. Enfin, il y a l’approche demandant à explorer l’ensemble des possibles, pour systématiser la curiosité. Actuellement, du côté de l’industrie, force est de constater que les enjeux les plus forts portent sur la deuxième approche, en assemblant des montagnes de données pour ensuite faire des corrélations. Enfin, l’IA est aussi un sujet au cœur d’un grand enjeu international. »



Data et IA, deux faces d’une même pièce ?

Amal El Fallah Seghrouchni : « Il y a eu beaucoup de recherches très sérieuses en IA symbolique, mais l’IA a vraiment été propulsée au moment où les GAFA ont commencé à s’y intéresser avec la data. Pour autant, pour moi, la data est le carburant de l’IA, pas l’intelligence. Un bon exemple est la fois où l’on a demandé à un algorithme de cataloguer des chihuahuas : en modifiant quelques pixels, l’IA a commencé à les comparer à des muffins ! Cependant, la data permet effectivement de faire émerger un certain nombre de choses. Mais si l’on veut une IA responsable, acceptable et accessible à la société, il faut des garde-fous : via du calcul, du symbolique et le travail du législateur. »

Cédric Villani : « On ne peut pas croire qu’avec juste du symbolique et des corrélations, on arrivera à quelque chose de véritablement intelligent. »



Des GAFA intouchables pour l’Europe ?

Cédric Villani : « C’est un sujet complexe car les GAFA ont commencé par la volumétrie, via des plateformes et par l’usage. Leur puissance s’est construite avec l’arrivée d’une nouvelle puissance de calculs et des clouds. Avec la quantité de données qu’ils possédaient, ils avaient finalement tous les ingrédients à disposition. Il ne leur restait qu’à chercher les talents où ils se trouvaient, dans les meilleures universités du monde, à créer des laboratoires et à enrôler les meilleurs ingénieurs. D’où notre retard aujourd’hui. Le chercheur en IA, qui a besoin de travailler sur de grosses machines pour être heureux, il faut l’attirer. Il faut changer l’attractivité, développer des espaces de recherches européens. Surtout, plus vous avez de données, plus vous êtes favorisé pour améliorer vos algorithmes. Le moteur de recherche de Google, sa voiture autonome ou Google Translate fonctionnent mieux car ils ont des milliers de recherches, de kilomètres parcourus et de traductions à leur actif. »

Amal El Fallah Seghrouchni : « L’intelligence artificielle est devenue une commodité presque gratuite : l’ouverture des solutions au tiers développeurs ayant leurs propres jeux de données permet d’entraîner les algorithmes d’IA et plus une IA est utilisée par des tiers, meilleure elle devient. Tout le monde n’a pas compris que les données récupérées par les GAFA sont le fait de beaucoup de citoyens qui, par l’usage, ne font qu’entraîner les algorithmes à moindre coût, quasiment gratuitement. C’est la force des GAFA : tout le monde est mis à contribution. Il n’y a rien de gratuit car vous aidez Google et les autres entreprises à s’améliorer. Aussi, au-delà du chiffre d’affaires généré – qui, à terme sera loin d’être négligeable – l’ouverture de ces services est l’assurance de leur optimisation dans la durée. »

Cédric Villani : « Le slogan est connu : « Si c’est gratuit, c’est toi le produit ». En Europe, la stratégie se veut forcément différente car la situation est très disparate selon les pays. Ainsi, au Royaume-Uni, il y a une expertise ancienne en matière d’informatique, avec notamment plusieurs entités comme l’Institut Turing – expertise que l’on va essayer de mettre en place également en France prochainement. Nos voisins britanniques gardent ainsi une très grosse expertise sur certains secteurs, comme en cybersécurité, en cyber-intelligence…. Et ils contribuent à la connaissance européenne en matière d’IA car ils ne veulent pas être isolés, notamment avec la perspective du Brexit. La France, qui a été la suivante à se réveiller sur la question, a aussi son mot à dire. Il y a quelques années encore, la puissance publique ne savait pas que certains experts à l’échelle internationale en matière d’IA étaient français et ignorait le sujet de la data. Depuis, avec notamment le rapport d’Axelle Lemaire sur le sujet, puis le mien, un réveil a été amorcé et engendre une réflexion, entre sciences sociales et sciences exactes. Désormais, la principale inconnue n’est pas la technologie elle-même, mais comme cette dernière va vivre avec l’humain et vice-versa. L’Allemagne vient d’annoncer sa stratégie au mois de novembre. Mais elle reste très allemande, avec la recherche et l’industrie – cette dernière reste très nationale. Il va falloir travailler de façon forte pour avoir de vrais liens. Il y a ensuite l’Europe du Nord, avec des pays très proactifs, très dans l’innovation, et dotés d’un gros capital confiance qui diffère de la France et de l’Allemagne sur la pratique des usages technologiques. Cette différence peut s’expliquer par notre passé commun : des deux côtés du Rhin, la compilation de données est un sujet sensible. Mais ces questions sont beaucoup moins sensibles dans les pays nordiques. Enfin, l’Europe doit aussi se construire avec les pays de l’Est : des « réserves de geeks » ! Il n’y a qu’à voir les résultats chaque année de ces nations lors des Olympiades Internationales d’Informatique. Au fond, la principale question est de savoir comment réunir l’ensemble de ces pays. Sur des sujets légaux, l’approche communautaire s’y prête bien. En revanche, pour des sujets de coopérations en recherche à l’échelle européenne, c’est plus délicat. »

Amal El Fallah Seghrouchni : « Pourtant, on a énormément de programmes européens de recherche et depuis très longtemps : on n’a pas attendu la vague de l’IA pour ça ! En France, il y a déjà de nombreuses collaborations et de réseaux d’excellence, notamment avec l’Allemagne, mais aussi les Pays-Bas et plusieurs pays de l’Est, en particulier la Roumanie et la Pologne, qui possèdent historiquement de très bonnes écoles de mathématiques. Dernièrement, on a vu également émerger quelques initiatives sur une IA responsable, éthique, avec des plateformes destinées à mettre des algorithmes ouverts, pour une vision du bien commun. »

Cédric Villani : « Une guerre contre les GAFA ne servira à rien car elle sera perdue d’avance. Il faut penser différemment, mettre en place des collaborations, etc. Deux réseaux européens de chercheurs internationaux sont ainsi en train de se mettre en place – l’un sur l’apprentissage automatique, l’autre sur l’IA symbolique – et ils essaient de monter une alliance pour répondre aux enjeux économique et industrielle afin de faire continuer la recherche. »


Joël Courtois, directeur général de l’EPITA


Vers un serment d’Hippocrate de l’IA ?

Amal El Fallah Seghrouchni : « Le développement de l’IA inquiète. L’an dernier par exemple, plus de 2350 chercheurs ont signé un texte avec 23 principes d’Asilomar (à l’instar des lois de la robotique d’Asimov vers 1970 – principes d’Asimov). Ces principes se veulent des « garde-fous » pour encadrer la recherche, l’éthique et l’anticipation en matière d’IA. Ces principes font sens, même s’ils sont parfois un peu utopiques. À vrai dire, ces principes sont simples, mais plus difficiles à appliquer de façon concrète. En effet, l’IA et ses concepts évoluent : comment peut-on alors auditer un algorithme si ce dernier est capable de s’automodifier ? »

Cédric Villani : « Prenons l’exemple des fraudes alimentaires. Évidemment, on ne contrôle pas tout, de partout. Il faudra sûrement le faire de la même façon, avec des « descentes » de temps en temps, pour voir si l’algorithme ne discrimine personne, s’il est fiable… »

Amal El Fallah Seghrouchni : « L’algorithme qui apprend sera difficile à auditer ou à valider de façon formelle. »

Cédric Villani : « De toute façon, s’il n’y a pas une fonction de police, cela ne sert à rien d’avoir des règles édictées. Il faudra tester les codes et les données à un instant T. »

Amal El Fallah Seghrouchni : « Cela dépend aussi de d’approche. Regardons les travaux de Jacques Pitrat, l’un des pionniers de l’IA. Ce dernier a conçu un Chercheur Artificiel en IA (CAIA). Son idée, c’est qu’au lieu de faire des algorithmes à qui l’on délègue une IA, on va plutôt construire une IA avec une IA. CAIA est ainsi capable de résoudre des problèmes. Cette approche de Jacques Pitrat consiste à bootstrapper l’intelligence et de générer de la méta-connaissance. Et aujourd’hui, CAIA a généré 44 414 contraintes – dont seulement 12120 sont utiles – et 3470 pages pour expliquer la preuve pour le problème des quasi-groupes N*N (chaque élément apparaît exactement 1 fois sur chaque ligne et sur chaque colonne – carré latin). Ce qui est aussi intéressant, c’est que Jacques Pitrat a démontré que le programme générique était plus performant qu’un programme dédié et conçu spécialement pour résoudre le problème. Cela peut paraître contre-intuitif, mais la raison est que ce programme générique dispose de méthodes utiles pour d’autres problèmes, que l’on ne pense pas inclure dans le programme spécifique. »

Cédric Villani : « Quant à la question de l’éthique et des bonnes pratiques, c’est encore autre chose. Prenons le cas de la Déclaration universelle des droits de l’homme : une bonne déclaration doit être techno-indépendante, c’est-à-dire qu’elle doit passer à travers toutes les révolutions technologiques. Cela signifie qu’il faut d’abord réfléchir sur les pratiques acceptables ou non, comme le droit à la vie privée qui est l’un des principes fondamentaux de l’Union européenne. L’Europe est le continent qui s’en préoccupe le plus. À une époque, Internet était très porté sur cela, via la préservation de l’anonymat. Entre temps est arrivée l’ère du profilage, de l’interactivité, etc. On voit tout de suite que si l’on veut préserver ce droit, il faut interdire dans les technologies certaines pratiques. Cela modifiera beaucoup de choses. »

Amal El Fallah Seghrouchni : « Les risques sont nombreux : Je dirais qu’il faut protéger l’IA de l’humain pour protéger l’humain de l’IA. Au niveau technique, on peut redouter l’absence de validation formelle ; des prises de décisions – comme gouverner, légiférer, juger… – sur la base d’algorithmes avec des biais ; une automatisation aveugle sans garde-fous. Au niveau sociétal aussi, on peut craindre le détournement de la puissance de l’IA et son utilisation malveillante ; les manipulations psychologiques de masse en utilisant les données publiques ou privées, fake news, etc. »



Quid de la formation ?

Amal El Fallah Seghrouchni : « En Chine par exemple, ils remplacent les Olympiades de mathématiques par des Olympiades d’algorithmes dès l’école élémentaire. Il faut sensibiliser le grand public à l’IA, à l’intérêt que cela peut apporter. Récemment, un rapport d’Accenture expliquait qu’en 2025, la productivité augmenterait de 38 % dans les entreprises en augmentant les capacités des salariés. Il faut penser à convertir la société, à l’initier… »

Cédric Villani : « Il y a un drame aujourd’hui en France, c’est la pénurie de professeurs de maths. Et comme nos enseignants sont malheureux, on a du mal à en attirer ! Il faut aussi changer la formation initiale, notamment pour les enseignants de primaire. La méthode de Singapour dont on parle beaucoup, c’est aussi 5 fois plus d’heures de formation continue et initiale. De ce fait, c’est tout un système, une grosse affaire à mettre en œuvre. D’autres pistes sont également envisagées, comme chez nos voisins anglais qui, en bons capitalistes, ont voulu augmenter les salaires des professeurs de maths par rapport aux autres. On imagine difficilement appliquer cela en France, mais qui sait ? Cependant, ce genre de raisonnement évite de poser les bonnes questions sur l’attractivité pure du métier. Après, la France va déjà aller vers l’enseignement de l’informatique dès l’école primaire : c’est un gros effort certes, mais il était nécessaire ! »



La conférence TIC & Géopolitique 2018 vue par…

Yann, étudiant en 5e année au sein de la Majeure GISTRE (Génie Informatique des Systèmes Temps Réel et Embarqués) : « J’ai aimé que ce ne soit pas une conférence technique sur l’intelligence artificielle, mais une conférence portant sur la géopolitique et donc les effets liés à cette technologie. On ne s’est pas intéressés à la partie mathématique de la chose, plutôt à comment se servir de ce que l’on sait faire maintenant. Par exemple, j’ai appris l’existence des 23 principes de l’IA, un peu comme les lois de la robotique d’Asimov. Jusque-là, même si je m’intéressais à l’IA, je ne les connaissais pas ! Et pour les avoir lus lors de la conférence, je me rends bien compte que ces principes concernent vraiment l’aspect géopolitique et pas du tout la technique. »

Baptiste, étudiant en 5e année au sein de la Majeure SRS (Système, Réseau et Sécurité) : « Comme je suis principalement intéressé par la cybersécurité et compte travailler plus tard sur la problématique des cyber conflits, j’ai apprécié le fait que cette conférence aborde la technique et la technologie de l’IA sous un angle géopolitique, en prenant en compte les nombreux enjeux internationaux qui en découlent. J’ai notamment appris pas mal de choses sur les questions de normalisation de l’IA et les conséquences politiques qu’elle peut avoir. »


Retour en haut de page