Nos derniers débatsTous nos débats

Colloque « La société du numérique »

Actes du colloque organisé par l’association DEMOCRATIES
le 09 mars 2018
à l’Assemblée Nationale

 

SOMMAIRE

LES INTERVENANTS  3

Ouverture de Jérôme LAMBERT, député de Charente  5

Introduction de Paul QUILÈS, Président de Démocraties 6

Intervention de Cédric VILLANI, député de l’Essonne  8

LE NUMÉRIQUE ET LES CITOYENS :  UN LOGICIEL POUR AIDER LES PLAIDEURS EN DROIT CIVIL ET COMMERCIAL   12

Intervention de Jérôme Dupré  12

Intervention de Jacques LEVY-VEHEL  13

Intervention de Jérôme DUPRÉ  14

Intervention de Patrick GOHET  15

INTELLIGENCE ARTIFICIELLE, ALGORITHME : IMPLICATIONS SUR LA STRATÉGIE DES ÉTATS  17

Intervention de Kavé SALAMANTIAN   17

RÉPONDRE À LA PEUR DU NUMÉRIQUE :  LES QUESTIONS ÉTHIQUES ENGENDRÉES PAR LE NUMÉRIQUE   20

Intervention de Jean-Gabriel GANASCIA   20

TRAVAIL, EMPLOI ET NUMÉRIQUE : DES RAPPORTS AMBIVALENTS  23

Intervention d’André VITALIS  23

CYBERSÉCURITÉ ET CYBERMENACES  28

Intervention de Cedric LAURADOUX   28

L’IMPACT DU NUMÉRIQUE DANS LA SPHÈRE PUBLIQUE   31

Intervention de Yannig GOURMELON   31

LE NUMÉRIQUE ET LES TRANSPORTS : LES CONDITIONS D’UNE “SMART” MOBILITÉ   34

Intervention de Laurent KOCHER   34

L’IMPACT DU NUMÉRIQUE SUR LA MÉDECINE   36

Intervention de Pierre SIMON   36

LE NUMÉRIQUE : UN OUTIL D’AMÉLIORATION DES PERFORMANCES DU SYSTEME SCOLAIRE ET UNIVERSITAIRE ?  39

Intervention de Catherine BECCHETTI-BIZOT  39

CONCLUSION DE JACKY SIMON   45

 

 

 

LES INTERVENANTS

  • Accueil par Jérôme LAMBERT, député de Charente
  • Présentation du colloque : Paul QUILES, Président de DEMOCRATIES
  • Intervention de Cédric VILLANI. Cédric Villani est un grand mathématicien. Lauréat de la Médaille Field en 2010, il a dirigé l’Institut Poincaré jusqu’en 2017. Élu député (LRM) dans la 5ème circonscription de l’Essonne, il est l’auteur de deux rapports remis au cours de cette année 2018, l’un au Premier Ministre, traitant du Numérique et l’autre au Ministre de l’Éducation nationale sur l’enseignement des Mathématiques.
  • PREMIERE TABLE RONDE

Modérateur : Jacky SIMON, Vice-Président de DEMOCRATIES

  • Jérôme DUPRE est un ancien magistrat et juriste d’entreprise en droit de l’informatique et des télécommunications, co-fondateur de la start-up « Case Law Analytics » présidée par Jacques Lévy Vehel, polytechnicien et chercheur en mathématiques appliquées à l’Institut de recherche en informatique et automatisme (INRIA).
  • Patrick GOHET est l’un des meilleurs connaisseurs des situations de handicap. Il est Inspecteur General des Affaires Sociales et a été directeur général de l’UNAPEI (fédération d’associations représentant les personnes handicapées mentales et leurs familles) de 1987 à 2002. Il a été délégué interministériel aux personnes handicapées de 2002 à 2009, puis de 2009 à 2012 président du conseil national consultatif des personnes handicapées. Il est depuis 2014 adjoint du Défenseur des droits, chargé de la lutte contre les discriminations et la promotion de l’égalité
  • Kavé SALAMATIAN est professeur des universités en informatique à l’université de Savoie-Mont Blanc, chercheur à la chaire Castex de cyber stratégie. Il est aussi professeur invité à l’académie des sciences de Chine.
  • DEUXIEME TABLE RONDE
  • Jean-Gabriel GANASCIA est professeur d’informatique à l’université Pierre et Marie Curie et chercheur au laboratoire de l’Université Paris 6. Il a publié des centaines d’articles et de nombreux ouvrages, en particulier sur l’Intelligence artificielle, comme « Le mythe de la singularité : faut-il craindre l’intelligence artificielle ? » aux Éditions Seuil en 2017, ou « L’intelligence artificielle : vers une domination programmée ? » aux Éditions du Cavalier Bleu en 2017. Ses recherches actuelles portent sur l’apprentissage machine et l’éthique des ordinateurs. Il est président du comité d’éthique du CNRS (COMETS).
  • André VITALIS est professeur émérite à l’Université de Bordeaux Montaigne à laquelle il appartient depuis 1973 (en sciences de l’information et de la communication). Il a enseigné dans de nombreuses universités et à l’étranger. Il a développé une approche critique de la société de l’information et publié de nombreux articles et ouvrages. Son dernier ouvrage, « L’incertaine révolution numérique » (ISTE Éditions) a été publié en 2016.
  • Cédric LAURADOUX est chargé de recherches à l’Institut de recherche en informatique et automatisme (INRIA). Il s’intéresse plus particulièrement aux problèmes de vie privée. Il est à l’origine d’un MOOC (massive open online courses) sur les questions de protection de la vie privée.
  • TROISIEME TABLE RONDE

Modérateur : Jacky SIMON, Vice-Président de DEMOCRATIES

  • Yannig GOURMELON est depuis 12 ans associé au Cabinet Roland Berger, cabinet de conseil en stratégie. Il a publié récemment un « État des lieux du numérique de la France » disponible sur internet. Il est diplômé d’HEC et de Sciences Po et travaille sur les “utilities” (les services) et le service public (Veolia, EDF), et notamment sur les “smart cities” ou villes intelligentes.
  • Laurent KOCHER est directeur Marketing, Innovation et Services de KEOLIS, filiale à 70% de la SNCF. Il porte à ce titre de multiples projets numériques adaptés aux différents modes de transport, et considère que le digital vise la simplification du parcours passager.
  • Pierre SIMON est ancien médecin hospitalier, chef de service de néphrologie, fondateur en 2007 et ancien Président de la Société Française de Télémédecine (2010-2015). Il a remis au ministre de la santé en novembre 2008 un rapport intitulé « Place de la télémédecine dans l’organisation des soins » lequel a servi à définir la télémédecine dans la loi de juillet 2009.
  • Catherine BECCHETI-BIZOT, actuellement médiatrice de l’Éducation Nationale et de l’enseignement supérieur, est agrégée de lettres classiques. Elle est à l’origine de la création en 2014 de la Direction du Numérique pour l’Éducation, avec pour objectif la mise en œuvre du “service public du numérique éducatif”. Chargée d’une mission d’études sur les pratiques mobilisant des pédagogies actives liées à l’utilisation des outils et ressources numériques, elle est l’auteur de deux rapports ministériels « Vers la société apprenante » publié en mars 2017, et « Repenser la forme scolaire à l’heure du numérique » publié en mai 2017.

 

  • Conclusion et enseignements du colloque : Jacky SIMON, Vice-Président de l’association DEMOCRATIES

 

 

Ouverture de Jérôme LAMBERT, député de Charente

J’ai vraiment beaucoup de plaisir à vous accueillir ici, dans la salle Victor Hugo de l’Assemblée nationale. Nous sommes ici parce qu’il y a quelques semaines maintenant, Paul Quilès m’a demandé si l’on pouvait organiser un colloque à l’Assemblée nationale autour de la question de l’intelligence artificielle. C’est évidemment un sujet passionnant. Désigné organisateur de ce colloque, j’ai été épaulé (et ô combien épaulé) par Dominique Arnu, cheville ouvrière de la réussite de cette manifestation. Je tiens à la remercier.

Paul Quilès m’a demandé de prononcer quelques mots d’introduction, mais je ne vais pas déflorer le sujet de l’intelligence artificielle. Je suis là, comme la plupart d’entre vous, pour apprendre et réfléchir.

Quand l’on s’intéresse à tout ce qui touche à l’intelligence artificielle, on réalise qu’aujourd’hui est déjà demain. Nous sommes dans un processus d’évolution qui change le monde, l’économie, nos modes de vie, les rapports sociaux, etc.

La combinaison et l’interconnexion d’algorithmes de plus en plus élaborés, d’une énorme puissance de calcul, de bases de données de plus en plus gigantesques et disponibles nous interrogent car nous commençons à mesurer les changements que cela induit dans notre vie quotidienne. Toutes les activités humaines, directement ou indirectement, sont concernées. C’est donc une réflexion globale que nous devons conduire. Tout doit être repensé en matières économique et humaine. Des opportunités semblent apparaître. Des changements sont déjà là. L’exploitation de toutes les connaissances à l’échelle de toute l’humanité ouvre un champ d’innovation sans précédent.

Pour autant, de nombreuses questions traversent la société et semblent légitimes à propos de l’intelligence artificielle : la machine aura-t-elle demain les destinées du monde humain dans ses circuits électroniques ? Comment préserver la place de l’homme qui est la sienne, celle d’être au sommet de l’évolution ? Voici quelques questions, quelques réflexions qui interpellent et cette journée va nous permettre d’avoir, je le crois, quelques réponses. Merci à tous ceux qui vont intervenir et qui nous permettent de réfléchir ensemble.

 

Introduction de Paul QUILÈS, Président de Démocraties

Merci à l’Assemblée nationale par l’intermédiaire de Jérôme Lambert, député de Charente, de nous permettre d’être ici pour parler d’un sujet majeur. Un grand quotidien économique titrait récemment « travailler avec l’intelligence artificielle » et je trouve intéressant que l’on fasse aujourd’hui ce débat.

En me tournant vers Jérôme Lambert, je me rappelle être entré pour la première fois dans cette salle il y a 40 ans, à quelques jours près. Cela ne rajeunit pas certains d’entre nous. Quelques années plus tard, Jérôme Lambert et moi avons milité ensemble pour un beau succès. C’était l’ancien monde, bien sûr… mais qui nous rappelle de bons souvenirs, et de bonnes méthodes sur la façon d’arriver au pouvoir et ensuite de gérer ce que l’on a promis. Je ferme cette parenthèse pour dire que l’Assemblée nationale est là aussi dans son rôle, qui n’est pas simplement d’avoir des réunions de députés qui travaillent et parfois s’assoupissent en séance. Elle est là aussi pour s’ouvrir au monde au monde d’aujourd’hui et de demain.

Étant président du club DEMOCRATIES, à la suite d’Henri Paris, je me suis rappelé quel était l’objectif de ce club dont certains d’entre vous sont membres : c’est d’analyser les mouvements sociaux, culturels et politiques, d’ouvrir les grands dossiers de la France et du monde contemporain et de contribuer, selon les statuts, à la défense et la promotion des valeurs de la démocratie et de l’État républicain. Vous trouverez tout cela sur le site du club Démocraties que l’on vient d’ouvrir. Il y a également une page Facebook qui permettra de meilleurs échanges entre les membres du club et ceux qui ne le sont pas encore.

Le club s’est penché dans la dernière période sur de nombreux sujets qui n’étaient pas toujours de première actualité au moment où on les a traités, mais qui le sont devenus par la suite, qu’il s’agisse des crises au Moyen-Orient, de la présidentielle aux Etats-Unis, de la liberté d’information en France, de la pauvreté, de l’argent et ses dérives, etc.

Le sujet que nous abordons aujourd’hui n’est pas simplement un dossier d’actualité, il concerne le futur. Quand j’ai parlé de ce colloque autour de moi, j’ai vu des yeux s’allumer, ce thème passionne les jeunes. Cela les inquiète aussi. C’est leur avenir de savoir si demain il y aura toute une série de mécanismes qui vont dépasser le niveau de l’intelligence actuelle.

Pour ma part, je m’interroge sur le terme « intelligence artificielle ». L’intelligence n’est-elle pas avant tout humaine d’une façon ou d’une autre ? Comment devient-elle « artificielle » ? Ce sera un des sujets de discussion au cours de la journée. Les jeunes sont passionnés. Les moins jeunes le sont aussi, parce que peut-être qu’ils voient plus loin, pas pour eux, mais pour leur descendance…

Pas mal d’analyses semblent tenir du fantasme aujourd’hui, mais sera-ce encore le cas demain ? Je vous cite les titres de journaux depuis quelques mois : « Combattant du cybermonde », « Gare au dévoiement de l’intelligence artificielle dans le monde », « Manipulation des élections, cybercriminalité », « 26 experts alertent sur l’utilisation malveillante de l’IA », « L’intelligence artificielle va créer 10 % d’emplois nets ». Je ne sais pas si c’est vrai, mais en tout cas, il y a de quoi faire réfléchir.

D’autres dossiers peuvent être mentionnés, comme « Les révolutions du sport, une économie saisie par la fièvre numérique », « Il faut investir 30 milliards pour l’intelligence artificielle », « 3 mars, le gouvernement allemand visé par une cyberattaque de grande ampleur ». Et pour terminer, on peut citer ce numéro spécial des Échos ce matin sur l’intelligence artificielle ; sans parler des appels à la vigilance de l’astrophysicien Stephen Hawking en 2014 et d’Elon Musk – l’homme de Space X et des fusées récupérables – qui tiraient la sonnette d’alarme à propos des drones tueurs. Vous verrez tout à l’heure un petit film de quelques minutes, très impressionnant, et qui vous donnera l’idée de ce que ces fantasmes peuvent donner pour l’avenir. Est -ce que ces fantasmes d’aujourd’hui deviendront réalités demain ?

Nous avons pensé au club Démocraties qu’il était nécessaire d’y voir clair pour éviter ce que j’appellerai l’enthousiasme béat en pensant qu’avec l’intelligence artificielle, c’est un monde nouveau, facile, agréable, sympathique, développant de l’emploi, permettant tout et n’importe quoi…

Pour autant, évitons la méfiance systématique. On parle d’avancées, de progrès, mais sommes-nous face à un progrès “ordinaire” ? Certes, l’inquiétude et les fantasmes sont au rendez-vous. Et cela, on en discutera dans les tables rondes à venir. Jacky Simon, qui est vice-président de Démocraties et qui a beaucoup œuvré à la préparation de ce colloque, me disait avec raison qu’un des objectifs principaux, une fois qu’on se plonge dans ce sujet, c’est d’informer (il y a, contrairement à l’impression que pourraient susciter ces titres de journaux, une insuffisante information sur les points les plus cruciaux) et de former aussi. Parce que les jeunes, sur ce sujet comme sur d’autres, avec la puissance des réseaux sociaux, avec la déformation systématique de l’information qui caractérise ces réseaux, ne sont pas forcément capables de résister.

Voilà ce que je voulais vous dire en introduction avant de céder la parole à Cédric Villani.

 

 

Intervention de Cédric VILLANI, député de l’Essonne

Merci beaucoup, cher Paul, Monsieur le Ministre. Merci pour cette invitation. Merci pour votre implication. Nous sommes ici au cœur d’un sujet qui mêle de nombreuses facettes, la science et la technologie, la société, la responsabilité.

Nous venons de voir un court extrait d’une vidéo[1] qui a fait un buzz considérable sur les réseaux sociaux il y a quelques mois. Stuart Russell, que l’on voit à la fin de la vidéo, est l’un des principaux inspirateurs sur le sujet de l’intelligence artificielle. Tous les étudiants en intelligence artificielle connaissent l’ouvrage, best-seller dans le domaine, de Stuart Russell et Peter Norvig[2]. Même si les esprits un peu chagrins disent que cela ne donne pas assez de poids aux derniers développements relatifs à l’apprentissage statistique, ils s’accordent tous pour saluer le travail de synthèse remarquable qui a été fait dans cet ouvrage que je considère, à titre personnel, comme une petite œuvre d’art autant que comme un ouvrage scientifique.

Stuart Russell, qui est anglais, malgré le fait qu’il soit professeur à Berkeley, est connu pour sa double casquette, à la fois de scientifique très engagé dans le développement des sciences et de personnalité militante très engagée pour la réglementation, la régulation mondiale de l’intelligence artificielle dans le domaine de la défense. On est là sur un débat extrêmement délicat. Quelle est la responsabilité des scientifiques dans l’usage des sciences et technologies ?

C’est un débat qu’avec mon modeste point de vue j’ai abordé dans une bande dessinée il y a quelques années. Cela s’appelait « Les Rêveurs lunaires[3] » avec le dessinateur Edmond Baudoin. L’un des personnages, héros de la bande dessinée était Leo Szilard, le grand physicien hongrois qui, immigré aux États-Unis, a joué un rôle fondamental dans le lancement du projet Manhattan, la construction de la bombe atomique. Parallèlement, il a passé toute la fin de sa vie en militant antiatomique, pour la paix dans le monde. Il est par exemple à l’origine de conférences internationales Pugwash et est un parfait représentant de ce problème de responsabilité.

Le débat est indémêlable. D’un côté, les scientifiques font émerger la science et la technologie, connaissent la science mieux que quiconque et sont donc particulièrement habilités à donner leur point de vue, comme le fait Stuart Russell. De l’autre côté, nous pouvons répliquer que ce qui meut les scientifiques, la plupart du temps et avant tout, c’est la curiosité, l’amour de la réflexion scientifique ; que la technologie, une fois qu’elle est posée sur la table, s’impose à toute la société. Et donc qu’elle est l’affaire de tous et toutes, et que c’est un problème de société que de réguler et de légiférer sur la technologie.

La vérité est certainement est une combinaison de ces deux points de vue. Ajoutons que l’on voit de grandes figures de scientifiques pacifistes comme Leo Szilard ou Stuart Russell. D’autres ont été des experts dans la course aux armements, comme l’un des collègues de Leo Szilard, Edward Teller, scientifique hongrois et conseiller de Reagan : il préconisait la construction de bombes atomiques toujours plus grandes pour assurer la domination de l’Occident face aux soviétiques.

Cela nous rappelle que ce n’est pas en soi le fait d’être détenteur d’un savoir technologique, d’une expertise qui vous donne plus d’autorité morale que les autres. Et cela doit être apprécié en conjonction avec tous les autres facteurs. Bien sûr, nous allons voir ces questions qui mélangent la science et la technologie, du savoir très sophistiqué d’une part, et les questions morales et éthiques d’autre part, s’inviter de plus en plus dans nos débats de société à une époque où de plus en plus de questions de société dépendent de problèmes technologiques.

Continuons en insistant sur le fait que, même si, vu de l’extérieur, le progrès technologique a souvent l’air rapide, inexorable, “exponentiel” pour employer un mot que les journalistes aiment beaucoup, ce progrès est en réalité chaotique, imprévisible, plein d’imprévus. La bombe atomique en est un exemple magnifique : vu de l’extérieur, nous voyons une réussite technologique exceptionnelle de la part des États-Unis. Quand nous regardons les coulisses, nous voyons du chaos à tous les étages, des luttes permanentes entre les uns et les autres, des scientifiques s’engueulant avec les ingénieurs, des ingénieurs s’engueulant entre eux, l’armée s’engueulant avec les ingénieurs… toutes les combinaisons que vous pouvez imaginer ! Cela paraît incroyable, même à la fin, de se dire que finalement le projet a pu se faire, a pu mener à ce qu’on doit appeler du point de vue technologique “un succès” – même si cette affirmation peut être discutée du point de vue moral.

L’intelligence artificielle suit ce même procédé. Vu de l’extérieur, nous avons l’impression de voir les choses arriver de façon inexorable. Vu de l’intérieur, c’est plein de confusion, de surprises… Par exemple, il y a encore dix ans, l’intelligence artificielle était considérée comme un sujet réservé aux experts, aux passionnés. Aucun entrepreneur sain d’esprit n’aurait misé sa fortune là-dedans. Aucun homme politique n’aurait trouvé intéressant de le mettre dans son discours. Du côté des directeurs d’universités, on cachait le fait que certains de ces chercheurs s’intéressaient à cela, ou on trouvait d’autres noms. À la place de l’intelligence artificielle, on disait que l’on était dans l’optimisation ou dans la recherche opérationnelle.

Maintenant, tout a changé, c’est le contraire ! Tout le monde vous explique qu’il fait de l’intelligence artificielle. Toutes les entreprises introduisent cela dans leur bilan aux actionnaires. Tous les hommes politiques trouvent le moyen d’annoncer de grands programmes. Entre les deux, il s’est passé une révolution scientifique et technologique. Les algorithmes d’intelligence artificielle sont devenus beaucoup plus efficaces. C’est une combinaison de nouveaux algorithmes, mais surtout de cette efficacité renforcée, qui est due à une augmentation des performances du matériel, une augmentation des bases de données, une augmentation du partage. Mais alors que tous ces ingrédients étaient prévisibles, le résultat, personne (ou presque personne) ne l’avait prévu.

Il reste un mystère : pourquoi cela a progressé aussi vite ? C’est un défi pour les scientifiques, mais c’est un défi aussi pour la société : d’un coup est mise en avant une technologie dont on croyait qu’elle était réservée aux scientifiques avec des applications à long terme, alors qu’elle aura finalement des répercussions à très court terme auxquelles il faut se préparer. Se préparer dans nos habitudes, en essayant de comprendre ce dont il s’agit et comment cela va nous impacter. C’est aussi comprendre, savoir ce que l’on est prêt à accepter ou non. C’est comprendre comment les citoyens seront protégés des usages abusifs de l’intelligence artificielle, tant dans des domaines vitaux comme la Défense que dans la loi, la fiscalité ou encore les entreprises.

L’intelligence artificielle est un sujet qui va impacter tous les secteurs à des vitesses très variables, et il faut le comprendre pour pouvoir en anticiper les dérives et les bénéfices. Cela veut aussi dire faire évoluer la formation, revoir nos organismes de recherche. C’est un grand thème de débat dans l’organisation de la recherche. Évidemment, comme les applications de l’intelligence artificielle sont considérables, nos systèmes universitaires et de recherche publique sont concurrencés par des acteurs extrêmement puissants et intelligents qui cherchent à récupérer la ressource première de l’intelligence artificielle, à savoir l’intelligence humaine des personnes qui savent la manipuler et la développer. C’est un vrai défi pour nous que d’arriver à revoir les choses, à revoir notre copie dans le domaine de la recherche, qui a tendance à évoluer sur un pas de temps très lent.

L’intelligence artificielle est plus fascinante que bien d’autres révolutions technologiques. Si la bombe atomique, par exemple, était une révolution dans l’interface entre sciences et politique, le savoir était concentré dans les mains d’un petit nombre d’experts capables de produire la bombe. Les hommes politiques et les citoyens n’avaient guère de possibilité d’influer sur la technologie. Avec l’intelligence artificielle, les choses sont complètement différentes.

Il s’agit d’algorithmes que nous utiliserons, que nous, en tant qu’utilisateurs, contribuerons à faire progresser. Ce n’est pas quelque chose qui viendra seulement équiper de grandes institutions, des gouvernements, ou des institutions de défense. L’intelligence artificielle équipera également des petites entreprises, des bibliothèques, et même les foyers de nos concitoyens, et à laquelle tout le monde va participer et dans laquelle tout le monde aura son mot à dire.

L’intelligence artificielle est également fascinante car c’est une technologie très évolutive, très adaptative, extrêmement flexible et qui comporte beaucoup d’imprévus. Pour reprendre l’exemple de la bombe atomique, il n’y a qu’une façon de l’utiliser. Ce n’est pas le cas de l’intelligence artificielle. C’est d’ailleurs l’une des lignes de défense du Departement of Defense américain quand Stuart Russell l’interpelle sur les applications possibles de l’IA. La Défense américaine se défend de concevoir des robots servant uniquement destinés à détruire – ce qui serait non-éthique – en signalant que leurs robots, leurs drones sont multiusages tout en réfutant sa responsabilité en cas de mauvais usage. L’intelligence artificielle est bien plus flexible et universelle, ce qui entraine toutes sortes de risques et d’avantages.

Si l’intelligence artificielle pourra être adaptée aux besoins de chacun, elle pourrait être également détournée de son usage pacifique et manipulée à des fins criminelles. Ce fut le cas de TAY, une intelligence artificielle lancée par Microsoft comme agent conversationnel sur la plateforme Twitter : une équipe avait, par malveillance, militantisme ou par jeu, influencé le “chatbot” avec des idées racistes, misogynes et extrêmement choquantes. La manipulation avait été telle que l’instrument avait été stoppé quelques heures seulement après sa mise en service.

Le risque qu’une intelligence artificielle soit détournée de son usage premier est donc élevé, d’autant que cela concerne des technologies facilement reproductibles, à petits coûts et dissimulables. Il faut donc s’armer pour préserver ce en quoi nous croyons. Plusieurs réponses existent à différents niveaux. Il s’agit premièrement de monter en compétence technologique autant que possible : il faut comprendre tous les ressorts de la technologie qui nous effraie, posséder les meilleurs experts sur le sujet, les meilleurs processus et systèmes de développement. La recherche doit ici être interfacée avec la technologie.

Il s’agit ensuite de mettre en place les bons instituts qui s’occuperont d’aider les gouvernements et les populations dans leur cheminement éthique. Cela fera partie de nos recommandations, avec la proposition de mise en place d’un comité national d’éthique pouvant être saisi par le gouvernement ou par les citoyens pour statuer sur la recevabilité, le caractère éthique de telle ou telle combinaison d’intelligence artificielle dans tel ou tel usage.

Il faut aussi mettre en place, bien sûr, des observatoires étudiant la confiance en l’IA et l’évolution des usages. Il s’agit également de travailler sur le volet international, avec des conventions, des accords sur la question de l’usage de l’intelligence artificielle au sein des armes. Les discussions internationales ont lieu, mais il y a une certaine difficulté à se comprendre entre les gouvernements et les organisations non gouvernementales liée principalement à un manque de définition précise. Elle est définie comme « toute technologie algorithmique avancée » et il est impossible de dire précisément ce qui relève ou non de l’intelligence artificielle. Il y a de plus une focalisation sur des questions spectaculaires, comme peut l’être la question du robot tueur en cas de conflit armé. Cela fait oublier des questions plus urgentes, plus invasives, qui touchent à la sécurité.

Je terminerai en répétant que ce qu’il y a de fascinant dans l’intelligence artificielle, ce sont précisément ces trois points sur lesquels j’ai insisté : le fait que ce soit un sujet qui concerne tout le monde, et pas seulement les experts ; le fait que ce soit un sujet qui touche à tous les secteurs, qui vont devoir repenser leurs habitudes ; et le fait que ce soit un sujet qui varie d’un usage à l’autre. Il y a très peu de technologies dans lesquelles le développement dépend autant de l’application que l’on a en tête.

Cette application sera d’autant plus efficace que la mise en contact du fabricant et de l’utilisateur se fera en amont. Les chercheurs, les utilisateurs, les entrepreneurs et les spécialistes de technologie seront prêts à travailler au plus proche de la demande. Sur ces bases, nous avons fort à faire dans notre pays et dans notre continent pour travailler à mettre en place des stratégies nationales et internationales, qui prennent en compte les aspects légaux. Vous avez peut-être vu que nous avons travaillé récemment sur la législation française en se mettant au diapason de la réglementation européenne sur la protection des citoyens à travers le droit des données personnelles. Un droit sur lequel l’Europe est de très loin le continent le mieux équipé. L’intelligence artificielle est donc une question sur laquelle on devra travailler avec des réponses administratives, des réponses culturelles, relevant du discours et de la façon dont on communique les uns avec les autres. Je vous remercie pour votre attention.

LE NUMÉRIQUE ET LES CITOYENS :
UN LOGICIEL POUR AIDER LES PLAIDEURS EN DROIT CIVIL ET COMMERCIAL

Intervention de Jérôme Dupré

Je souhaiterais rappeler en préambule les raisons pour lesquelles nous avons mené ce projet. Jacques Lévy Vehel et moi nous connaissons depuis plus d’une dizaine d’années. J’étais alors juriste d’entreprise dans le domaine de l’informatique et, voyant le fonctionnement de la magistrature et ses difficultés, je me suis demandé comment faire converger ces approches. Dans le même temps, Jacques Lévy Vehel travaillait sur l’intelligence artificielle et s’intéressait au droit comme objet.

De plus, Jean-Claude Farcy, chercheur dans un laboratoire associé au CNRS, recensait dans un ouvrage publié en 2015 le nombre de magistrats en France[4] : il a constaté que la situation n’avait pas évolué depuis deux siècles, qu’il y avait autant de magistrats alors que la population avait plus que doublé dans le même temps. Dans ma ville d’origine, il faut par exemple 17 mois pour traiter un dossier aux affaires familiales. Pour avoir vu et éprouvé de l’intérieur cette situation, j’ai pensé que l’intelligence artificielle pourrait être utilisée pour quantifier cet aléa qui amène beaucoup de plaideurs au procès, de manière à ce qu’en ayant une idée de ce qui est probable et prévisible, ils puissent éventuellement se mettre d’accord auparavant. C’est de là qu’est partie ma réflexion.

On peut chercher évidemment à utiliser les outils informatiques et mathématiques pour modéliser le raisonnement judiciaire. Je ne suis pas sûr qu’on y parviendrait, à supposer qu’il y ait une façon de raisonner, même si on apprend le syllogisme dans les universités de droit. En réalité, il y a énormément de manières de raisonner en droit. Je pensais ce matin en venant que le droit a une rigueur qui est très relative par rapport à la logique mathématique. En tout cas, le raisonnement n’est pas du tout le même puisqu’un même type de raisonnement peut avoir deux résultats différents. Alors qu’en mathématiques, nous pouvons arriver à un même résultat par différents chemins. Je donne aussi un exemple : quand j’étais à l’école de la magistrature, en sortie, nous avions une épreuve de jugement civil. Deux tiers de la promotion avait statué dans un sens quand un tiers avait statué dans l’autre. Il y a donc bien un aléa.

Jacques Lévy Vehel, de son côté, a expérimenté un litige personnel au cours duquel son avocat lui a dit que l’on ne pouvait pas évaluer l’aléa judiciaire. Cela l’a contrarié puisque calculer les probabilités et mesurer les aléas étaient justement sa spécialité, y compris dans des domaines très complexes. Il existe une étude qui rappelle que cet aléa existe non seulement entre deux juges, mais aussi pour un seul et même juge. En fonction des dossiers précédents, de la tardiveté de l’audience, il est possible d’avoir une issue différente. Cette réalité a été démontrée dans une étude intitulée « Des juges sous influence[5] » parue au Cahier de la justice, dans le numéro 4, en 2015.

Il s’agit dans ce contexte de démontrer de façon probabiliste l’aléa judiciaire. Les millions de décisions de justice rendues chaque année peuvent nourrir un système pour lui apprendre à raisonner avec les mêmes résultats qu’un juge, avec une fiabilité dont on vous expliquera comment elle est vérifiable. Il est temps de vous montrer comme cela fonctionne.

Intervention de Jacques LEVY-VEHEL

L’idée est d’utiliser l’intelligence artificielle pour, dans un sens, modéliser le processus de décision judiciaire en tenant compte de l’aléa irréductible. C’est, en tant que mathématicien, ce qui m’intéressait : en théorie, on ne peut pas prédire ce qu’il va se passer, puisque deux juges ne prendront pas la même décision, ou le même juge ne prendra pas la même décision le matin et le soir. Notre outil va alors donner à voir l’ensemble des décisions qui seraient prises sur un dossier donné.

Il s’agit d’abord de caractériser un dossier, de choisir un contentieux dont vous voyez la liste s’afficher derrière moi. On peut prendre l’exemple concret des prestations compensatoires. Dans une première étape, il y a certes une intelligence artificielle, mais c’est surtout du droit, et l’humain qui agit plutôt que la machine. Un juriste spécialiste, ici Jérôme Dupré, décrit la majorité des critères qu’il utilise pour prendre sa décision. Au cours de nos discussions avec d’autres magistrats, nous avons pu extraire certains critères principaux.

Il y a évidemment les critères donnés par la loi. Dans le cas des affaires familiales et des prestations compensatoires, il faut, selon les textes de loi, prendre en compte la durée du mariage, les patrimoines, etc. D’autres critères ont été mis à jour. Il faut ensuite analyser la jurisprudence passée : nous prenons en compte les décisions de première instance ou d’appel. En analysant ces décisions au jour des critères précédemment définis, il est possible de constituer une base de données. Enfin, dans une troisième étape, l’intelligence artificielle intervient.

Nous allons apprendre à la machine à reproduire les décisions à partir des critères. Pour prendre un exemple, vous avez sûrement entendu parler des machines qui jouent au go ou au poker et qui battent les humains Nous leur donnons les règles du go, et puis nous leur montrons des anciennes parties et nous leur apprenons à apprendre. Il s’agit de reproduire ce schéma avec notre logiciel : nous lui donnons les règles du droit – les anciennes parties, c’est-à-dire les décisions de jurisprudences passées – et nous lui apprenons à prendre une décision qui est indistinguable, dans un certain sens, des décisions qui seraient prises sur un dossier caractérisé dans une cour d’appel. Comme le nombre de critères n’est pas infini, qu’il est forcément restreint et que chaque dossier est unique, l’on ne peut pas caractériser totalement un dossier. C’est pour cette raison que l’on peut avoir plusieurs décisions, en plus de la variabilité dont vous a parlé Jérôme Dupré auparavant.

Certains critères sont obligatoires quand d’autres ne le sont pas. En général, les critères se distribuent entre ce qui concerne la juridiction et ce qui concerne chacune des deux parties. Par exemple, en cas de licenciement, nous aurons le salarié et l’entreprise. Dans une prestation compensatoire, nous aurions évidemment le créancier de la prestation, s’il est donné, et le débiteur. Pour chaque partie, il est possible de donner l’âge, l’état de santé, les revenus annuels, les droits à la retraite, le patrimoine…

Ces critères sont donnés à la machine, qui effectue ensuite des calculs. La machine peut être vue comme une sorte de juge virtuel, avec beaucoup de modestie. Le travail est évidemment beaucoup plus complexe pour un vrai juge. Nous modélisons les décisions de manière simplifiée, tout en tenant compte de la variabilité. Nous allons par exemple modéliser cent juges virtuels, cent machines qui modélisent le processus de décision et qui sont chacun indépendants. La machine rend compte des critères qu’utilisent chacun des juges, de la probabilité de la décision – sur 100 dossiers équivalents par exemple, 97 ont accordé une prestation compensatoire –, puis donner un histogramme des montants possibles de compensation. Cet histogramme permet de donner le montant le plus probable selon les décisions antérieures. Tout cela, c’est la modélisation par intelligence artificielle du processus de décisions qui permet ensuite de refléter, de façon prouvée par les mathématiques que, si vous allez à la Cour d’appel de Paris avec tel dossier, la prise de telle décision.

Intervention de Jérôme DUPRÉ

L’intérêt de la présentation sous forme d’histogramme est d’éviter ce qu’on appelle l’effet performatif, c’est-à-dire d’éviter que la présentation du résultat soit de nature à influencer la prise de décision. En sciences humaines, le fait de présenter un résultat – et on le voit par exemple en finance – a nécessairement une action sur le comportement des agents. La présentation par histogramme permet d’éviter cela en n’imposant pas une seule bonne décision. Cela montre en réalité aux magistrats leurs propres pratiques. Il faut enfin mentionner les éthiques que nous nous sommes posées sur ces sujets et plus généralement sur l’intelligence artificielle.

Intervention de Patrick GOHET

Rappeler la fonction de l’institution du défenseur des droits permet de mieux comprendre les initiatives qui sont les nôtres en matière de numérisation. L’institution du défenseur des droits est une autorité administrative indépendante de nature constitutionnelle dont la vocation est la défense des droits et des libertés. Elle présente quatre domaines d’intervention, et la question du numérique est prégnante dans chacun d’entre eux : l’accès aux services publics, la défense des enfants, la déontologie de la sécurité et la lutte contre les discriminations et la promotion de l’égalité. Je couvre ce dernier domaine au sein de l’institution.

Les procédures auxquelles nous recourons sont les procédures du contradictoire et du règlement à l’amiable. Nous ne sommes pas des juges. Nous sommes des médiateurs. L’institution du défenseur des droits est également implantée sur le terrain, puisqu’il y a au siège 250 collaborateurs qui sont à la fois des juristes et des sociologues. Nous avons aussi 500 délégués sur le terrain, et 100 de ces délégués ont été formés pour être des référents handicap. Notre rapport 2017 sera bientôt rendu public. Pour la première fois depuis que l’institution existe, le handicap est la première cause des saisines qui nous parviennent, ce qui représente 22% des saisines. Jusqu’alors, les discriminations dues à l’origine des plaignants étaient la première cause de plainte. Si l’on ajoute à cela, parmi les 25 critères de discrimination existants, l’état de santé, l’âge et la perte d’autonomie, l’on atteint un tiers des saisines.

L’institution possède également des liens avec la société civile : nous avons constitué des comités d’ententes, dont un concernant le handicap. La question de la numérisation revient fréquemment dans le cadre des travaux de ce comité. Enfin, l’institution a un pouvoir de recommandation. Ce fut le cas lors des discussions de la loi pour une République numérique. Il s’agissait d’abord de rappeler que le handicap est multiforme et ne présente pas une réalité unique : chaque handicap appelle une réponse appropriée. Le handicap sensoriel est un handicap extrêmement concerné par la question de la numérisation. C’est une question majeure pour les aveugles, les sourds, les malentendants. La plupart des réclamations nous parvenant à propos du numérique concernent le paiement dématérialisé imposé pour certaines cotisations, assorti d’une pénalité en cas de refus, l’automatisation des procédures à La Poste…

Ce n’est pas une situation facile pour les populations handicapées, et les personnes âgées connaissent les mêmes difficultés avec la dématérialisation de l’accès à l’information auprès des services publics. L’accès à internet est aujourd’hui essentiel pour connaître l’avancement du traitement des dossiers de prestation ou de remboursement, notamment en ce qui concerne les maisons départementales des personnes handicapées qui établissent, gèrent et mettent à jour les dossiers en ligne. Les inégalités territoriales ne cessent de se creuser sur le plan de la dématérialisation des procédures administratives, que ce soit les demandes de prestations ou d’obligations de déclaration par internet, la protection et la confidentialité des données médicales et la commercialisation des données, le faible niveau d’équipement en télécommunications de certains territoires…

C’est ce qui ressort objectivement des saisines qui nous parviennent, particulièrement le faible niveau d’équipement en télécommunications et les problèmes d’accessibilité numérique pour les personnes en situation de handicap. Ce sont aussi des préoccupations qui concernent certaines personnes avançant en âge. Le recours à des critères de discrimination interdits pour procéder à l’évaluation des clients – l’âge, le lieu de résidence, la nationalité – est rendu possible par les formulaires à compléter en ligne pour avoir accès aux biens et services proposés sur internet.

Cependant, le défenseur des droits n’est pas un adversaire du numérique. Le numérique est une évolution irrémédiable. Le tout, c’est de l’accompagner, de l’adapter pour que l’accès aux droits et l’égalité de traitement ne rencontrent pas d’obstacles. Nous avons fait à ce propos un certain nombre de propositions. On peut citer par exemple le recours à des logiciels et matériels spécialisés comme des synthèses vocales ou des plages en braille pour les internautes aveugles ou malvoyants, la personnalisation de l’affichage du site selon les besoins en grossissant les caractères ou en modifiant les couleurs. Ce sont des propositions très concrètes, mais cela rend possible l’usage de tout outillage numérique. C’est le cas aussi de la possibilité de naviguer uniquement avec le clavier ou un écran tactile, sans utiliser de souris. Or, beaucoup de sites ne remplissent pas ces conditions. Nous avons insisté lors de la législation sur la République numérique sur la nécessité de renforcer l’obligation de mise en accessibilité. Nous l’avons obtenu, notamment de la part du Comité interministériel du handicap : l’accessibilité des dix sites internet publics les plus utilisés a été garantie.

Il faut cependant prendre acte que tout ne sera pas fait en un jour, malgré d’authentiques efforts. Il y a des conditions techniques parfois difficiles, mais la volonté politiques est là. Il y a aussi la question du plan « Préfecture nouvelle génération » : c’est un plan qui ne manque pas de provoquer des difficultés pour nos concitoyens car il n’y a plus d’accueil du public. Il faut alerter les pouvoirs publics sur le problème de transition. Des spécialistes prennent des dispositions générales, certainement de qualité mais souvent au niveau parisien, et l’on néglige le fait d’organiser une transition pour les publics qui sont exposés à des difficultés.

Pour pallier à ces difficultés, nous avons souhaité former nos délégués à la résolution de ces problèmes – je rappelle que nous avons 500 délégués, dont 100 sont spécialisés dans le domaine du handicap. Des permanences hebdomadaires ont été mises en place. La plupart de nos délégués sont des bénévoles indemnisés. Pour 95% d’entre eux, ce sont d’anciens professionnels du droit. Les permanences font recette. Encore une fois, la révolution du numérique est une évolution irréversible, mais il faut réexaminer l’accompagnement de tout public susceptible d’être marginalisé par ces évolutions. Il faut que ces personnes puissent être accompagnées et protégées des revers du numérique, elles doivent pouvoir accéder à l’information ou remplir des documents. L’obligation de la République, c’est de permettre l’accès aux outils du service public, quelles que soient la situation ou la condition d’un citoyen. C’est la première obligation de la République, et vous pouvez compter sur le défenseur pour œuvrer de manière positive pour faciliter la transition numérique pour les populations dont je viens de parler. Je vous remercie de votre attention.

INTELLIGENCE ARTIFICIELLE, ALGORITHME : IMPLICATIONS SUR LA STRATÉGIE DES ÉTATS

Intervention de Kavé SALAMANTIAN

Mon discours sera développé autour de trois aspects : comprendre pourquoi l’intelligence artificielle et le numérique revêtent aujourd’hui une telle importance, comprendre les enjeux, les changements et les problématiques engendrés par l’intelligence artificielle et le numérique, et enfin comprendre la stratégie de différents États en matière d’intelligence artificielle.

Premièrement, le numérique et l’intelligence artificielle connaissent une explosion aujourd’hui car nous avons une capacité de calcul et de traitement de l’information qui est extrêmement importante. C’est en réalité une augmentation très régulière du fait de la loi de Moore : nous avons multiplié par deux les capacités de traitement tous les 18 mois sur une période d’une quarantaine d’années. Avec l’arrivée d’Internet et de l’interconnexion, nous avons eu aussi une augmentation notable du volume d’informations mises à disposition. Par exemple, 80 heures de contenu vidéo sont rajoutées chaque minute sur le seul site YouTube. Nous baignons aujourd’hui dans un environnement de données.

De plus, le domaine scientifique, et notamment le domaine de la statistique, de mon point de vue, a beaucoup évolué ces 30 dernières années en termes aussi bien conceptuels qu’en termes d’application. Jusqu’à une période assez récente, le domaine statistique, même en France, était perçu comme un domaine marginal des mathématiques qui n’était relatif qu’à certaines administrations de l’État – l’INSEE et l’ENSEA, la principale école de statistiques française. Mais, depuis 30 ans, la statistique est devenue un élément central de toute formation, même dans le domaine littéraire.

Enfin, depuis une quinzaine d’années, nous observons une évolution de la pratique statistique. Alors qu’elle s’intéressait principalement à des statistiques agrégées et globales, nous assistons aujourd’hui à ce que j’appellerais une spécialisation de la statistique, c’est-à-dire une application individuelle d’éléments de statistiques. Par exemple, un site de vendeur en ligne appliquera un certain modèle statistique à votre personne. Une grosse partie des problèmes vient de cette spécialisation. Dernier élément, nous avons la possibilité aujourd’hui d’agir en utilisant ces informations statistiques et ces données, et ce traitement, et donc la boucle qui consiste à observer et agir est totalement bouclée.

Revenons un petit peu en arrière, et posons-nous la question : comment a été introduite l’informatique ? Le principal modèle informatique que nous avons aujourd’hui – le modèle de la machine de Turing – a été introduit sous forme de ce que l’on appelle l’ordinateur Oracle. L’on pose une question à l’ordinateur, qui a été programmé pour répondre à cette question et donne une réponse équivoque : oui et non. En fin de compte, tout le traitement de l’ordinateur – cette fameuse notation sous forme de bits, de 0 et de 1 – est de transformer la réponse d’un problème en une séquence de oui ou non. De ce point de vue, l’ordinateur apparaissait comme une espère d’oracle, au sens de Python de Delphes cachée derrière les rideaux, assise sur un trépied, répondant aux questions. Une différence est à noter cependant : les réponses de l’oracle avaient besoin d’être interprétées alors que les réponses de l’ordinateur sont claires – 0 ou 1.

D’autres éléments sont sous-jacents à cela : le théorème de Turing et ses travaux, la réponse au théorème de Gödel, au problème de Poincaré démontrant que le modèle de calcul de Turing est un modèle universel. En ce sens, toute question qui peut être traitée par une séquence d’opérations peut être traitée par un ordinateur, à partir du moment où il est programmé. À ce titre, plus de 60 ans d’expérience de programmation montrent que le travail nécessaire pour écrire un programme est un travail énorme. On passe alors de la vision de l’ordinateur oracle neutre, qui n’est là que pour répondre aux questions à la vision où l’ordinateur, du fait de la complexité du développement, ajoute un certain nombre de contraintes et introduit un système.

J’explique : quand vous avez introduit un ordinateur et un système informatique, il n’est plus possible de poser n’importe quelle question. On ne peut poser que les questions pour lesquelles il existe un programme, et seulement dans un certain format. Un ordinateur introduit alors son système, sa logique, ce que j’appellerai son algèbre au sens arabe du terme – sa contrainte. Est-ce qu’une équation n’est pas obligée d’être des deux côtés égale ? C’est par la contrainte que vous obligez une équation à être égale à 0. Là aussi, le système informatique ajoute une contrainte algébrique au monde qui l’entoure. Cette contrainte algébrique est fondamentale. On le voit très bien : chaque personne qui a un jour utilisé un ordinateur s’est retrouvé frustré par le fait que l’ordinateur l’ait obligé à interagir avec lui d’une façon donnée, et non pas de la façon dont nous le souhaitons.

Un des éléments très importants à prendre en compte, c’est donc cette déviation de l’informatique oracle à l’informatique système, ce qui introduit une différence fondamentale. L’informatique apparaît ainsi comme un moyen d’ajouter de l’ordre. Cela aide par exemple à la comptabilité. L’informatique dresse également ses acteurs à agir d’une certaine façon. Je vais donner un exemple très concret : l’un des outils ayant abouti à l’émergence de l’informatique sur des ordinateurs personnels est le tableur. C’est outil sublime permettant de transférer la vision de la comptabilité dans un système. Pourtant, aujourd’hui, le tableur est tellement généralisé que, finalement, toutes les sciences de gestion et l’économie ne sont vues que par le prisme de ce tableur. C’est ce que je nomme la dictature d’Excel : tout ce qui ne peut pas rentrer dans un tableur n’existe pas.

Vous arrivez alors à une situation où l’environnement économique est dirigé par le tableur. Par exemple, il y a quelques années de cela, un étudiant à l’université d’Amherst aux États-Unis a essayé de refaire les calculs d’un article très important qui est la base de toutes les politiques d’austérité mises en place en Europe et dans d’autres pays. Il s’est aperçu qu’il n’y arrivait pas et a découvert une faute de calcul. L’article parlait d’une contrainte de 3% du déficit public alors que la contrainte serait à 13% sans la faute. L’impact de cette erreur de calcul est réel. La fenêtre Excel a ainsi un impact réel sur le monde lorsque l’on sait que 8% des cases en moyenne dans une feuille de calcul comportent des erreurs.

L’informatique a donc dicté son point de vue sur la construction de notre système d’éducation au management et à l’économie. Si j’en reviens à des problèmes relatifs à l’intelligence artificielle, l’ordinateur impose sa propre logique et son propre système. Assez fréquemment, nous sommes confrontés à ce que l’on appelle des conflits de rationalité : le système informatique dit quelque chose quand le monde réel dit autre chose. Par exemple, lorsque vous allez à l’hôpital, si votre carte de sécurité sociale n’est pas entrée dans le système, on ne vous traite pas alors que la personne est réellement malade. C’est ce que j’appelle un « conflit de rationalité » puisque la rationalité du monde réel entre en conflit avec la rationalité du monde informatique.

Le rôle principal de l’intelligence artificielle est de construire une nouvelle rationalité basée sur des observations. Nous avons tendance à penser que, parce que l’intelligence artificielle est complexe avec des formules mathématiques, elle est automatiquement objective. Pourtant, il ne faut jamais oublier que n’importe quel algorithme est une construction humaine. Par exemple, l’algorithme décidant du classement de différents élèves dans différentes universités est basé sur un certain nombre de présupposés. La formule mathématique très complexe qui découle de ces présupposés est un présupposé idéologique.

Un élément important de la relation du citoyen avec l’informatique est de réussir à comprendre et passer outre le brouillard de complexité pour entrer au cœur du système et en voir les présupposés. Nous sommes entrés depuis maintenant quelques siècles dans ce que l’on appelle l’anthropocène : c’est cette période géologique où l’humain peut agir sur son environnement et le changer. La donnée permet alors à l’humain d’agir sur son environnement. Vous avez dans le cadre de l’anthropocène des boucles de réaction que l’on appelle de l’intermédiation où la donnée est transformée d’un format à un autre. Cette intermédiation – ce que font les GAFA – est le principal levier de croissance qui existe actuellement, mais c’est aussi le principal levier de pouvoir.

Je terminerai en énonçant les quatre leviers et cadres méthodologiques de l’utilisation de l’intelligence artificielle par les États et autres acteurs actuels. Le premier argumentaire est l’intelligence artificielle ou le numérique comme un outil économique : ils permettent d’améliorer notre vision économique, et l’intermédiation est dans ce cadre essentielle. Le second est de voir l’intelligence artificielle comme un moyen d’optimiser : l’intelligence artificielle permet de minimiser la consommation d’énergie et d’améliorer le comportement d’un certain nombre d’acteurs par exemple.

Le troisième cadre est très important, voire fondamental pour certains États : l’intelligence artificielle est une voie de contrôle. L’informatique ajoute une contrainte au monde réel. Il est possible de l’utiliser comme une forme de contrôle, et nous avons toutes ces informations sous forme de signaux faibles. Enfin, le dernier cadre est l’intelligence artificielle en tant qu’utopie. Nous avons de plus en plus de mouvements transhumanistes ou toute une partie de la communication politique qui reprend la notion d’utopie d’intelligence artificielle. Merci beaucoup.

RÉPONDRE À LA PEUR DU NUMÉRIQUE :
LES QUESTIONS ÉTHIQUES ENGENDRÉES PAR LE NUMÉRIQUE

Intervention de Jean-Gabriel GANASCIA

Le terme « éthique » renvoie en grec à “éthos”, qui désigne les mœurs, les habitudes des hommes en société, leurs coutumes. Son étymologie est identique à celle de la morale, dont le latin “moralis” désigne les mœurs. Dans un cas comme dans l’autre, cela renvoie aux fondements de l’agir individuel des hommes. Ajoutons à ce rappel que l’on distingue couramment, dans notre pays, l’éthique de la morale pour signifier qu’en référence à son origine grecque, l’éthique s’attache plus à une réflexion sur les principes qui gouvernent nos actions. L’éthique est ainsi une branche de la philosophie, qu’Emmanuel Kant appelle la philosophie pratique, tandis que la morale, en considération de sa provenance morale, serait plutôt d’ordre juridique et porterait sur les lois morales et leur mise en application.

À cet égard, il convient de souligner que dans le monde anglo-saxon, le terme “ethics” renvoie concurremment à un ensemble de règles de comportement – ce que l’on entend en français par morale – et à la réflexion sur le fondement de ces lois – l’éthique. À cela, il convient d’ajouter que, pour qu’une éthique soit possible – autrement dit pour qu’il y ait une réflexion sur l’agir individuel –, il faut que les hommes soient en mesure de décider par eux-mêmes et rationnellement. Il faut aussi qu’ils puissent agir librement. C’est une condition implicite à toute éthique.

L’avènement du numérique désigne une société où la circulation des flux d’information et leur traitement prennent une part déterminante dans la vie quotidienne, dans l’économie et dans les relations entre les hommes. La question à laquelle on m’a demandé de répondre ici porte sur les questions éthiques suscitées par le numérique ; à savoir, en référence à ce dont nous venons de parler, la façon dont le numérique change la réflexion sur le fondement de l’action individuelle des hommes, ce qui correspond au juste, à l’injuste, au bien et au mal. En d’autres termes, nous devons nous demander en quoi le numérique change-t-il, ou modifie-t-il ou encore suscite-t-il des questions d’ordre éthique ?

  1. Réontologisation

Il convient d’abord de rappeler que les notions qui font la trame du tissu social, c’est-à-dire celles à partir desquelles s’établissent les relations entre les hommes, évoluent grandement dans la société numérique. La confiance, par exemple, ne disparaît pas dans le monde numérique mais s’établit différemment. Ce n’est plus la présence et le témoin qui la fonde, ni l’écrit, mais la machine, ou plus exactement la blockchain – une procédure que seuls des réseaux peuvent mettre en œuvre. La réputation, l’amitié, le partage, l’identité ou le travail évoluent également. Pour ce dernier, le travail cognitif s’oppose à l’échange d’énergie : la fatigue n’est plus physique mais mentale, et la surcharge cognitive doit être prise en considération. La rémunération est aussi impactée : le service n’est plus directement rémunéré, le regard l’est. L’on peut ici prendre en exemple Google. Également, les communautés, au sens contemporain, sont des communautés d’intérêt de personnes qui se retrouvent sur la toile parce qu’elles partagent une passion. Cela s’oppose à la communauté de vie, comprenant des personnes différentes (jeunes et vieux, pauvres et riches, etc.) condamnées par leur proximité à partager un destin semblable, et constituant de ce fait des réseaux de solidarité.

Si ce qui fait la trame du tissu social se modifie, on conçoit aisément que les mœurs, à savoir les habitudes de vie soient amenées à évoluer. Avec ces nouvelles réalités, de nouvelles formes de criminalité, d’injustice, de violence naissent et prennent de l’ampleur. Il est désormais possible de créer des torts à un individu sans pression physique, seulement avec une pression informationnelle. Il existe plusieurs exemples comme le vol d’identité, permettant de se substituer à la personne pour lui soutirer de l’argent sur son compte, pour envoyer des messages à sa place, pour détruire sa réputation. En même temps, l’on voit de nouvelles vulnérabilités liées au piratage des dispositifs, par exemple des voitures ou des stimulateurs cardiaques.

  1. Condition de l’éthique dans le monde numérique

Dans toute société, la condition de l’éthique et de la réflexion sur l’agir est la liberté. L’on trouve d’un côté la liberté de penser qui permet de réfléchir, et de l’autre la liberté d’action pour se conformer à ce que l’on juge bon de faire. Ainsi, l’extrême pauvreté conduit les hommes à agir mal, car ils doivent d’abord subvenir à leurs besoins vitaux et à ceux de leurs enfants. Dans la société numérique qui advient, ce n’est généralement plus la faim qui contraint les hommes et qui les empêche d’obéir aux préceptes moraux les plus élémentaires.

  1. Bulle informationnelle

En revanche, pour effectuer une analyse sereine, il faut disposer d’information fiable. Là où, dans le monde ancien, les hommes ne disposaient pas de suffisamment d’informations, et où toute information disponible pouvait alimenter leur réflexion pour les aider à agir, nous nous trouvons au contraire dans un monde d’excès d’informations. Nos capacités cognitives sont saturées. De ce fait, nous restreignons volontairement nos capacités d’attention sur quelques informations, ce qui conduit à des phénomènes de bulle informationnelle tout à fait dommageables.

  1. Liberté de choix

Les dispositifs d’intelligence artificielle qui apprennent sur de nombreux exemples peuvent être bien plus efficients que nous-mêmes. Il se peut, dès lors, que la pression sociale exige des hommes qu’ils se conforment à ces dispositifs et renoncent de ce fait à leur liberté de jugement. Imaginons, par exemple, qu’un outil entraîné par apprentissage machine sur de très grandes masses d’exemples, fasse statistiquement des diagnostics médicaux considérés meilleurs que ceux des médecins usuels. Les assurances sociales risquent d’interdire aux médecins de proposer un diagnostic différent de celui de la machine. Il en résultera une absence de liberté qui fera que le médecin ne prendra plus en considération la personne malade face à lui, mais uniquement des indicateurs statistiques fournis par la machine, sans avoir aucune latitude de décision.

  1. Revisiter les fondements de l’éthique pour le numérique

Les fondements de l’éthique ont considérablement évolué au cours de l’histoire. Dans les sociétés antiques, on se fondait volontiers sur la tradition pour décider de l’action à accomplir ; on faisait quelque chose parce que l’on avait vu ses ancêtres procéder identiquement. Ensuite, avec la philosophie, les notions de bien et de vertu sont venues servir de fondement à l’action juste et donc à la morale. Mais, ces idées de vertu se fondaient sur des valeurs posées a priori. Avec l’âge moderne, les philosophes ont cherché à fonder ces valeurs sur des principes généraux. Certains, comme Emmanuel Kant, ont cherché à déterminer les conditions générales auxquelles les systèmes de maximes devaient obéir. D’autres, comme les philosophes anglosaxons, par exemple Jeremy Bentham ou John Stuart Mill, ont fondé la morale sur l’utilité, à savoir sur la somme des maux et des biens conséquences de nos actions.

Les conséquences des guerres du vingtième siècle ont montré que ces principes éthiques pouvaient conduire au pire. Une éthique de conviction fondée sur des principes généraux peut être néfaste. Et, il en va de même avec une éthique utilitariste. Cela a conduit à des éthiques de la responsabilité. Mais, avec le progrès et la complexité des sciences, l’évaluation des conséquences des choix devient de plus en plus difficile. Les connaissances requises pour parvenir à une décision éclairée demandent des connaissances dont un seul homme ne peut disposer à lui tout seul. Ceci signifie qu’il faut construire la décision de façon collective en tenant compte de différents points de vue et de différentes expertises. C’est ce qui a conduit aux éthiques de la délibération d’Habermas.

Mais, ces éthiques de la délibération ne peuvent conduire à une décision collective acceptée que si les informations sont comprises et acceptées. Or, aujourd’hui, la circulation massive de l’information, son abondance, et la liberté d’expression font que certains tendent à la brouiller par de fausses nouvelles – les fake news. Pour cela, les théoriciens de la philosophie de l’information ont introduit un critère essentiel, celui d’entropie d’information. Cette notion venue de la physique indique que l’ajout d’information inutile et surtout fausse conduit à brouiller les messages et à leur enlever toute intelligibilité. En cela, l’entropie, c’est le mal. Je crois qu’aujourd’hui, dans la société numérique dans laquelle nous vivons, ce critère devient vraiment central pour apprécier la valeur de nos actions.

  1. Le trilemme éthique

Pour conclure et résumer, je crois qu’il faut prendre en considération trois termes qui correspondent à trois aspirations des hommes dans nos sociétés, qui sont toutes les trois légitimes, mais qui entrent en conflit. Cela conduit à une situation de conflictualité entre les hommes et à ce que j’ai appelé un “trilemme” éthique, s’opposant à ce que l’on connaissait comme étant un dilemme éthique. Ce trilemme oppose trois impératifs incompatibles les uns avec les autres :

  • Protéger l’intimité de la vie privée ;
  • Assurer la sécurité ;
  • Garantir la transparence.

 

 

 

TRAVAIL, EMPLOI ET NUMÉRIQUE : DES RAPPORTS AMBIVALENTS

Intervention d’André VITALIS

La révolution numérique, considérée comme la révolution industrielle de notre temps, introduit des changements dans tous les domaines. Elle bouleverse la place et le contenu du travail d’une tout autre manière que les révolutions industrielles qui l’ont précédée. Elle exalte le travail et la croissance économique comme l’ont fait ces révolutions, mais, contrairement à elles, on constate qu’elle supprime plus d’emplois qu’elle n’en crée. Par ailleurs, en ce qui concerne le contenu du travail, on observe une exceptionnelle ambivalence des techniques d’information qui peuvent à la fois favoriser la centralisation ou la décentralisation, l’autonomie du travailleur ou sa surexploitation.

Dans un premier temps, il convient de considérer de plus près, le paradoxe d’une révolution numérique qui exalte le travail mais qui dans le même temps, contribue à le raréfier. Aucune société n’a valorisé le travail comme la nôtre. Selon les historiens et les anthropologues, cette valorisation remonte à la première révolution industrielle du XVIIIe siècle à qui nous devons notre conception actuelle du travail. À une époque d’émergence d’un marché capitaliste, le travail prend la forme d’un rapport social avec d’un côté, des individus qui offrent leur force de travail et de l’autre, des capitalistes intéressés à l’acheter. Cette forme de travail / emploi et de rapport salarial qui la caractérise, intéresse en premier lieu le monde de l’industrie avant d’être étendue à tous les secteurs d’activités. Le travail devient une réalité universelle qui semble avoir existé depuis toujours.

Un bref retour en arrière dans l’histoire des sociétés, montre pourtant qu’il n‘en est rien. Avant le XVIIIe siècle, ce qui allait être appelé travail est encastré dans des environnements religieux et politiques où la priorité lui est rarement donnée. Les chasseurs-cueilleurs ne consacrent que quelques heures de leur quotidien à une activité productrice et ne se montrent pas intéressés à accumuler des richesses. Dans l’Antiquité, l’intérêt porté aux Dieux est plus important qu’un travail jugé subalterne qui est laissé aux esclaves. Le grec ne connaît d’ailleurs pas de terme correspondant à celui de “travail”. Dans le christianisme à ses débuts, la grande affaire est celle du salut, le travail étant vécu comme une punition et une malédiction.

À partir de la fin du XVIIIe siècle, l’économie s’est autonomisée et a pris le pas sur les autres activités. Les premiers économistes libéraux considèrent le travail comme la source de la richesse des nations et comme l’étalon de la valeur de toute chose. Marx critique un rapport salarial d’exploitation qui jette dans une misère épouvantable les ouvriers et leurs familles, sans remettre toutefois en cause la valeur du travail. Au contraire, il en fait l’essence de l’homme et un moyen de transformation du monde. L’histoire humaine est pour lui l’histoire du travail. La figure glorieuse du travailleur prend racine dans cette pensée ainsi que le productivisme des futurs États socialistes. Malgré d’importantes crises, la société de travail avec l’idéologie qui l’accompagne, se consolide avec la deuxième révolution industrielle de l’électricité tout au long du XIXe siècle. L’immédiat après-guerre inaugure une période de prospérité et de plein emploi avec les “Trente Glorieuses”, qui se termine par la crise du début des années 1970.

À cette date, un rapport du Club de Rome alerte sur les dangers d’un productivisme qui épuise les ressources limitées de la planète. Un premier choc pétrolier provoque une panne de croissance et un nombre croissant de chômeurs. Dans un tel contexte, le développement de nouvelles techniques d’information et de communication est considéré par les économistes et les experts comme une possibilité de sortie de crise. Ils estiment que, comme les techniques antérieures de la machine à vapeur et de l’électricité, ces techniques auront des effets positifs sur la croissance et l’emploi. Une société de l’information est alors pensée comme une alternative à une société industrielle en panne, trop polluante et trop consommatrice d’énergie. Cette idée va être progressivement mise en pratique à travers plusieurs étapes. Dans une première étape, au début des années 1970, le gouvernement japonais réalise l’informatisation des grandes fonctions de la vie sociale. Un peu plus tard, suivant les recommandations d’un rapport Nora / Minc sur « l’informatisation de la société »[6], le gouvernement français investit dans la télématique. Une deuxième étape est franchie au début des années 1990, avec l’annonce par le gouvernement américain de la construction d’autoroutes de l’information qui vont bientôt, avec le développement d’internet, être étendues à l’ensemble du monde. Une dernière étape intervient à la fin des années 2000 quand des milliards de personnes utilisant des smartphones, se connectent au réseau mondial. C’est à partir de cette époque que l’on parle de la révolution numérique comme d’une nouvelle révolution industrielle.

Les destructions d’emplois que cette révolution va provoquer ne suscitent pas de craintes excessives. On constate en effet que si, dans un premier temps, les précédentes révolutions industrielles ont supprimé beaucoup d’emplois, dans un second temps, elles en ont créé de nouveaux aussi nombreux. Les gains de productivité ont permis de financer des emplois répondant à des besoins venant d’apparaître. On retrouve ici la fameuse destruction créatrice théorisée par Joseph Schumpeter ou la thèse voisine du déversement défendue par Alfred Sauvy, qui prend l’exemple des 20 000 porteurs d’eau du Paris du début du XIXe siècle remplacés par l’installation de canalisations. On est ainsi passé d’une économie agricole à une économie de l’industrie puis à une économie dominée par les services.

Cependant, des prospectives mais surtout des constats montrent que la théorie de la destruction créatrice ne peut être appliquée à une révolution numérique dont on peut mesurer chaque jour les effets. En 2011, deux chercheurs du M.I.T., dans un livre consacré au « Deuxième âge de la machine[7] » reprochent aux économistes et aux hommes politiques de sous-estimer et de ne pas prendre en compte l’impact négatif des techniques d’information sur l’emploi. Bien qu’ils se montrent optimistes sur leurs effets globalement bénéfiques sur la croissance économique et la création de nouveaux services, ils font le constat que, pour la première fois dans la croissance américaine, depuis le début des années 2000, les gains de productivité n’entraînent aucune hausse des emplois. Alors qu’auparavant la machine était complémentaire du travail humain, elle tend aujourd’hui à le remplacer notamment dans des tâches de cognition, en faisant preuve de plus d’efficacité.

Un autre livre sur « L’avènement des machines[8] » publié en 2017 par un entrepreneur de la Silicon Valley, établit un bilan plus détaillé des conséquences destructrices pour l’emploi du développement de l’automatisation au cours de la dernière décennie. Chiffres à l’appui, il constate : la baisse de la part du travail dans le revenu national américain, la baisse de la population active, la diminution de la création d’emplois, la hausse du chômage de longue durée, le sous-emploi des jeunes diplômés et la baisse de leurs revenus, la disparition des emplois traditionnels de la classe moyenne remplacés par des emplois de service à bas salaires ou par des emplois hautement qualifiés. Toutes ces évolutions se sont faites au rythme d’une inégalité croissante. Les emplois tendent à se polariser avec d’un côté, une très petite minorité de super-cadres aux revenus confortables et de l’autre, des individus peu qualifiés confinés à des tâches mal payées non encore automatisables.

Les prospectives sur le devenir des emplois dans un contexte numérisé se sont multipliées. En 2013, deux chercheurs de l’université d’Oxford publient une étude sur la question qui fait l’effet d’une véritable bombe. Ils considèrent en effet, que 47 % des emplois américains consacrés à des tâches routinières, ont toutes les chances d’ici deux décennies, d’être occupés par des robots. La plupart des travailleurs dans les transports et la logistique, de même que l’essentiel des emplois administratifs et les ouvriers dans les usines, seraient susceptibles d’être remplacés par des machines. Il en va de même pour une proportion substantielle de services. Les pourcentages avancés sont à peu près du même ordre pour les pays de l’Union européenne. Les rapports prospectifs ultérieurs ont revu très fortement à la baisse ces prévisions. Proches des prévisions effectuées par l’OCDE, le Conseil français d’orientation de l’emploi estime dans un rapport de 2017 que seulement 10% des emplois existants seraient menacés et 50% susceptibles d’évoluer dans leur contenu. Il note cependant qu’il existe un risque significatif voire massif pour l’emploi. À long terme, selon plus de 300 experts en intelligence artificielle interrogés par une équipe d’Oxford en 2017, il y a 50% de chances que les machines soient plus performantes que nous dans toutes tâches dans 45 ans et que tous les métiers soient automatisés dans 120 ans.

En ce qui concerne le contenu du travail, on observe une très grande ambivalence des techniques d’information qui peuvent aussi bien favoriser l’autonomie du travailleur qu’être mises au service de sa surexploitation. Ainsi, les techniques numériques ont permis à de nouvelles catégories de personnes de devenir des travailleurs indépendants. Bénéficiant d’un équipement informatique à domicile et connectés à internet, ces travailleurs sont en mesure de répondre aux offres des entreprises qui externalisent un certain nombre de services à haute valeur ajoutée dans les domaines de l’informatique, de l’audiovisuel ou de la communication. Il s’agit en général de personnes bien formées qui choisissent ce statut pour éviter le chômage ou pour mieux maîtriser leur temps et mener des projets personnels. Sous ce même statut indépendant, un petit nombre d’individus créatifs dans les domaines de l’art et de l’artisanat, profitent du brouillage des frontières opéré par le numérique entre le monde du travail et celui du loisir, pour tenter de professionnaliser une activité réalisée par passion en amateur.

Ces mêmes techniques qui facilitent l’autonomie, facilitent aussi et même aggravent l’exploitation des travailleurs en prolongeant et intensifiant les méthodes tayloristes qui découpent de travail en tâches simplifiées et routinières. En introduisant plus de contrôle, elles permettent de perfectionner ces méthodes toujours en vigueur dans les emplois précaires de la grande distribution, de la restauration rapide ou des centres d’appel. Des moyens de plus en plus sophistiqués sont mis au point pour la gestion et la surveillance des ressources humaines. Par exemple, dans le domaine de la logistique, un logiciel de guidage vocal donne des ordres au préparateur de commande équipé d’un casque. Il lui indique les différents articles commandés et l’endroit où il doit les prendre. La préparation de commande est devenue une course de vitesse ou le préparateur est traité comme un appendice de la machine avant certainement d’être remplacé par elle.

Les exemples d’ambivalence les plus illustratifs concernent d’une part, la libération des capacités des individus permises par l’invention de la micro-informatique dans les années 1980 et d’autre part, les conditions de travail dégradées qu’organise la plateformisation des économies depuis le début des années 2000.  Le micro-ordinateur connecté à un réseau a permis l’émergence dans les années 1980, d’une nouvelle façon de travailler en rupture complète avec celle du salariat. Façonné par une contre-culture californienne en relation avec les milieux de la recherche informatique, cette machine informatique a été inventée pour accroître le pouvoir de l’individu face aux grandes organisations. Le premier ordinateur Macintosh d’Apple est présenté en 1984 comme un objet qui anéantira les bureaucraties et permettra le développement de la liberté personnelle. Cet objet technique utilisé par de petites communautés en ligne constitue une ressource essentielle pour organiser un mode de vie autonome centré sur l’autoproduction. Portée par les hippies et les hackers, une culture inédite du faire s’est imposée comme une alternative au travail salarié. L’individu hors des contraintes de la hiérarchie et de la division des tâches, mène une activité autonome pour son plaisir, au sein d’une communauté où le travail de chacun sera partagé gratuitement. Les logiciels libres et l’encyclopédie en ligne Wikipédia témoignent de la fécondité de ce mode collaboratif de travail que l’on retrouve aujourd’hui sur le réseau ou dans certains tiers lieux.

Internet, après avoir été plateformé par de grandes entreprises américaines en situation de quasi-monopole, modifie les conditions de travail et souvent les aggrave. À côté des sites gratuits et communautaires des débuts du réseau, sont apparus au début des années 2000, des plateformes marchandes qui, moyennant rétribution, mettent en relation des clients de services et une masse éclatée de travailleurs précaires. Ces travailleurs indépendants, sans grande qualification, sont à la recherche de petits travaux, en menant souvent de front plusieurs activités. Fortement dépendants des plateformes, ils travaillent à la commande sans les garanties et la sécurité sociales qu’offre le salariat. Toute une gamme de travaux est proposée avec des conditions de travail plus ou moins dégradées. La plateforme de taxi Uber, une des plus connues, laisse aux chauffeurs auto-entrepreneurs une grande latitude dans l’accomplissement de leurs tâches. Hopword, une des plus grandes plateformes américaines, met en relation les entreprises et les travailleurs des métiers de bureau dans 180 pays. À partir des notes attribuées par les entreprises, elle conserve certains travailleurs et en élimine d’autres. Sur la plateforme Amazon Mechanical Turk, les donneurs d’ordre accèdent à une main d’œuvre massive et variée qui réalise les petites tâches qu’un ordinateur ne parvient pas à accomplir comme l’analyse et le classement du contenu de milliards de données et d’images. Cette main d’œuvre résidant dans des pays les plus pauvres, est recrutée pour un mois ou un jour et rémunérée une misère.

Pour éviter une surexploitation du travailleur, une régulation de ces conditions de travail est nécessaire. Plus généralement, il convient de s’interroger sur l’avenir du travail dans une société automatisée qui le raréfie. Comme l’écrit un économiste, « dans le futur nous allons voir de plus en plus de choses qui ressemblent à de la science-fiction et de moins en moins qui ressemblent à des emplois[9] ». Dans une note d’octobre 2016, le Conseil d’analyse économique fait le constat que, dans une économie numérique les professions intermédiaires vont se raréfier et que la création d’emploi se polarisera autour d’emplois bien rémunérés de haut niveau et d’emplois peu qualifiés de services à la personne. Alors que le premier type d’emploi ne concerne qu’une minorité, le plus grand nombre héritera des emplois les plus précaires et les plus mal-payés. Devant une évolution aussi régressive, la question se pose de savoir comment l’on peut éviter de poursuivre dans cette voie.

Trois réponses principales ont été proposées :

  • Imposer des limites à l’automatisation : cela consiste à ne plus donner la priorité à l’innovation technique mais à l’épanouissement social et personnel des individus. L’emprise des techniques numériques menace en effet l’autonomie de décision, les savoir-faire, les capacités intellectuelles. Des résistances et des luttes peuvent vouloir imposer ces limites. Cependant l’établissement de limites est une proposition qui a très peu de chances d’être retenue. Dans la recherche continue de productivité et de diminution des coûts qui caractérisent les économies en concurrence, investir dans les machines permet d’économiser de la main d’œuvre. Après le camion sans chauffeur, le premier magasin sans aucune caissière vient de voir le jour.
  • Réduire le temps de travail : la réduction drastique du temps de travail constitue une deuxième réponse. Elle est parfaitement résumée dans la formule « travailler moins pour travailler tous». En un siècle et demi, grâce aux gains de productivité réalisés, la durée annuelle moyenne du travail, a été divisée par deux. Les critiques et polémiques suscitées par la loi française sur les 35 heures montrent cependant que même mimine, une réduction du temps de travail, est loin de faire l’unanimité.
  • Instaurer un revenu non lié au travail : c’est la réponse la plus nouvelle proposée lors de la dernière élection présidentielle. Il s’agit d’instaurer un revenu d’existence qui serait versé indépendamment de la participation à une activité productive. Le membre d’une société riche mais pauvre en emploi, du seul fait de son existence, doit pouvoir bénéficier d’un minimum de ressources.

Ce revenu universel non lié au travail, qui fait aujourd’hui l’objet de nombreuses expérimentations, est proposé à partir de deux conceptions très différentes. Dans une première conception libérale, il s’agit surtout de rationaliser l’aide sociale, de réduire la pauvreté sans remettre en cause la distribution des richesses.

Dans une deuxième conception plus radicale, le revenu universel se présente comme la première étape d’une reconstruction sociale et politique. Il doit permettre à l’individu de faire face à ses besoins essentiels d’existence dans une société où le recours aux automates restreint le travail humain mais où les richesses ont été multipliées par deux aux cours des quarante dernières années. Déconnectant le versement d’un revenu permettant de vivre, de l’accomplissement d’une activité productive, elle remet en cause la place centrale qu’occupe le travail depuis deux siècles et réduit l’importance qu’il a prise dans l’intégration sociale. Une allocation de ce type serait de nature à dédramatiser la situation des individus devenus économiquement inutiles et à réduire le fossé qui sépare les personnes ayant un emploi de celles qui n’en ont pas. Dès le début des années 1980, des penseurs comme Jacques Ellul et André Gorz se sont fait les promoteurs de ce type de revenu, en faisant l’analyse que dans une société en voie d’automatisation, la valeur est davantage produite par la croissance des moyens scientifiques et techniques que par le travail vivant. Dans ces conditions, une nouvelle répartition socialisée de la richesse produite s’impose pour donner à chaque individu les moyens de vivre et de bénéficier d’un temps libéré de la contrainte économique.

Un temps libéré de cette contrainte fait naître beaucoup de craintes. Que devient la vie humaine si elle n’est pas remplie par le travail, s’interrogeait Keynes dès les années 1930, et que va faire l’ouvrier qui ne sait que travailler, s’inquiétait Hannah Arendt dans l’immédiat après-guerre ? Il est difficile d’imaginer les occupations d’un temps soustrait à l’emprise marchande et à la rationalité économique. Il faut noter cependant que ce temps donné à l’expression personnelle peut être aussi un temps de travail mais d’un travail réinventé et fondé sur d’autres valeurs que la course à la productivité et à la compétitivité.

CYBERSÉCURITÉ ET CYBERMENACES

 Intervention de Cédric LAURADOUX

Ces dernières années, les médias se sont faits les échos de nombreux cas d’attaques informatiques retentissants : les malwares stuxnet, wannacry, notpetya ou la fuite de données Equifax sont certainement les plus connus. Ils ont été capables d’avoir un impact considérable sur des infrastructures critiques comme le nucléaire iranien (stuxnet) ou le système de santé britannique (wannacry). La France n’a pas été épargnée comme le souligne la Revue stratégique de cyberdéfense du Secrétariat général de la défense et de la sécurité nationale[10]. Le cas de la fuite de données du Parti Socialiste nous rappelle que ces problèmes ne sont pas si éloignés de nos préoccupations quotidiennes. Il est inéluctable qu’à un moment de notre vie, nos données personnelles seront dérobées ou exposées sur la place publique. La question de la confiance dans le monde numérique est donc primordiale.

  1. Sécurité

La sécurité est l’art d’analyser et gérer des risques quels qu’ils soient (sanitaire, terroriste, informatique. Pour toutes menaces informatiques, le risque zéro n’existe pas. C’est d’autant plus vrai qu’on estime qu’un bon programmeur commet en moyenne une erreur toutes les dix lignes dans un code. Ces erreurs engendrent des vulnérabilités pouvant être exploitées par des attaquants à diverses fins.

Qui sont ces attaquants ? Le mythe de l’adolescent curieux dans son garage est terminé. Les attaquants ont suivi des cursus universitaires, sont hautement qualifiés : ce sont des experts dans leur domaine. Les attaquants se sont regroupés et organisés pour effectuer des attaques de plus en plus complexes. Les groupes de hackers les plus connus sont certainement Anonymous ou Fancy Bear. Ils sont indépendants ou associés à des États ou dans le pire cas au service d’organisations criminelles. Mais les attaques informatiques ne sont plus uniquement réservées à ces groupes d’élites. N’importe qui peut s’offrir des prestations d’attaques informatiques contre une somme modique via des forums spécialisés et grâce aux nouvelles crypto-monnaies.

Qui sont leurs cibles ? Le spectre est large : individus, entreprises, banques, administrations, opérateurs d’infrastructures critiques et même des partis politiques comme lors de la dernière élection américaine. L’audace des attaquants ne connaît plus de limites. Face à la recrudescence des attaques, les états se sont dotés d’un arsenal législatif afin de pouvoir lutter contre les attaques informatiques sur le plan national ainsi que de moyens pratiques comme la sous-direction de lutte contre la cybercriminalité (SDLC).

Cependant tous les efforts des états semblent vains à freiner la croissance des attaques. Le caractère dématérialisé est le principal obstacle : les attaques sont systématiquement réalisées hors du territoire national. Le problème de l’insécurité du numérique ne peut pas être seulement traité au niveau national, il a forcément une dimension internationale. Si des accords de coopération existent entre certains États en matière de sécurité numérique, un texte global fait encore défaut. Il reste ainsi des zones grises dans le droit international dans lesquelles s’engouffrent les attaquants.

  1. Impunité

Quand on subit une attaque informatique, on est frappé par le sentiment d’impunité que peuvent avoir les attaquants.

  • Dissuasion

Il est tentant pour un État de reproduire une doctrine équivalente à la dissuasion nucléaire. « Si vous attaquez mes réseaux alors je détruirais les vôtres ». Les préjudices étant extrêmes, une situation d’équilibre pourrait s’installer. Cette doctrine trouve principalement écho aux États Unis avec l’amendement sur le Cybersécurité et cybermenaces Hatchback autorisant des sociétés ou des individus à exercer directement des représailles en cas d’attaques informatiques. Il s’agit de comprendre s’il est possible ou non de transposer le modèle de la dissuasion nucléaire vers le numérique.

Contrairement aux armes nucléaires, les armes informatiques sont faciles à développer et à propager. Elles peuvent avoir des conséquences pour les États mais détruire les réseaux / systèmes qui les ont conçus ne présente aucun intérêt puisque leurs coûts sont très modestes. En somme, les préjudices des armes informatiques sont importants tandis que ceux des représailles ne le sont pas. Cette dissymétrie est clairement un obstacle à une doctrine basée sur la dissuasion.

  • Attribution

L’identification des attaquants est un prérequis pour la dissuasion et d’un point de vue juridique. Sans cette étape clé, rechercher à exercer des représailles est dangereux car on risque des dégâts collatéraux voire une escale en cas d’erreur. Or, l’identification certaine est presque impossible lors d’une attaque informatique. L’illustration parfaite nous en a été donné lors de la dernière élection américaine. Aujourd’hui personne n’est capable d’affirmer concrètement qui a attaqué le Parti Démocrate malgré de nombreuses investigations et les nombreuses mains pointant vers la Russie. Il ne servirait donc à rien pour un État de faire démonstration de sa puissance numérique pour dissuader des attaquants d’entreprendre des actions contre lui.

  • Contrôle

Si la dissuasion ne semble pas possible, un contrôle des armes numériques peut paraître être une alternative afin d’éviter une prolifération. L’Arrangement de Wassenaar a essayé de mettre un cadre sur les exportations d’armes numériques. Malheureusement, ce texte est très critiqué par la communauté scientifique qui le voit comme une entrave. Les armes numériques sont faciles à produire et à diffuser, des sociétés en font ouvertement le commerce comme la société française Vupen avant que l’État mette un terme à ces activités. Le contrôle lui aussi semble être une voie sans issue.

  1. Quelles solutions ?

L’implication de l’État dans le monde numérique est primordiale pour instaurer une meilleure confiance dans le numérique. Quatre points sont particulièrement importants :

  • Législation forte : Le règlement général sur la protection des données (RGPD) entra en vigueur le 25 mai 2018. Il remplacera la loi Informatique et Liberté qui avait montré des limites en matière de pénalisation et renforce considérablement les droits des usagers.
  • Information pour un usage raisonné et éclairé – Les citoyens doivent pouvoir faire un usage raisonné et éclairé des technologies du numérique. Un grand nombre de nos concitoyens s’expose beaucoup trop sur les réseaux. Nous sommes trop souvent désarmés face aux implications des technologies du numérique. Nos cycles de formation doivent permettre à tous de pouvoir appréhender et comprendre l’impact de ces technologies le plus tôt possible.
  • Diligence raisonnable – Les services de l’État doivent permettre aux entreprises et aux individus de se protéger contre les attaques informatiques et de tout mettre en œuvre pour en limiter les impacts. À ce titre, on peut saluer l’initiative canadienne Assemblyline[11] qui est un outil de sécurité mis à la disposition de tout à chacun par les services de l’État canadien.
  • Transparence – Le déploiement de nouvelles technologies en France doit être cohérent et accompagné afin d’inspirer la confiance à ces utilisateurs. L’échec du compteur Linky doit servir de leçon : volonté d’un déploiement trop rapide, mauvaise communication, manque de concertation avec les partenaires comme la CNIL ont installé un climat de méfiance voire de défiance envers cette technologie.

En conclusion si le tableau semble bien noir en termes de menace, il existe néanmoins des raisons d’espérer si L’État décide de renforcer sa présence et son rôle régulateur dans le monde numérique.

L’IMPACT DU NUMÉRIQUE DANS LA SPHÈRE PUBLIQUE

 Intervention de Yannig GOURMELON

Lorsqu’il y a une dizaine d’années, j’ai commencé à travailler pour des acteurs publics, la question du numérique était très peu évoquée, même au sein de la Direction générale de la modernisation de l’État où je travaillais. Dix ans plus tard, le numérique représente 30 à 40% de nos missions. Il y a quelques temps, Google avait commandé une étude concernant les usages numériques des citoyens français, afin de connaître le marché français et développer ses produits en conséquence. Les résultats de cette étude ont démontré que les français sont parmi les plus actifs d’Europe à propos du commerce en ligne. La France se classe ainsi deuxième concernant les usages commerciaux en ligne, et possède de l’avance sur ses concurrents. Le Bon Coin demeure le premier site de commerce en ligne.

De même, les français sont les mieux équipés en Europe pour accéder aux contenus en ligne depuis leur domicile. L’équipement et les infrastructures sont une fierté que l’on peut reconnaître. En ce qui concerne le streaming musical, la France est quasiment en tête des abonnements des deux plateformes les plus connues, Deezer et Spotify. Ces quelques exemples permettent de comprendre l’impact du numérique dans nos modes de vie. La France est aussi très avancée en matière de plateformes de services : la France est le deuxième marché d’Airbnb derrière les Etats-Unis. La pénétration de plateformes telles que KEOLIS, le covoiturage ou le partage de véhicules est également notable. Alors que 28% des italiens et 19% des espagnols n’ont jamais utilisé Internet – la moyenne européenne est à 16% – seuls 11% des français n’ont jamais utilisé Internet. La France figure ainsi en bonne place derrière les pays hyperconnectés du Nord de l’Europe.

En s’intéressant aux taux de pénétration d’Amazon, de Cdiscount, de la FNAC, d’EBay et de Voyages SNCF, on voit que, dans l’ensemble, le premier magasin est systématiquement le magasin Internet. La France a cependant des points faibles, particulièrement en ce qui concerne le crowdfunding qui appartient plutôt aux cultures anglo-saxonnes. Pareillement, des efforts sont à faire à propos de l’usage du mobile. C’est ici un tropisme européen, le mobile n’est pas encore entré dans les mœurs.

La France a donc un potentiel numérique certain : nous sommes dans un pays qui a de plus en plus recours aux usages numériques, qui se situe souvent à la pointe et qui dispose de très bonnes infrastructures. Les entreprises sont plus en retard par rapport aux usages numériques des citoyens. Les entreprises françaises sont dans la moyenne européenne en matière d’équipement numérique, mais derrière la Suède, le Danemark ou le Royaume-Uni. Et, si la diffusion des usages numériques est réelle pour les grands groupes, elle l’est moins pour les PME.

En ce qui concerne la transformation numérique de l’État, les services publics proposent désormais essentiellement de l’information en ligne. Nous sommes au-dessus de la moyenne, mais nous ne sommes pas extrêmement bien situés. La numérisation des relations entre l’État et les professionnels est assez avancée mais sans originalité.

Si l’on compare avec des pays tels que le Royaume-Uni, la Finlande ou la Norvège, en prenant en compte les grandes verticales comme la qualité de l’eau, les dépenses de l’État, de la propriété foncière, des émissions polluantes, la France est ici en queue de peloton. La transformation numérique de l’État, si elle est réelle, ne nous situe pas de manière compétitive par rapport à ce que peuvent vivre le Royaume-Uni, l’Allemagne ou la Finlande.

Partant de ces constats, quelle est la situation du numérique dans la sphère publique ? Aujourd’hui, en fréquentant à la fois les ministères, les grands opérateurs et les collectivités locales, on se rend compte que le moment est favorable pour que de nouvelles méthodes, de nouveaux processus, de nouvelles idées pénètrent la sphère du public. L’exemple politique montre probablement que l’on a arrêté d’opposer la droite et la gauche. Nous sommes en train d’arrêter d’opposer aussi dans la sphère du public, le public et le privé. Il y a beaucoup aujourd’hui, d’après ce que l’on voit chez nos clients, de méthodes de gestion qui sont en train d’infuser dans la sphère du public. L’apport du numérique est très prégnant pour importer du privé de nouvelles méthodes de gestion.

Une grande crainte exprimée sur l’apport du numérique est que cela pourrait surtout détruire des emplois. Le numérique va effectivement opérer une transformation sur les ressources humaines. La GPEC digitale de l’État est aujourd’hui un élément très important. L’ensemble des ministères et des opérateurs se pose la question de savoir comment anticiper les nouveaux recrutements en fonction des évolutions technologiques. Certains métiers deviennent complètement obsolètes. L’intelligence artificielle a désormais la capacité de remplacer à qualité égale des tâches répétitives aujourd’hui effectuées par des agents. Parallèlement, d’autres métiers émergent. Il faut donc adapter la politique de recrutement en fonction de la technologie. Il y a donc un grand sujet de gestion prévisionnelle des emplois et des compétences, même si ce débat a été aujourd’hui un peu dépassé.

Les gens ont cessé de ne percevoir le numérique que sous le prisme de la destruction d’emplois. Certains opérateurs nous ont contacté pour comprendre les implications concrètes que le numérique pourrait avoir pour eux. Je tiens ici à vous présenter quelques-uns de ces opérateurs et les pistes de transformation que l’on a pu mettre en avant avec eux grâce à la diffusion du numérique. Dans l’ensemble, de nouvelles compétences ont été intégrées au management de ces opérateurs. Par exemple, nous nous sommes rendus compte, en nous intéressant à l’intelligence artificielle et au traitement du big data, que nous pouvions sensiblement améliorer le fonctionnement de l’Assistance publique des hôpitaux de Paris. Cela a amené à réduire le nombre et la durée des séjours, ce qui est un élément clé du système de santé. La qualité de service a également été améliorée. En termes d’anticipation des pathologies, des modèles permettant d’anticiper les épidémies ont été créés. Concernant les finances, nous avons pu, avec le directeur financier, créer des algorithmes pour améliorer la lutte contre la fraude.

Ainsi, le numérique a permis de creuser le fonctionnement de l’entreprise pour apporter de l’efficacité. Le numérique doit aujourd’hui être considéré comme une possibilité d’améliorer l’existant dans la sphère publique. Cette amélioration ne se fait pas au détriment des personnes mais au bénéfice de la manière dont les tâches sont accomplies. De la même façon, Pôle Emploi, qui compte 52 000 agents, a subi beaucoup de transformations ces dernières années et s’est lancé dans une politique de numérisation de son activité. Nous nous sommes intéressés aux impacts du numérique dans l’activité de Pôle Emploi et nous avons déterminé quatre grands éléments :

  • L’adéquation de l’offre et de la demande, grâce à des plateformes maintenant utilisées par Pôle Emploi qui permettent de mieux appréhender l’offre et la demande sur le marché ;
  • Le calcul de l’efficacité d’une formation dans le temps ;
  • L’amélioration de la qualité de l’accueil ;
  • L’amélioration de la lutte contre la fraude.

Pour conclure, il est certain que la France possède énormément d’atouts sur le numérique et de créativité à faire valoir. Pour y avoir vécu, un des rares pays auquel s’intéresse la Chine sur les sujets numériques est la France. La French Tech est une véritable marque. Concernant la sphère publique, les acteurs sont prêts à intégrer les avancées du numérique dans leur mode de gestion, ce qui ouvre d’importantes possibilités en termes de maîtrise des coûts, d’efficacité des opérateurs et de service rendu aux usagers.

 

 

LE NUMÉRIQUE ET LES TRANSPORTS : LES CONDITIONS D’UNE “SMART” MOBILITÉ

Intervention de Laurent KOCHER

L’enjeu n’est pas de condamner la voiture, il est d’en faire évoluer l’usage en rendant son partage possible et efficace. La promesse de la “smart city” est celle d’un bien-être urbain partagé par tous. Elle bascule progressivement de l’utopie à la réalité et sa concrétisation passe notamment par une transformation des transports du quotidien.

Aujourd’hui encore, la voiture particulière reste le moyen de déplacement privilégié du fait du chaînon manquant entre « autosolisme » et transports en commun et réguler l’utilisation de la voiture se fait encore bien trop souvent par la contrainte. Mais l’avènement des nouvelles technologies ouvre le champ des possibles et des solutions alternatives. L’enjeu n’est donc pas de condamner la voiture, il est d’en faire évoluer l’usage en rendant son partage possible et efficace.

  1. Promouvoir une mobilité hybride

La mobilité de demain se prépare dès maintenant par la promotion d’un modèle de mobilité hybride, combinaison de plus de modes lourds (train, métro, tramway, bus à haut niveau de service) et de flottes de véhicules partagés de petite taille (4 à 10 places) qui seront, un jour, autonomes. Les simulations les plus récentes, à l’exemple de celles réalisées par l’International Transportation Forum, think tank de l’OCDE, montrent que tous les besoins de déplacement dans les grandes villes peuvent être satisfaits en développant cette combinaison, avec seulement 3 % des véhicules actuellement en circulation.

De nouvelles alliances prennent forme. Des sociétés de VTC (voitures de transport avec chauffeur), des constructeurs et des opérateurs de mobilité s’allient pour développer des solutions de transport inédites qui préfigurent le quotidien de demain. La France est pionnière : Lyon est la première ville au monde à avoir intégré un service de navettes électriques et autonomes à son réseau de transport public. Les navettes y circulent sur la voie publique et se confrontent pour la première fois à la réalité de la ville. C’est un véritable succès, très prometteur pour la suite compte tenu de l’enthousiasme du public : au total, nos 10 expérimentations réalisées dans 7 pays ont permis de transporter plus de 69 000 personnes pour 27 000 km parcourus. À Newcastle (Australie), un nouveau service de transport à la demande partagé en temps réel permet de desservir une zone de 50km² en intermodalité avec le réseau de transport public.

Ainsi, il devient progressivement possible de proposer à tout un chacun une solution de mobilité personnalisée, adaptée à ses besoins de déplacement, pour un coût abordable pour lui et pour la collectivité. Dans ce futur idéal, nos villes changent de visage avec moins d’encombrements et de pollutions, moins de stationnement dans les rues et en offrant des déplacements « porte-à-porte » pour tous, un espace public rendu à d’autres usages.

  1. Une nécessaire évolution des mentalités

L’innovation technologique, moteur essentiel de cette révolution, ne peut et ne doit opérer seule. La société doit l’impulser et l’accompagner. Pour induire de nouvelles pratiques, la « smart city » nécessite une évolution des mentalités. Rendre la ville « intelligente » est donc l’affaire de tous. Citoyens, entrepreneurs, dirigeants politiques ou responsables associatifs, nous avons tous notre rôle à jouer pour réussir cette transition qui, au-delà d’énergétique, sera sociale, économique et politique. Mais comment réussir la transformation de réalités urbaines et territoriales ancrées depuis plus d’un siècle dans l’ère automobile ?

Promouvoir un nouveau modèle de mobilité hybride, combinant les modes lourds et des flottes de véhicules partagés, bientôt électriques et autonomes, rend possible la régulation de l’usage de la voiture particulière. Car on ne peut limiter la voiture sans proposer d’alternatives fonctionnelles et pérennes. Les acteurs du transport public doivent donc innover et la politique de la ville doit évoluer en ce sens. Cette régulation sera indispensable pour éviter le scénario catastrophe de villes envahies par des véhicules autonomes tournant en continu, sans conducteur ni passager, faute de places de stationnement ou à des fins publicitaires.

Dès aujourd’hui, les autorités publiques et les opérateurs de mobilité peuvent promouvoir l’usage du véhicule partagé en introduisant des flottes de véhicules autonomes dans les centres villes, en limitant aux riverains l’accès des voitures particulières, en gérant différemment le stationnement ou encore en autorisant des véhicules partagés sur les couloirs de bus.

  1. Refonder la politique de la ville

Pour les opérateurs de mobilité, les défis sont immenses au-delà même de l’intégration des technologies numériques. C’est une véritable transformation des usages, mais également une transformation économique et sociale qui est à l’œuvre : une transformation des usages avec le déploiement de ces nouveaux services de mobilité partagée à l’échelle d’une métropole ou d’un territoire et leur intégration cohérente dans les services de transport public pour répondre à tous les besoins de déplacements quotidiens. Une transformation économique, avec une réallocation des ressources collectives entre ces différents modes de transport, permettant de réduire le coût total pour les collectivités. Enfin, une transformation sociale, avec l’évolution des métiers du transport en commun, la formation et le redéploiement des personnels qui devront aussi contribuer à humaniser ces transports et soutenir les populations les plus fragiles.

Dans ce grand bouleversement, l’innovation ne doit pas être considérée comme une fin mais comme le moyen. Elle doit s’accompagner d’une refonte de la politique de la ville, de manière à associer les nouvelles offres de mobilité à des mesures efficaces de restriction de l’usage de la voiture particulière en ville. C’est donc ensemble que collectivités, citoyens et opérateurs doivent réfléchir à ces nouvelles perspectives pour préparer l’avenir.

L’IMPACT DU NUMÉRIQUE SUR LA MÉDECINE

Intervention de Pierre SIMON

Il s’agit pour commencer de différencier impact du numérique sur la médecine et impact du numérique sur la santé. Il n’y a aujourd’hui aucune preuve que le numérique a un impact sur la santé des citoyens. Aux Etats-Unis, les GAFA – les géants du web – qui ont une puissance de feu très importante (environ 3 200 milliards de dollars), n’ont eu aucun impact sur le système de santé américain, beaucoup moins performant que le système français. De même, en Chine, le système BATX n’a eu aucun impact sur le problème de l’égalité des soins. Par contre, si le numérique n’a eu aucun impact démontré dans le domaine de la santé, son impact sur la médecine est réel.

Il y a un adage qui décrit parfaitement ce qu’est la médecine : « le médecin guérit parfois, il soulage de temps en temps et il console toujours ». Le numérique est apparu dans la médecine au début des années 2000, lorsqu’Internet s’est démocratisé auprès du grand public. Les médecins, notamment en France, sont restés très prudents vis-à-vis de cette évolution de peur de voir une déshumanisation de leur métier en raison des enjeux commerciaux du développement du numérique. Pour autant, le numérique a impacté la médecine dans trois domaines : les échanges humains, les organisations et les performances de la médecine. Il s’agira bien entendu de parler d’intelligence artificielle. Le numérique ne se résume cependant pas à l’intelligence artificielle, et il est possible d’améliorer le parcours de soins des patients sans utiliser l’IA.

Tout d’abord, le numérique a sensiblement amélioré la relation patient-médecin. Par exemple, la téléconsultation – une pratique de télémédecine – améliore la relation entre le patient et le médecin, notamment dans les établissements pour personnes âgées handicapées – les EHPAD – ou les personnes dépendantes. Alors qu’il y avait une sorte de démédicalisation de ces établissements, la téléconsultation a permis de recréer un suivi médical. Il faut noter qu’il y a à l’heure actuelle des négociations en cours pour que les téléconsultations passent dans le droit commun de la Sécurité Sociale. De même, des gens isolés peuvent désormais avoir accès à la médecine grâce au numérique. En outre-mer par exemple, où vivent 2,7 millions de français dans des zones où l’accès aux soins n’est pas garanti, le numérique apporte des solutions intéressantes.

Le numérique améliore aussi la relation de médecin à médecin. Aucun médecin ne peut prétendre tout connaître dans le domaine médical, et cela nécessite que les médecins parlent entre eux. La loi HPST de 2009 a permis de définir ce que devait être un médecin traitant et référent, c’est-à-dire un médecin spécialisé dans la coordination des soins et la prise en charge globale du patient. Le médecin spécialiste ne traite qu’une seule pathologie. À l’ère des maladies chroniques – l’augmentation de l’espérance de vie génère des maladies dites de dégénérescences – l’on peut cumuler à partir de 85 ans huit maladies chroniques en moyenne. Une dizaine de professionnels de santé peuvent alors intervenir dans le parcours de soin des patients. Dans le cas du diabète, 19 professions de santé interviennent dans la prise en charge d’un diabétique : des médecins, mais aussi des podologues, des infirmières, des diététiciens… Le numérique permet alors une meilleure coordination de soins sous la responsabilité du médecin traitant.

En ce qui concerne les organisations professionnelles, nous sommes passés progressivement d’une médecine individuelle à des médecines regroupées, avec des maisons de santé pluriprofessionnelles. Dans les hôpitaux par exemple, il a fallu s’organiser pour prendre en charge les patients car il était devenu impossible pour un patient de garder le même médecin entre la consultation et l’hospitalisation. Il a fallu faire des organisations et des délégations entre les équipes. Et l’hôpital se transforme : nous sommes passés de 1 000 hôpitaux publics à 138. C’est ce que l’on appelle les groupements hospitaliers de territoire, avec pratiquement un hôpital par département mais avec plusieurs portes d’entrée. Les hôpitaux n’ont pas été fermés mais maintenus avec ce que l’on appelle un parcours de soins gradué au sein d’un territoire. C’est « le bon soin, au juste lieu, au meilleur prix ».

Cela nécessite d’avoir des organisations, des projets médicaux partagés selon le territoire. Ici, la télémédecine, avec les téléconsultations et télé-expertises, va permettre aux personnes de rester hospitalisées dans un établissement de proximité tout en étant suivies par des spécialistes. De même, il y a des transformations dans le secteur ambulatoire. Le médecin traitant isolé disparaît progressivement au profit de maisons de santé pluriprofessionnelles pratiquant une médecine regroupée. Ces maisons de santé s’équipent aujourd’hui en numérique afin de pouvoir coordonner les soins. De plus, une expérimentation nommée « le territoire de soins numériques » a été menée dans cinq grandes régions françaises. Elle a pour but de montrer quel est l’apport du numérique en analysant les objets connectés ayant un lien avec la médecine, les applications de prise de rendez-vous, les startups… Les résultats seront connus en fin d’année.

À mon sens, il n’y a pas de déserts médicaux en France. Je pense que l’on abuse de cette appellation : il faut aller en Afrique pour voir où sont les déserts médicaux. En France, nous avons cependant un problème d’accessibilité aux médecins. Selon un rapport de la DRESS en mai 2017, 96% des citoyens français sont situés à moins de 10 minutes d’un médecin. Le problème est que les médecins disent qu’ils ne peuvent plus prendre de clientèle, ce qui pose un problème d’accès aux soins. Les plateformes de téléconsultations peuvent être une solution, et elles sont développées à l’initiative des mutuelles, des assureurs et même parfois de plateformes marchandes. Il y a un risque d’ubérisation de la santé. La loi fondamentale de 1946 stipule que tout citoyen français doit avoir une égalité dans l’accès aux soins, mais le numérique peut créer des inégalités. Par exemple, en région parisienne, les gens peuvent payer jusqu’à 30 ou 40 euros une téléconsultation qui ne sera pas remboursée par l’Assurance Maladie.

C’est certainement sur les performances médicales que le numérique a le plus d’impact. En effet, il y a beaucoup d’espoir en matière d’intelligence artificielle dans le domaine de la santé. Si la science artificielle ne remplacera jamais le médecin, le métier va devoir se transformer avec l’intelligence artificielle. Elle aura deux impacts majeurs. L’intelligence artificielle va d’abord aider au diagnostic médical et réduire les erreurs médicales. Elle pourra, lorsqu’elle utilisera des données fiables, donner des diagnostics fiables. L’intelligence artificielle doit être une aide à la décision thérapeutique, et doit réduire la proportion de 10 000 accidents médicaux mortels par an dus aux médicaments que l’on a actuellement en France. Elle va permettre de mieux cibler les traitements. Dans le domaine de la radiologie, des systèmes de lecture de radio permettent désormais d’avoir un diagnostic plus fiable que l’œil du radiologue. Des systèmes peuvent aussi détecter en amont des cancers du sein à partir d’écographies mammaires, des lésions cutanées en dermatologie permettant de dépister des mélanomes.

Enfin, l’avènement du numérique en médecine comporte, comme partout ailleurs, des risques. Le risque principal touche à la violation des données de santé à caractère personnel, même si la France est performante dans ce domaine et est donc moins exposée que d’autres pays. Il y a aussi un risque de “dataïsme” : selon certains, la gestion du big data par algorithmes permettrait de dépasser l’intelligence humaine et de prendre des décisions basées uniquement sur les données des data. L’intelligence humaine, qui est beaucoup plus puissante que l’intelligence artificielle, doit rester maître de l’évolution de ce dataïsme. Enfin, il y a des risques éthiques, avec par exemple des manipulations génétiques, le transhumanisme – des hommes « augmentés », une espérance de vie prolongée grâce à la génétique…

Je dirai, en conclusion, que la médecine du XXIe siècle sera différente de la médecine du XXe siècle. Elle sera beaucoup plus personnalisée, plus prédictive, certainement. L’intelligence artificielle aidera à la prédiction de certains risques génétiques. La médecine sera également plus préventive : la relation médecin-patient sera améliorée par une intelligence artificielle qui aidera au diagnostic. Un président d’université américaine disait que le métier de médecin changerait avec l’intelligence artificielle, et que les médecins devront apprendre à mieux dialoguer avec les patients.  Il faudra probablement inclure dans la formation des médecins les sciences sociales, la sociologie, la psychologie, pour que les médecins deviennent des interlocuteurs vis-à-vis de leurs patients.

LE NUMÉRIQUE : UN OUTIL D’AMÉLIORATION DES PERFORMANCES DU SYSTEME SCOLAIRE ET UNIVERSITAIRE ?

Intervention de Catherine BECCHETTI-BIZOT

Le système éducatif a été pendant assez longtemps un lieu de résistance au numérique, ou du moins qui a pensé assez tardivement les conséquences de l’évolution des technologies numériques sur l’enseignement. Pourtant, la formation des esprits aux enjeux sociétaux et à une approche éthique et humaniste de cette transition numérique est une dimension essentielle, en amont de toutes les autres, pour l’avenir de notre société : il s’agit en effet d’éduquer et d’instruire les enfants pour les préparer à vivre et à travailler dans le monde de demain, mais aussi de les accompagner dans leur parcours scolaire, en développant chez eux la conscience, la maîtrise et la compréhension des outils dont ils ont l’usage et qui conditionnent leurs modes d’expression et de relations, comme leurs choix d’orientation par exemple.

  1. Une mutation profonde qui concerne particulièrement l’École

Je voudrais souligner en exergue de mon intervention que, si la grande mutation technologique et cognitive que nous sommes en train de vivre touche l’ensemble des secteurs d’activités humaines, elle concerne tout particulièrement celui de la production et de la diffusion des connaissances, c’est-à-dire à la fois de la formation, du développement des compétences et de la recherche. Il s’agit non seulement d’un changement dans nos métiers et nos organisations mais aussi d’une évolution culturelle majeure puisqu’elle modifie notre expérience de l’espace et du temps, notre perception du monde dans sa complexité, nos modes de lecture, d’écriture, de raisonnement et de calcul, et enfin notre rapport aux autres et aux savoirs.

Le système scolaire en a pris progressivement conscience. C’est une révolution discrète mais profonde, qui passe notamment par les gestes et les comportements que les élèves (et les enseignants) importent dans les pratiques de classes, et qui n’avait pas d’emblée fait l’objet d’une approche globale des politiques éducatives (à la fois matérielle, organisationnelle, pédagogique et éthique). D’où la volonté du ministre Vincent Peillon, en 2012, d’aborder la question de manière systémique lorsqu’il a voulu « faire entrer l’École dans l’ère du numérique » en instaurant le Service public du numérique éducatif par la Loi d’orientation et de programmation pour la refondation de l’École de la République. Faisant le pari que le numérique pouvait constituer un puissant levier d’innovation et de renouveau pédagogique, mais aussi de modernisation de la gestion du système éducatif (à travers ses SI), de démocratisation et d’amélioration de la relation du service public d’éducation à ses usagers, il a promu une approche globale allant de la salle de classe jusqu’à la redéfinition des cadres et des normes éthiques et juridiques dans lesquels évolue l’écosystème scolaire, en passant par la formation des enseignants et des cadres.

Je ne cesse de m’étonner que, dans ces conditions, certains doutent encore que cette transformation doive avoir un impact également sur l’École. Alors que tout bouge, l’École, elle, n’a guère changé dans sa forme générale depuis des siècles : les salles de classe, pour la plupart, ressemblent à s’y méprendre à celle du XIXe siècle, avec leurs rangées de tables disposées en autobus, des élèves qui restent assis en silence pendant des heures tournés vers le tableau face au professeur. Nombreux sont encore ceux qui pensent, avec des arguments redoutables parfois, qu’elle doit demeurer ainsi, un sanctuaire à l’abri des mouvements du monde, une retraite propice à l’étude, à la concentration et à la transmission des savoirs fondamentaux, alors que le numérique, on le sait, distrait, déconcentre, détourne l’esprit de l’essentiel… Il paraît même que les cadres des grandes entreprises californiennes du numérique retirent leurs enfants des établissements ordinaires pour les faire étudier dans des écoles Steiner. On attribue à l’outil la responsabilité des comportements et des usages qu’on en a, sans s’interroger sur ce qu’il faut changer au système pour qu’il s’adapte au nouvel environnement sociétal.

On m’a fréquemment posé cette question, lorsque j’étais directrice du numérique au ministère : « à quoi peut servir le numérique à l’École ? Peut-il améliorer les résultats des élèves, la performance du système scolaire en général ? Y a-t-il une chance qu’il remédie aux maux de l’École, que nous connaissons : les inégalités culturelles et sociales qui pèsent lourdement sur les résultats, le décrochage, la démotivation, la complexité et la perte de sens, etc. ? ». Je dirai que c’est prendre le problème à l’envers. La vraie question est : « comment faut-il faire pour que le numérique ne creuse pas les inégalités et permette de rendre l’enseignement plus attractif, moins inégalitaire et adapté aux besoins de la société qui vient ? ».

Ce qui est implicite dans cette question qui m’est posée, c’est une forme de “solutionnisme” – le fait de penser que le numérique va régler des problèmes d’inégalités scolaires, de difficultés d’apprentissages –, revers du scepticisme de ceux qui adoptent le numérique avec méfiance, voire avec réticence. À mon sens, le numérique ne peut pas s’évaluer en ces termes. Car il est tout à fait juste de dire que les outils numériques n’ont pas d’efficacité intrinsèque et directe sur les apprentissages ; pas plus que n’en ont eu en leur temps la plume sergent major, trempée dans l’encrier, le cahier, le tableau noir, l’ardoise ou le manuel. Ils ne sont une solution en eux-mêmes. Mais ils en reflètent, dans une certaine mesure, la forme et le dessin/dessein (au sens de design) général de notre enseignement. J’y reviendrai plus loin.

Les enquêtes qui ont été menées au niveau international n’ont jamais fait la preuve que les outils numériques pouvaient améliorer les performances scolaires. Certaines études ont même montré le contraire : celle de l’OCDE, par exemple, « Connectés pour apprendre[12] » n’a permis de constater aucune amélioration notable ni corrélation entre résultats des élèves en compréhension de l’écrit, en mathématiques ou en sciences et investissements des pays dans les équipements numériques. Il y a même eu un recul dans certains cas, la technologie agissant plutôt dans un premier temps comme un frein que comme un levier de changement (les professeurs essayant de reproduire avec ces outils ce qu’ils faisaient auparavant, sans changer de paradigme scolaire).

Une note récente de la DEPP a montré que, là où des résultats ont pu être constatés, en corrélation avec les usages du numérique, les établissements n’avaient pas seulement bénéficié d’un équipement plus important mais avaient surtout pu développer des stratégies pédagogiques plus innovantes et plus efficaces. Le numérique a été un facilitateur et une opportunité pour oser le faire. Il a amené les enseignants à remettre en question leurs pratiques, à réfléchir aux finalités pédagogiques de leurs choix d’outils, aux scénarios d’enseignement à mettre en place, aux nouvelles compétences à développer.

  1. Le numérique, bien plus qu’un outil, un milieu et une culture

Le numérique est en réalité le nouveau “milieu” dans lequel nous vivons, il est devenu un phénomène culturel et social, l’environnement technico-culturel dans lequel les enfants d’aujourd’hui auront à grandir, à apprendre et à évoluer tout au long de leur vie : un monde en constante évolution, dont les frontières se sont considérablement élargies avec l’essor de l’internet et des réseaux sociaux, qui implique de savoir s’adapter, se remettre en question pour progresser de manière de plus en plus autonome ; d’être capable de travailler en équipe ou en réseau, de chercher et de trouver les ressources dont on a besoin pour résoudre des problèmes complexes, participer à la vie de la cité…

L’École par conséquent a de nouvelles responsabilités pour former les élèves à ces compétences et réguler les pratiques. Elle ne peut demeurer à l’écart de cette transformation ; elle doit l’accompagner et en être le moteur. Dès lors, il faut bien poser la question autrement : « quel écosystème devons-nous mettre en place (au sein et autour de l’école) pour faciliter l’apprentissage des jeunes, en intégrant comme un donné la transformation de leurs pratiques et de leurs comportements culturels, de leurs modes de relations, de communication et d’accès au savoir ? »

  1. Le numérique, facilitateur ou obstacle à l’enseignement ?

J’ai par ailleurs pu observer que les enseignants, dès lors qu’ils ont compris cela, savent très bien exploiter les potentialités des outils et ressources numériques pour revivifier leur enseignement, le rendre plus attractif et développer les nouvelles connaissances et compétences dont les élèves ont besoin. Quelques points saillants de cette transformation :

  • Le numérique permet la production et la mise à jour constante de ressources pédagogiques de grande qualité (fini les photocopies ou les polycopiés grisâtres ; on trouve, ou on crée de plus en plus d’applications, de supports et de services qui enrichissent le scénario pédagogique de l’enseignant et le rendent plus modulable) ;
  • Il permet d’autre part d’intensifier le processus de co-construction, d’échange et de mutualisation des ressources ;
  • Il favorise de cette manière la montée en compétence des individus, chacun à son rythme, de manière autonome et tout au long de la vie ;
  • Si l’on prend en compte l’abondance des données et des traces produites par les apprenants, dès lors que leurs activités sont enregistrées, l’intelligence artificielle ouvre des possibilités inédites de recueil, d’observation et d’analyse qui devraient permettre de mieux diagnostiquer les besoins et difficultés de chaque élève, et être mises au service de l’amélioration de leur parcours d’apprentissage et de leur suivi personnalisé (ce qui ne va pas sans poser des questions éthiques et juridiques relatives à l’utilisation des données personnelles)… ;
  • Et plus globalement faire progresser la recherche en éducation grâce au partage et l’analyse de ces données (et non dans un but d’exploitation commerciale ou de manipulation).

Au niveau du système scolaire en général, et de ce que j’ai appelé la « forme scolaire », je retiendrai principalement que le numérique favorise les décloisonnements :

  • Celui de l’établissement scolaire : les murs de la classe et de l’école tombent et il s’ouvre sur son territoire et son environnement, avec un potentiel de désenclavement des établissements ruraux éloignés des centres de ressources culturelles notamment ;
    • Celui du temps et des disciplines scolaires : le travail en interdisciplinarité se développe, les emplois du temps se fluidifient ;
  • Celui de la hiérarchie scolaire : on est de plus en plus dans une logique d’accompagnement, de partage, de co-construction, de réseaux d’intérêts, et de moins en moins dans une hiérarchie verticale des acteurs ;
  • L’autorité elle-même : celle du maître, et surtout celle du livre, est redistribuée entre des sources d’origines diverses, voire entre pairs qui échangent des connaissances et s’entraident. Certains le vivent comme un danger, une perte de pouvoir. D’autres savent profiter de ce processus qui favorise l’intelligence collective.

Ce dernier point est un des apports les plus intéressant du numérique : il permet de sortir l’enseignant de son isolement. La France, on le sait de plusieurs enquêtes, est un des pays où les enseignants ont le plus de mal à travailler en équipe. Le numérique facilite la coopération, le partage d’expériences, l’expérimentation et l’essaimage des pratiques. On voit se développer aujourd’hui des communautés d’enseignants autour d’interrogations communes et de centre d’intérêt partagés. C’est un changement de culture et d’organisation qui rejaillit également sur l’organisation des classes. Il bouscule un des modèles les plus ancrés dans l’imaginaire collectif de l’école, celui de l’enseignement simultané, et remet sur le devant de la scène des méthodes d’enseignement dit mutuel ou coopératif. Je recommande à ce sujet la lecture d’un petit ouvrage très éclairant, écrit par un professeur de SVT qui enseigne en lycée, Vincent Faillet, « La métamorphose de l’école. Quand les élèves font la classe[13] ».

  1. Le numérique, un changement de paradigme scolaire ?

Pour finir, je souhaite revenir de manière plus précise sur les différents niveaux où l’on peut observer des répercussions concrètes de ces changements dans les classes.

  • Les contenus d’enseignement

Si l’on s’accorde en général pour dire que le numérique est une nouvelle « culture », au sens large, à laquelle les enfants doivent être initiés dès le plus jeune âge, les contenus d’enseignement sont encore en débat. On considère aujourd’hui qu’il ne s’agit pas seulement de capacités techniques (capacités à se servir des outils ou des logiciels) mais qu’il faut offrir à tous les futurs citoyens, d’une part, des connaissances de base en informatique (leur permettant de comprendre les principes de fonctionnement de ces outils), et d’autre part, un certain nombre de compétences génériques liées au développement très rapide de ces outils, les compétences du XXIe siècle nécessaires pour vivre, travailler, et exercer sa citoyenneté dans la société de demain.

En informatique, on évoquera plutôt la maîtrise de notions et de logiques : comprendre la démarche algorithmique, le principe du codage et de la programmation, qui renvoient à des fondamentaux de l’informatique et de son raisonnement… Pour ce qui concerne les compétences transversales, elles relèvent à la fois de l’éducation à la citoyenneté et l’éducation aux médias et à l’information (EMI), qui forment à une compréhension du monde numérique, de son organisation, de ses enjeux et de ses risques, et d’une formation à la fois éthique et juridique, qui engage des règles et des droits (comme le respect de la vie privée, la propriété intellectuelle, le droit à l’image… dans nos activités de publication en ligne notamment) ainsi que des valeurs et des comportements, comme le respect d’autrui, la responsabilité, la collaboration, le partage, la transparence, etc.

On voit qu’il ne s’agit pas là de savoirs spontanés ou adaptatifs, mais de ce qu’André Tricot appelle des savoirs « secondaires ». André Tricot rappelle que les êtres humains ont deux grandes capacités d’apprentissage : les apprentissages primaires adaptatifs qui se font tout seuls. Et les apprentissages secondaires qui nécessitent des efforts : tout ce qu’on apprend à l’école parce qu’on n’arrive pas à l’apprendre “naturellement”. Il s’agit aussi véritablement d’un socle commun de culture sans lequel le citoyen se trouve fragilisé, privé d’autonomie et de liberté, de sa capacité à évoluer avec discernement et lucidité dans ce monde numérique.

  • Le périmètre des disciplines.

Le périmètre des disciplines scolaires doit changer aussi (interdisciplinarité, cohérence et complémentarité) : on ne peut plus embrasser tout le savoir. La quantité et la diffusion des informations et des connaissances disponibles sur la toile rendent poreux et extensibles les champs disciplinaires et obligent les disciplines, plutôt que de continuer à s’accroître indéfiniment et d’essayer de gagner quelques heures dans l’emploi du temps des élèves, à s’interroger collectivement sur les lieux de synergie, les points de rencontre, le noyau de savoirs et de compétences autour desquels les disciplines vont pouvoir travailler et converger : c’est-à-dire, d’une part, les grands repères scientifiques, historiques et épistémologiques qui peuvent permettre de structurer les savoirs, et d’autre part, les démarches et les processus communs pour les appréhender. C’est par exemple comparer et sélectionner l’information pertinente, conduire un raisonnement ou une démonstration, contextualiser, problématiser, poser les bonnes questions, décoder les enjeux, organiser ses idées en fonction d’un objectif, échanger pour coopérer, résoudre des problèmes, etc. Tout cela peut se faire en tirant parti des nouvelles possibilités offertes par le numérique, mais amène à prendre conscience aussi de ses limités et de ses dangers ; et inversement, à comprendre ce que l’humain peut faire que la machine ne peut remplacer : l’empathie, le travail d’interprétation, l’esprit critique…

  • Les méthodes d’enseignement, les pratiques pédagogiques

Il s’agit notamment de diversifier les situations, les supports et les contextes d’apprentissage, de différencier l’enseignement pour l’amener au plus près des besoins de chaque élève. D’utiliser tout le spectre des possibilités offertes pour rendre l’élève plus actif, plus engagé dans ses apprentissages. De profiter de l’extension du temps et l’espace pour faire travailler les élèves à leur rythme, aussi bien dans, qu’après et en dehors de l’école, mais toujours en relation avec la classe, qui est devenue en quelque sorte le point de repère, la matrice des apprentissages.

On peut citer l’exemple de la classe inversée qui s’organise autour du temps de classe, tout en permettant à l’élève de mieux préparer ce moment en amont, d’y revenir en aval et de mieux profiter du temps de présence de l’enseignant à ses côtés et des échanges avec ses pairs pour trouver l’aide, les explications et l’étayage dont il a besoin.

Comme en médecine, l’éducation devient de plus en plus personnalisée, elle s’intègre mieux au quotidien de l’élève, et comme je l’ai dit, avec l’intelligence artificielle, on peut traiter une quantité de données produites par les traces des apprenants – ce qui ouvre des possibilités inédites de recueil, d’observation et d’analyse qui peuvent, et devraient pouvoir être mises au service de l’enseignants et de l’amélioration des parcours d’apprentissage, de leur qualité et de leur suivi (cf. les learning analytics et l’adaptative learning).

  • L’organisation des espaces et des temps scolaires

Il s’agit de l’aménagement matériel d’une salle de classe, qui doit permettre la mise en place de projets et de démarches pédagogiques “actives” intégrant le numérique, modulaires et décloisonnés, permettant le mouvement, l’expérimentation et la coopération entre les élèves. Il peut aussi s’agir de l’organisation de l’établissement, des emplois du temps, des espaces et de l’architecture. C’est également, plus largement, le système scolaire, dans ses modalités d’organisation, de gestion, dans les interactions qu’il met en place entre les acteurs de la communauté éducative (école et parents notamment), le circuit des décisions, les parcours de formation et d’orientation, la relation de l’établissement scolaire à son environnement et à ses partenaires…

  • Les modes d’évaluation

On évalue toujours le système scolaire à l’aune de critères qui répondent aux méthodes et contenus traditionnels. Si on ne se pose pas la question des indicateurs d’évaluation liés aux nouvelles compétences, on peut passer à côté de ce que le numérique apporte à la performance scolaire. Par exemple, les critères de performance et de qualité devraient prendre en compte le bien-être des élèves, leur confiance en eux, leur motivation, le climat dans lequel ils travaillent. Ou encore, l’engagement des élèves dans leurs apprentissages, et leur persévérance. Pour les enseignants, il faut travailler sur le critère de leur engagement et leur participation et leur ambition vis-à-vis des élèves. Le Collège des Bernardins (séminaire École et République, dirigé par Bernard Hugonnier) a conduit tout un travail sur les indicateurs de performance scolaire et a construit un indicateur qui met en avant les critères évoqués.

  • Formation des enseignants et des professionnels de l’éducation

Enfin, la transformation des contenus et des pratiques d’enseignement ne pourra se faire sans une solide formation des enseignants et des professionnels de l’éducation, dont le métier est en train de changer en profondeur. Il faudra sans doute prévoir une redéfinition de leurs missions et de leurs compétences. C’est une étape incontournable pour un accompagnement bien compris des transformations liées à la société numérique, si l’on veut qu’elles se fassent véritablement au bénéfice de tous les élèves.

Pour conclure, j’insisterai sur le fait que l’enjeu de ce changement de paradigme scolaire est avant tout un enjeu humaniste, bien plus que technologique, et qu’il doit être appréhendé à tous les niveaux du système scolaire. Il ne fait pas de doute que l’École a toute sa place pour nous permettre de relever les défis de la société numérique.

CONCLUSION DE JACKY SIMON

J’espère, Mesdames et Messieurs, que nos intervenants que je souhaite remercier en votre nom et au nom du club DEMOCRATIES, vous ont éclairés sur un sujet qui véhicule des inquiétudes mais peut être encore plus des fantasmes. Ils ont clarifié des notions dont on entend parler régulièrement : numérique (ce qui concerne des chiffres et des nombres), big data (gros volume de données impossible à traiter par un être humain sans l’aide d’ordinateurs …) et, bien sûr, l’algorithme, ce terme qui nous vient de l’arabe et qui est une séquence d’instructions pour résoudre un problème. Là aussi, il nous faut des machines pour exécuter ces instructions.

Nous devons donc nous préparer à l’irruption du numérique dans tous les domaines. Nous voyons déjà quotidiennement sa progression. Les évolutions sont très rapides, si rapides que nous peinons à suivre. Selon la loi de Moore, le nombre de transistors par circuit de même taille double tous les 18 mois et, selon la loi de Nielsen, la vitesse de connexion au réseau augmente de 50% par an. En même temps, plus de 60% des Français trouvent que la société change trop rapidement. Savez-vous que, selon une enquête de fin 2017, si plus de 80% de nos concitoyens ont entendu parler du mot algorithme, plus de la moitié en ignore la signification ?

Prenons les robots, qui progressent, y compris dans leur ressemblance de figure humaine. Vont-ils conduire à effacer la distinction entre l’homme et la machine ? Vont-ils se substituer à l’homme aussi bien pour le jeu de Go que pour l’emploi ou la gestion de votre fortune ? Ne sont-ils pas en train de susciter les mêmes craintes que le métier Jacquard au temps des canuts de Lyon ? Ne faudra-t-il pas réinventer les écrivains publics capables d’aider un grand nombre d’entre nous à comprendre les instructions que nous donnera une machine qui, bien que non pensante, en a toutes les apparences ? La Poste est déjà sur les rangs[14].

  1. La peur de la nouveauté, du progrès, remonte à la nuit des temps

Cédric Villani répond qu’il ne croit pas à la disparition d’un grand nombre de métiers mais plutôt à l’apparition de nombreux nouveaux métiers (plus de 10% d’emplois net, selon Accenture Stratégie, France et Benelux) et surtout à la transformation de beaucoup, devenus inadaptés, grâce à l’Intelligence artificielle qu’il définit comme « une procédure algorithmique accompagnant les taches perfectionnées que l’on pensait réservées à l’humain ».

Je pense que vous avez été convaincus que, malgré des performances exceptionnelles, l’Intelligence artificielle (IA) ne mérite pas son nom. C’est un moyen supérieur à l’intelligence humaine dans sa capacité de traitement, mais les machines, aussi performantes soient-elles, ne remplaceront pas l’humain (Ulrich Spiesshofer, PDG de ABB). Elles sont conçues par l’homme, pour traiter, comparer, analyser, classer, extraire des informations utiles dans une masse considérable de données. L’IA ne se substitue pas vraiment à l’intelligence humaine, même si les robots peuvent nous fasciner, nous perturber, voire nous déstabiliser.

Mais tout ceci est un complément de l’humain, qu’il faut agencer au mieux. Le Président d’IBM France considère que « l’IA nous augmente ». Il faut donc « dompter le numérique », ce qui est le titre d’un ouvrage récent[15]. Nos intervenants nous ont ouvert des perspectives alléchantes dans divers domaines : domaine des transports, de la télémédecine et même de l’approche judiciaire, sans oublier les perspectives dans le domaine de l’acquisition des savoirs. Vous noterez qu’un effort est à faire dans le domaine de la sphère publique. Ceci doit être possible, alors que nombre d’exploitations agricoles font leur révolution digitale et commencent à développer drones ou encore épandage intelligent.

  1. Des dérives non maitrisées ont de quoi nous inquiéter

Face aux changements extrêmement rapides, nous avons des difficultés à nous “accommoder”. Ainsi :

– Sans précautions, le risque de multiplier le nombre de nos concitoyens en “situation de handicap” est réel et conduit rapidement à une société à plusieurs vitesses et désunie, une véritable fracture sociale. Selon l’Agence du numérique, l’arrivée du numérique est pour plus de 13 millions de nos concitoyens une machine à exclure, aussi puissante que si l’on décidait soudainement de changer de langue. Au quotidien, la “dématérialisation” des services publics peut bouleverser notre vie ;

– Nous avons été alertés sur les risques réels, là aussi sur les atteintes à la vie privée (le fameux Big Brother). La directive européenne sur la protection des données (RGPD) fait l’objet de contestations de la part des industriels de l’internet ;

– Mais, plus grave et peut être plus spectaculaire est la mise en place de dispositifs concernant les cyber-risques des entreprises et, en particulier, la lutte contre les cybermenaces de tous ordres. Selon le Livre Blanc rendu public récemment, la France a été la cible de 17 cyberattaques en 2017, une forme nouvelle du terrorisme.

  1. Quelles sont les parades ?

Il faut au préalable indiquer qu’aucun pays, à ma connaissance, n’a renoncé à ce qu’il considère comme un élément de progrès. La France compte sur le numérique et ses cerveaux et autres start-ups pour développer son économie et accélérer sa croissance. Selon ce que j’ai pu lire, elle n’est pas mal placée. Un intervenant nous a indiqué qu’il y avait des points de faiblesse (par exemple les PME)[16]. On doit transformer ses atouts et sans doute est-ce l’objet notamment des préconisations de Cédric Villani dans le rapport qu’il doit remettre prochainement au Gouvernement.

Mais ce qui caractérise ces technologies est leur impunité relative. Nous devons sans doute renforcer nos défenses tant au plan européen que national, tout en mettant nos concitoyens dans le coup, c’est-à-dire en état de comprendre les enjeux et les transformer aussi en utilisateurs critiques. Les experts seuls ne le feront pas. La création d’un Comité d’éthique du numérique préconisé par Cédric Villani est sans doute nécessaire mais sommes-nous certains qu’il constituera un mur contre certaines dérives ? Il faut aussi une démarche citoyenne, démocratique. Elle ne sera possible que si un gros effort de formation et d’information, de vulgarisation, est fait pour permettre à chacun de ne pas rester un “analphabète du numérique”. C’est sans doute cela la priorité centrale.

Le rôle de la formation, une nouvelle fois, est essentiel et peut être encore plus celui de l’école vis-à-vis de nos enfants, qui vivront avec cette civilisation du numérique et seront porteurs d’explications vers leurs parents. Ceci semble plus important que d’imaginer un improbable substitut à l’enseignant. Les concepteurs de nouveaux process, doivent, bien sûr, faire un gros effort d’explication, par exemple sur le contenu de leurs algorithmes mais peut-on leur faire confiance ? Le risque de biais dommageables, d’erreurs d’analyse, volontaires ou non, ne peut être écarté[17].

Pour conclure, en essayant de regrouper des propos sur le numérique selon trois axes, nous n’avons évidemment pas épuisé le sujet, un sujet qui a un impact différent selon les publics, comme nous l’avons vu pour les personnes en situation de handicap et, plus largement, pour tous ceux que l’irruption du numérique pourrait transformer en personne en situation de “handicap numérique”. En matière d’éducation, que dire de l’impact sur des jeunes appartenant à la génération “mobil only” ?

Un chantier énorme nous attend. Grâce aux intervenants et à vos questions, nous avons, je pense, acquis au moins la conviction que nous étions entrés dans l’ère du numérique, mais aussi qu’à faire uniquement appel à la mesure, à l’éthique du comportement, nous risquions un désenchantement. Nous ne devons pas rester les bras croisés, répondre par de l’incantation béate et attendre les nouvelles technologies qui vont s’imposer à nous.

Poursuivons avec force le développement d’un numérique au service du développement et de l’épanouissement de tous. Mais ceci nécessite une réflexion, des mesures de contrôle et, si on a la volonté de généraliser, une vigilance permanente de tous. L’accès au numérique doit devenir une cause nationale. Cela s’appelle aussi la démocratie.

 

[1] Slaughterbots est un court-métrage dystopique publié en novembre 2017 par le Future of Life Institute, une coalition de chercheurs en intelligence artificielle et d’organisations de défense des droits préoccupés par l’avènement des armes autonomes. Il dépeint un avenir inquiétant dans lequel les armes autonomes mortelles sont devenues peu coûteuses et omniprésentes. Le film met en scène des micro-drones utilisant l’intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de critères préprogrammés.

[2] RUSSELL Stuart, NORVIG Peter, Intelligence artificielle, Pearson Education, 3e édition, 2010.

[3] BAUDOIN Edmond, VILLANI Cédric, Les Rêveurs lunaires. Quatre génies qui ont changé l’Histoire, Hors-série BD, Gallimard Jeunesse, 2015.

[4] FARCY Jean-Claude, Histoire de la justice en France, Coll. Repères, La Découverte, 2015.

[5] EPINEUSE Harold, BRUNIN Laetitia (coord.), « Des juges sous influence », Les cahiers de la Justice, École nationale de la magistrature et Dalloz, n°4, 2015.

[6]  Simon Nora, Alain Minc, L’informatisation de la Société, Paris, La Documentation française, 1978

[7] BRYNJOLFSSON Erik, MCAFEE Andrew, Le Deuxième âge de la machine : Travail et prospérité à l’heure de la révolution technologique, Collection OJ. Sciences humaines, Odile Jacob, 2015.

[8] FORD Martin, L’avènement des machines : Robots & intelligence artificielle, la menace d’un avenir sans emploi, FYP éditions, 2017.

[9] MCAFEE Andrew, « Quels seront les métiers de demain ? », 2013.

[10] SGDSN, Revue stratégique de cyberdéfense, 12 février 2018.

[11] https://bitbucket.org/cse-assemblyline/assemblyline

[12] OCDE, Connectés pour apprendre ? Les élèves et les nouvelles technologies, 2015.

[13] FAILLET Vincent, La métamorphose de l’école. Quand les élèves font la classe, Editions Descartes&Cie, 2017.

[14] Voir le Monde du 14 mars 2018. Entretien avec le roboticien Raja Chatila, directeur de l’institut des systèmes intelligents et de robotique (ISIR) de l’université Pierre et Marie Curie Paris : « un robot n’est pas un cerveau enfermé dans un vase […] on va brouiller la frontière entre l’homme et la machine ».

[15] ENLART Sandra, CHARBONNIER Olivier, Société digitale : Comment rester humain ?, Dunod, 2018.

[16] TEISSEYRE Nicolas, DELMOND Anne-Gaëlle, BENTIVENGA Sarah, État des lieux numérique de la France, Roland Berger, 2017.

[17] Le Professeur Pierre Philip, dans un article du Figaro du 5 mars 2018, rapporte l’étonnement devant les résultats d’un programme d’IA appliqué à l’étude de la mortalité chez les patients hospitalisés. Selon cette étude, l’asthme, maladie entrainant une forte détresse respiratoire conduirait cependant à un bon pronostic. Or l’examen de l’arbre décisionnel de l’algorithme a montré que ce résultat étonnant s’expliquait par le fait qu’à la différence des autres malades attendant aux urgences, les personnes atteints d’asthme étaient immédiatement envoyées en soins intensifs, ce que l’algorithme ne prenait pas en considération, ce qui créait un biais important dans les résultats.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *