Histoire d’un voyage en terre de l’informatique

Le 8 décembre 2022, l’INA, qui accompagne déjà les chercheurs grâce à l’Inathèque, a lancé le lab, une nouvelle offre pour l’exploration et l’analyse des données issues des collections d’archives conservées par l’Institut. Des outils numériques et un ensemble de services pensés pour éclairer le temps long des pratiques et des discours médiatiques à la radio, à la télévision et sur le web. Xavier de La Porte, journaliste à L’Obs et producteur pour France Inter du podcast « Le code a changé », en a prononcé la conférence inaugurale. Nous vous en proposons aujourd’hui la lecture et le visionnage. — La rédaction

En 1557, un modeste cordonnier du nom de Jean de Léry est envoyé par le théologien réformiste Jean Calvin rejoindre une colonie française située dans une île de la baie de Rio. Une fois là-bas, les choses tournent mal et les protestants sont envoyés sur le continent, où ils vont devoir vivre quelques mois parmi les populations locales, les Indiens Tupinambas, réputés pour leur goût de la guerre et leur pratique du cannibalisme. Jean de Léry a survécu, il a fini par retourner en France et par raconter cette aventure vingt ans plus tard dans un livre qui est aujourd’hui considéré comme un chef d’œuvre de la littérature française Histoire d’un voyage faict en la terre du Brésil.

Ce qui est très beau dans ce livre, c’est que Léry raconte une rencontre avec un peuple qui lui fait peur (notamment quand il apprend que dans le langage Tupi, « Léry » signifie « huître », c’est-à-dire un bien tout à fait comestible), dont il réprouve certains comportements (la nudité, par exemple, le gêne beaucoup), mais dont il ne postule jamais qu’il est inférieur au sien. Il a avec les Tupi des conversations qui l’intriguent beaucoup sur des sujets comme la religion et l’argent (Léry ne manque pas de rapporter l’étonnement des Tupis quant à l’existence de l’argent, dont ils ne voient pas du tout l’intérêt). Il rapporte aussi son propre trouble et la manière dont son point de vue sur certaines questions évolue. Ainsi pendant le voyage du retour vers la France, le bateau subit une longue série d’avaries, pendant laquelle les vivres viennent à manquer. Et Léry explique qu’il se met à penser à l’anthropophagie comme une possibilité, ce qui aurait été absolument inenvisageable pour lui auparavant. Encore plus étonnant, longtemps après son retour en France, il dit regretter d’avoir dû rentrer et reconnaît trouver les Tupis finalement moins déraisonnables que ses semblables, qui se massacrent pour d’obscures questions théologiques (la Saint-Barthélémy est passée par là).

Se comprendre

Pourquoi vous parler de cela ? Quand Claude Mussou [responsable de l’Inathèque, NDLR] et Géraldine Poels [responsable du département Valorisation scientifique, NDLR] m’ont proposé de faire cette introduction, elles m’ont donné comme contrainte de réfléchir à la question de la « traduction » dans un sens très large, à la manière dont peuvent se parler des communautés qui n’ont pas les mêmes langages et la même culture, en l’occurrence des chercheurs en sciences humaines, économiques et sociales, et des informaticiens ou ingénieurs en informatique. Et, je ne sais pas pourquoi, immédiatement m’est revenue en mémoire l’histoire de Jean de Léry et des Tupis.

À ce stade, je voudrais faire trois remarques.

La première : dans cette référence à L’Histoire d’un voyage faict en la terre du Brésil, je ne considère pas les chercheurs comme des protestants coincés, et les informaticiens comme des indiens anthropophages. Les positions sont totalement réversibles.

Deuxième remarque : ce problème de « traduction » ne se pose pas uniquement quand l’informatique rencontre le monde de la recherche. La population concernée est beaucoup plus large. Mon père a fait une bonne partie de sa carrière dans l’informatique hospitalière (il fabriquait et vendait des programmes qui servaient dans les hôpitaux, aussi bien aux administratifs, qu’au personnel médical, en passant par les pharmaciens… autrement dit des usines à gaz qui, pour le souvenir que j’en ai gardé, ne marchaient jamais vraiment bien). Pendant toute ma jeunesse, je l’ai entendu se plaindre de la difficulté à collaborer avec tous ces gens, qui n’étaient pas capables d’expliquer leur travail et ce dont ils avaient besoin comme outils, d’une manière qui soit traduisible en informatique. 

Plus tard, quand j’ai dirigé la rédaction de Rue89, j’ai expérimenté la réciproque : notre particularité était d’avoir des développeurs au sein de la rédaction, et travailler ensemble n’était pas toujours simple. Non seulement nos envies journalistiques (de nouveaux formats par exemple) n’étaient pas toujours bien comprises par les développeurs, mais parfois la légèreté dont il nous arrivait de faire preuve quand nous traitions des questions numériques dans nos articles heurtait nos développeurs. Bref, je pense que la question de la traduction s’étend en vérité à la communication entre deux populations : celle qui sait programmer, qui saisit en profondeur la logique informatique, et celle qui ne sait pas programmer, qui n’a qu’une vague — voire aucune idée du tout — de la manière dont tout cela fonctionne.

Troisième remarque : cette référence à Jean de Léry est porteuse d’optimisme : j’en ai bien conscience, les populations dont je viens de parler (caricaturalement divisées en ceux qui savent programmer et ceux qui ne le savent pas) ne sont pas aussi éloignées que ne l’étaient au milieu du XVIe siècle un cordonnier protestant de Bourgogne et un indien Tupinamba de la Baie de Rio. Il y a donc de l’espoir : si eux y sont arrivés, ils n’y a pas de raisons que nous n’y arrivions pas.

« Le code fait loi »

L’enjeu est de taille. Pour le mesurer, il faut revenir à un texte fondateur de la littérature sur le numérique, écrit en janvier 2000 par le grand juriste de Harvard Lawrence Lessig et qu’il a intitulé « Code is law ». Dans ce texte lumineux et visionnaire, Lessig avançait que dans un monde amené à être de plus en plus informatisé, on risquait un problème démocratique si on ne prenait pas en compte que le code informatique allait faire office de loi. Cela signifie que ce qu’il est possible de faire ou pas, ce qui est interdit ou autorisé, ne serait plus décidé par des instances contrôlées démocratiquement, mais par des informaticiens qui écrivent des programmes. Au début des années 2000, cela pouvait sembler très abstrait, aujourd’hui, c’est une réalité tangible.

Un seul exemple. Dans la version bêta du métavers qu’est en train d’élaborer Facebook (Horizon world), on a observé très vite des agressions sexuelles. En gros, des avatars féminins ont été agressés par des avatars masculins. Je passe sur les questions juridiques que cela pose (peut-on parler d’agressions sexuelles pour des avatars ? Est-ce le genre de l’avatar ou de la personne qui le contrôle qu’il faut considérer ? etc.) Ce qui m’intéresse est la réponse apportée par les ingénieurs de Facebook : elle est technique. Aux dernières nouvelles, elle a consisté à réduire les avatars au torse, aux bras et à la tête, à empêcher que les avatars ne puissent se rapprocher à moins d’un mètre de « distance ressentie », et à faire en sorte que si on essaie d’avancer les mains de nos avatars dans cette zone, elles disparaissent. Je ne juge pas la pertinence de cette réponse, je constate juste que si un jour le métavers de Facebook devient le lieu dans lequel on travaille, consomme, communique, se distrait, rencontre des amoureux et amoureuses, nous vivrons dans un univers dont les lois ont été décidées par des programmes informatiques. Je parle ici de lois au sens légal du terme. Mais j’interviewais récemment Ethan Zuckerman, une figure importante de l’Internet politique, qui me faisait remarquer que les questions des lois physiques était aussi très importantes dans le métavers : nos avatars seront-ils soumis à la gravité ou pas ? Qu’est-ce qui dans un métavers est mobile ou immobile ? Bref « Code is law », encore plus que ne l’imaginait Lessig en 2000.

Je pourrais multiplier les exemples, les plus critiques étant sans doute l’utilisation des algorithmes dans les politiques publiques, mais c’est une question en soi.

Si on est d’accord avec Lessig pour dire que le « code fait loi » — et je ne vois pas comment on pourrait ne pas l’être —, la question de comprendre comment cette fabrique a lieu, qui en sont les acteurs, avec quelles intentions, quel substrat politique et quelle éthique, devient urgente. Réfléchir à la « traduction » — dans un sens comme dans l’autre — devient une question démocratique. 

On pourrait me rétorquer que j’exagère, que les choses s’améliorent. Dans la plupart des cas, c’est vrai. Juste un exemple, la littérature.

Double vie

Je me souviens avoir entendu, à l’occasion de l’inauguration d’un LABEX d’humanités numériques, un des pionniers de l’étude informatique de la littérature raconter son expérience. Ce monsieur est américain, il faisait dans les années 1970 une thèse sur Rousseau dans une grande université. Très vite, il s’est dit que, son corpus étant immense, ce serait pas mal d’utiliser les ordinateurs pour traiter des occurrences, des variations de la notion concernée. Il est allé voir les gens du département informatique de son université, qui n’en avaient rien à faire de ses recherches et n’avaient pas l’intention de l’aider. Quant à ses collègues de littérature, ils ne voyaient pas non plus l’intérêt de la démarche. Et ce monsieur a donc raconté comment, pendant plusieurs années, il a eu l’impression de mener une double vie : la journée il était dans le département de littérature où il faisait de la recherche comme on avait toujours fait, la nuit il était dans le département informatique en essayant de régler seul des problèmes de retranscription, de balisage, etc. Il en avait gardé le souvenir de passer sans cesse d’un monde à l’autre, un souvenir d’épuisement et de solitude. 

Il me semble que les choses ont changé. Je ne sais pas qui aujourd’hui renierait l’apport de l’informatique pour l’étude des textes, quand elle est bien utilisée. Dernièrement, je lisais des travaux de deux chercheurs français sur Proust, Dominique et Cyril Labbé. Ils arrivent à montrer des choses tout à fait intéressantes en étudiant la manière dont certaines structures, certains mots, distinguent radicalement Proust de ses contemporains (par exemple la prédominance chez lui des groupes verbaux sur les groupes nominaux, qui à l’époque est une caractéristique plutôt de la correspondance que du roman et participe à donner au texte proustien l’impression qu’il est une sorte de monologue qui s’adresse directement à nous). Ces travaux nous permettent donc d’approcher la singularité de son style, par des effets de comparaison qui ne sont possibles que par le brassage de gigantesques corpus. Je ne pense pas que l’apport de ces travaux soit aujourd’hui nié. Le risque est peut-être même inverse, la croyance parfois un peu naïve que c’est comme ça, et seulement comme ça, qu’on trouvera le secret de l’auteur.

Ce que je raconte là, et encore très vaguement, ne concerne qu’un champ spécifique, mais on pourrait l’élargir à bien d’autres disciplines et dire qu’il y a un phénomène d’acculturation progressive, que les rencontres entre communautés sont plus régulières et moins incongrues. 

Soupçon réciproque

J’en étais à peu près là de mes réflexions, quand je me suis rendu il y a quelques mois à un colloque qui m’a laissé perplexe.

Ce colloque était organisé par le sociologue Bilel Benbouzid et réunissait un panel de haut niveau pour discuter de la « fairness » [« équité », ou « justice » NDLR] en IA. En gros la question était : Comment faire pour que les programmes d’IA ne reproduisent pas — voire ne créent pas — des biais qui rendent leurs résultats injustes ? Le colloque a duré deux jours. Le premier jour, des matheux sont intervenus, on était au cœur de la machine, des programmes, des équations, des algorithmes. Le lendemain, c’était les gens des sciences humaines. C’était absolument passionnant, mais on comprenait qu’il y avait encore du chemin à faire pour que ces populations se rejoignent. Pour caricaturer, les ingénieurs trouvaient que la fairness est un problème mathématique super excitant, qu’on peut tenter de résoudre en ayant recours à des solutions mathématiques. Tandis que les gens des sciences humaines disent « oulala mais attention, ne croyez pas que tout se résout avec des formules et des algorithmes, regardez les données sur lesquelles vous travaillez, méfiez-vous des usages ». Sourdait même une sorte de soupçon réciproque.

J’avoue avoir ressenti une forme d’inquiétude. J’avais l’impression de voir se rejouer les vieilles querelles, appliquées à une technologie en plein essor, dont on ne maîtrise pas encore toutes les possibilités, mais qu’on commence néanmoins à implémenter dans toutes sortes d’usages très critiques. Que des biais se glissent dans des outils qui servent à aider des décisions de justice ou à identifier des individus susceptibles d’être punis par la loi, et que les gens qui y réfléchissent d’un point de vue mathématique aient du mal à discuter avec ceux qui y réfléchissent d’un point de vue juridique, politique, ou même moral, est assez inquiétant. 

On sent bien ici qu’il ne s’agit pas seulement d’un problème de « traduction », au sens où il suffirait de se mettre d’accord sur le sens des mots pour tomber d’accord. Il s’agit bien sûr de passer d’une langue à l’autre, mais il faut aussi accommoder des logiques, des systèmes de pensée, opérer des négociations conjoncturelles qui dépendent du problème à régler, du lieu où il doit se régler, etc. Et on peut postuler qu’une technologie comme l’intelligence artificielle (je reprends le terme générique, tout en sachant qu’il recouvre des technologies différentes) renouvelle le problème — voire l’approfondit — tant elle est complexe dans son fonctionnement, et tant les possibilités de ses usages sont étendues. 

Y a-t-il des solutions ? Je serais bien incapable de vous en donner, mais je vous propose de retourner en terre du Brésil. 

Truchements

Dans le texte de Jean de Léry — et dans ceux des voyageurs de son époque —, on trouve des personnages tout à fait intéressants. On les appelait des « truchements ». Au XVIe siècle, un « truchement » est une personne humaine qui traduit, mais pas seulement, c’est quelqu’un qui joue un rôle actif dans les communications entre Européens et locaux : le truchement explique, il adapte, il négocie. Qui devenait « truchement » ? On en trouvait en gros de plusieurs sortes : des enfants européens qu’on avait « ensauvagés » presque volontairement, des bâtards ayant grandi entre deux cultures (mais bien souvent dans l’une plus que dans l’autre), ou des Amérindiens qui avaient vécu parmi les Européens. Dans tous les cas, les truchements étaient impurs et ils étaient toujours soupçonnés d’avoir trahi leur « race », et de pouvoir le faire à nouveau, soupçonnés de servir un camp plus qu’un autre, de servir leurs propres intérêts. Pour le dire grossièrement, on ne les aimait pas beaucoup, mais on ne pouvait pas se passer d’eux. 

Et donc mon projet est très simple. En langage politique, il s’agirait de multiplier les truchements. En langage de morale personnelle, il s’agirait de se sacrifier et d’accepter de se faire truchement. 

En vérité, quand on regarde bien, des truchements, il y en a plein, de toutes sortes et qui viennent de tous les côtés. Quand il organise un colloque tel que celui dont je vous ai parlé, Bilel Benbouzid s’est fait truchement. Dominique Cardon, qui dirige le médialab de Sciences Po et fait travailler ensemble développeurs et chercheurs en sciences sociales, se fait truchement. Une magnifique chercheuse comme Clarisse Herrenschmidt — philologue, linguiste, historienne, anthropologue — se fait truchement quand, dans Les trois âges de l’écriture (Gallimard, 2007), elle raconte les trois grandes révolutions de l’écriture que sont l’écriture des chiffres, l’écriture alphabétique et le code informatique.

Des truchements, il y en a partout. L’INA est plein de truchements. 

J’ai l’air de plaisanter en disant cela, mais on aurait tort de voir de l’ironie dans mon propos. La preuve : je suis moi-même, beaucoup plus modestement que les gens que je viens de citer, un truchement. 

D’ailleurs, de manière totalement anecdotique, j’ai en commun avec les truchements du XVIe siècle la caractéristique de ne pas avoir choisi cette fonction. Elle m’a été imposée par Bruno Patino qui dirigeait à l’époque France Culture et qui m’a presque obligé à reprendre une émission qui s’appelait « Place de la toile » et qui, au milieu des années 2000, était assez pionnière dans sa volonté de comprendre ce qui nous arrivait avec les technologies, au-delà de la fascination pour l’innovation.

Rassurez-vous, je ne vais pas vous raconter les mémoires d’un truchement, ni même faire de moi un exemple, mais juste me permettre quelques réflexions qui me sont venues au fur du temps, juste vous dire ce que ça signifie pour moi d’occuper cette fonction. 

Le numérique : un fait total

Depuis « Place de la toile » (et jusqu’à aujourd’hui avec le podcast que je fabrique pour France Inter), je m’efforce d’atteindre le même idéal, qui pourrait être formulé comme suit : intéresser autant un développeur qui n’a jamais lu de sciences humaines, qu’une grand-mère qui va sur Internet juste pour skyper avec ses petits-enfants. Autrement dit : un bon article sur l’IA, une bonne émission, une bonne chronique, un bon épisode de podcast est celui qui intéresse autant quelqu’un qui ne sait pas ce qu’est un réseau de neurones, que quelqu’un qui en programme. 

Et donc, depuis le temps, je m’aperçois que j’ai mis en place des stratégies qui valent ce qu’elles valent, qui ne sont pas des exemples de réussite loin s’en faut (car, évidemment, l’idéal que je viens de vous énoncer n’est quasiment jamais atteint).

La première stratégie, c’est de montrer que chacun gagne à cette réflexion. Dit comme ça, ça a l’air un peu couillon, mais c’est un prérequis essentiel. Par exemple, si je décide de faire un épisode de podcast sur la traduction automatique et la manière dont les réseaux de neurones ont changé la discipline depuis quelques années, il faut montrer que c’est important pour l’usager lambda (qui utilise GoogleTrad et s’aperçoit que ça marche mieux, mais pas encore tout à fait à bien). À ceux qui savent ce qu’est un réseau de neurones, il faut montrer que c’est important parce que la question de la traduction a toujours été au cœur de l’histoire de l’informatique, et que les réseaux de neurones appliqués à ce champ sont une prolongation de cette histoire. 

Une fois qu’on a fait ce travail là, on peut s’atteler au commun — à ce qui est vraiment important au fond — et qui sont les questions passionnantes que pose le travail de l’IA dans son traitement du langage humain (comment les réseaux de neurones sont capables de choses dont nous ne sommes pas capables, comme avoir une représentation du lexique d’une langue, et comment aussi ils ont beaucoup de mal avec ce qui nous est évident, comme les métaphores ou le second degré). Cette première stratégie consiste donc, grossièrement, à créer un terrain commun.

La seconde stratégie consiste à avoir des égards. Et pas les mêmes selon le public. L’égard que j’ai envers les gens qui n’y connaissent rien consiste principalement à les accueillir. 

Cela signifie plusieurs choses :

  • Ne pas les intimider avec des mots compliqués, avec des concepts énoncés sur le mode de l’évidence, avec des références supposées connues de tous (mais en fait maîtrisées seulement par les gens du milieu), avec des acronymes obscurs, etc. Très concrètement, ça signifie faire un effort d’explicitation et de définition. Ce n’est pas toujours simple parce qu’on a peur d’être lourd, de passer pour un ignorant. Bref, il faut en rabattre sur son ego. Mais, à titre personnel, j’y trouve une grande vertu : être capable d’expliquer simplement un truc compliqué est une bonne manière de vérifier que je l’ai vraiment compris. 
  • Accueillir, cela signifie aussi partir de là où les gens sont, de ce qu’ils savent, de ce dont ils ont entendu parler, de questions qui les préoccupent, pour aller vers des choses plus éloignées d’eux, plus techniques, plus spécifiques. Dans l’Éducation nationale, on appelle ça la « pédagogie du détour ». C’est assez décrié par ceux qui pensent que les vérités s’assènent, mais en réalité, c’est ce que font tous les enseignants un peu sensés. Très concrètement, ça signifie que si vous animez une émission sur le numérique diffusée dans le flux de l’antenne entre une émission de littérature une autre de géopolitique, vous vous efforcez de formuler la question que vous voulez aborder, quel que soit son niveau de technicité, depuis l’extérieur, et de procéder un peu spirale, en prenant le temps d’arriver au centre. 

Ma stratégie consiste à avoir aussi des égards envers ceux qui connaissent très bien l’informatique, voire qui en font profession :

  • Premier égard : leur donner des gages. Par exemple, j’essaie dans la mesure du possible d’être précis quand je parle de technique. C’est une forme de respect. 
  • Second égard : ne pas présupposer qu’ils ne réfléchissent pas à leur pratique. C’est un travers souvent constaté quand, comme c’est mon cas, on vient des sciences humaines. On a tendance à considérer qu’on a le monopole de la réflexivité. Des années de pratique des informaticiens m’ont appris que ce n’est pas le cas.

La troisième stratégie : j’essaie de garder en tête l’idée que la particularité du numérique est d’être aujourd’hui un fait total. Pour le dire autrement, il est abordable par toutes les disciplines, et il a des incidences sur toutes les disciplines. Il est présent dans tous les registres de la vie (vie matérielle, vie sociale, vie économique, vie intellectuelle) et il a des incidences sur tous les registres de la vie. Par conséquent, toutes les paroles sont légitimes et valent d’être entendues. Celle du développeur autant que celle du grand-père qui galère pour prendre sa place de musée, celle de l’ingénieur qui supervise un supercalculateur aussi bien que celle de l’éleveur qui manipule au quotidien un robot de traite. Celle de la spécialiste des algorithmes qui tient la Chaire du Collège de France que celle de la YouTubeuse de vingt ans qui se débat avec l’algo de recommandation de YouTube. Bien sûr, chaque parole induit des traitements différents, mais il n’y a pas de hiérarchie a priori. Il n’y a pas d’usage noble et d’usage ignoble, il n’y a pas d’usage trivial : ce que fait une travailleuse du sexe avec son téléphone m’intéresse autant que ce qu’en pense un philosophe. 

Pourquoi la lecture de Jean de Léry est-elle encore si merveilleuse aujourd’hui ? Parce qu’il regarde tout ce qui se passe autour de lui avec la même curiosité : les plantes, les oiseaux, les gens. Il raconte comment les Tupis pêchent, mangent, s’occupent de leurs enfants, ou font la guerre, autant qu’il essaie de comprendre comment ils peuvent vivre sans Dieu. À mon sens, on ne peut saisir quelque chose de notre monde numérisé qu’en essayant de tenir tout cela ensemble, des câbles aux idées.

La quatrième stratégie est de chercher partout l’humain. Au cœur du numérique, il y a évidemment du matériel, de la technique, du calcul. Mais tout ce qui enserre ce cœur est de l’humain. J’ai la faiblesse de croire qu’on comprend mieux ce que fabrique quelqu’un quand on comprend d’où il vient. Ce n’est pas anodin de comprendre que le chercheur qui va nous expliquer ce que les réseaux de neurones sont en train de changer à la traduction automatique s’est intéressé à cette question parce que ce qui le fascine depuis le début de ses recherches, c’est qu’au fond, on ne sait pas vraiment comment fonctionne le langage dans notre cerveau. J’ai la faiblesse de croire qu’on comprend mieux l’informatique embarquée dans les avions si on comprend comment l’humain est pris dans une contradiction entre la volonté de déléguer à la machine et la volonté de garder sur elle un pouvoir.

J’ai bien conscience des limites de cette manière de faire, et même des risques, qui seraient de singulariser des questions générales, et de ne pas voir les causes structurelles. Mais voilà, si le truchement ne parie pas qu’au fond, ce qui réunit les deux personnes qui sont en face de lui, c’est qu’elles partagent d’être des humains doués de subjectivité, il a peu de chance de trouver les mots qui résonnent entre elles et en elles. 

Je suis un peu désolé de ne pas avoir répondu frontalement à vos attentes, ou plutôt d’y avoir répondu en décrivant une attitude générale plus que des solutions concrètes, et en avançant des préceptes qui relèvent du savoir-vivre, plus que d’une théorie ambitieuse. 

Néanmoins, je voudrais terminer par un cas d’espèce qui nous donnera à tous plein d’espoir et d’envie. Ce cas d’espèce, il vient du rugby.

Garder le ballon ?

J’écoutais dans le très bon podcast de L’Équipe, « Crunch », un entretien avec deux personnes qui sont chargées de la vidéo au sein de l’équipe de France de rugby. Ce travail ne consiste plus à faire des arrêts sur image, mais à amasser des données à partir du traitement de l’image. Les données sont très nombreuses, encore augmentées depuis peu par les ballons connectés. Ces gens forment — avec des « data scientists », des « sport scientists » — une équipe qui aide le coach, Fabien Galthié, à élaborer sa stratégie. Dans l’entretien, ces messieurs racontent un exemple passionnant. Ils racontent que deux jours avant un test match contre la Nouvelle-Zélande, Fabien Galthié vient les voir et leur dit « on sait que les All Blacks ont comme spécificité de marquer des essais très vite après avoir récupéré le ballon, est-ce que vous pouvez me dire si les équipes qui prennent beaucoup d’essais contre eux ne sont pas des équipes qui gardent trop le ballon ? » Pendant toute la nuit, les types font travailler leurs programmes sur leurs bases de données et remarquent qu’en effet, les équipes qui gardent trop le ballon, qui ont des phases de possession trop longues, prennent plus d’essais contre les All Blacks. Ils peuvent déterminer un temps moyen à partir duquel il devient dangereux de porter le ballon et d’attaquer, parce qu’on se fatigue, qu’on se désorganise et qu’on s’expose en cas de récupération à une contre-attaque fulgurante des Blacks. Et le matin, ils donnent leur résultat à Fabien Galthié qui, la veille du match donc, affine sa stratégie : à partir d’un certain moment, contre les All Blacks, même quand on avance, il faut mieux se déposséder du ballon. C’est contre-intuitif, ça va contre la logique du rugby, mais il demande à l’équipe d’appliquer cette stratégie, et la France remporte un match qui restera un des plus beaux matchs de l’histoire du rugby français. Cette histoire montre comment c’est une collaboration entre l’intuition humaine et l’aptitude des programmes à la vérifier ou la contredire, en l’occurrence à l’objectiver, qui est fertile. Ce qui est beau dans tout ça, c’est le mélange de chiffres et de corps, de programmes informatiques et d’intuition humaine, dans un but commun qui peut paraître tout à fait contingent : une victoire en sport. 

Pour que cela puisse avoir lieu, il faut plein de truchements. Des data scientists qui connaissent le sport et l’aiment. Des rugbymen, comme ces deux personnes qui parlaient, qui se sont reconvertis dans l’analyse de données parce qu’ils ont compris ce qu’ils pourraient y trouver. Il faut des développeurs qui codent des interfaces utilisables par des non-informaticiens. Il faut des joueurs qui acceptent d’être monitorés pour fournir des données. Il faut un coach qui sache quoi chercher dans les données. 

Et puis il faut aussi des gens pour raconter cette histoire, et d’autres encore pour s’en souvenir quand ils retourneront demain au boulot. 

Merci.

We wish to say thanks to the author of this write-up for this remarkable web content

Histoire d’un voyage en terre de l’informatique

Visit our social media accounts and also other pages related to themhttps://yaroos.com/related-pages/