Le générateur de texte d’OpenIA: nième tentative d’Elon Musk de nous faire peur

Spread the love

La presse nous apprend par un titre accrocheur le dernier avatar de la méchante intelligence artificielle qui va nous manger tout cru.
« Des chercheurs ont-ils développé une intelligence artificielle trop dangereuse pour être mise en service ? »
La forme interrogative est-elle le signe que les journalistes ont appris des précédentes annonces de production d’intelligences artificielles laissant apparaître des prémices d’une intelligence forte ? espérons-le.
Car cette annonce de la sortie d’un système de génération de texte est surtout un coup marketing. Ainsi, OpenIA, centre de recherche financé entre autres par Elon Musk, a produit un système de génération de texte qui, si on lui soumet une certain nombre de paragraphes initiaux, est capable de compléter le texte, en utilisant la connaissance extraite des textes présents sur le web. Les essais effectués sont particulièrement efficaces en ce qui concerne les textes journalistiques. Ceci  montre surtout la capacité de la plupart des journalistes de reproduire sous diverses formes le même article sur un sujet donné, puisque le système reproduit en fait ce qu’il trouve sur la toile.
Mais en quoi cette nouvelle intelligence artificielle serait-elle trop dangereuse pour être divulguée ? Elle se conforme effectivement à cette obligation mimétique de la plupart des journalistes, qui n’est plus à prouver, mais fera de toute façon moins bien que ses inspirateurs, les humains générant des textes sur le web et en particulier sur les réseaux sociaux. Les créateurs de GTP-2, c’est le nom du système, (ils ne se sont pas trop fatigués, peut-être devraient-ils créer une intelligence artificielle qui génère des noms accrocheurs et évocateurs…) auraient peur de sa faculté à générer des fake news qui ressemblent à des vraies. Mais évidemment, les textes permettant cette performance existent déjà sur le web, le système ne crée pas de fake news, il les répète bêtement.
Ce que le système remet en cause, c’est principalement le journalisme fast-food qui se contente de digérer un certain nombre de dépêches et les articles des collègues, pour produire un article sans intérêt ; sera-ce une perte ? J’en doute.
Mais en annonçant que les créateurs, tel Frankenstein, ont peur de leur machine, OpenIA rouvre la boîte à fantasmes du mythe de la singularité (défendu par le même Elon Musk) où l’on a surtout pu voir à l’œuvre les tentations transhumanistes et les motivations bassement mercantiles de nous vendre (à toutes les acceptions du terme) des intelligences ou des « améliorations » nous permettant de nous protéger de ces méchantes intelligences.
Il est bien sûr nécessaire de réguler l’IA, mais cela ne passera pas en mettant en avant de telles annonces catastrophes. Ce qu’il faut réguler, ce sont les industriels qui pompent les données en nous imposant des services soi-disant « gratuits », et les structures privées ou publiques qui vont également utiliser ces données pour des fins obscures, et pas ces pauvres intelligences générées par de vraies intelligences, pas forcément bienveillantes.

Une réflexion au sujet de « Le générateur de texte d’OpenIA: nième tentative d’Elon Musk de nous faire peur »

  1. Merci à Gilles pour cette démystification salutaire de la communication d’Elon Musk : je ne compte plus en effet la liste de mes étudiants et étudiantes (en informatique…) qui prennent le plus souvent les annonces de Tesla et SpaceX pour des prophéties auto-réalisatrices dans un temps proche. Un de mes étudiants a par exemple choisi comme sujet de mémoire de licence les interface cerveau-machine car Elon Musk aurait annoncé que les recherches de son groupe permettraient en neurosciences et en IA lui permettrait d’ici la fin de la prochaine décennie de créer un cerveau totalement artificielle aux capacités égales au notre, bref, d’atteindre la grande singularité de l’IA forte. Je n’ai pas vérifié la véracité de l’information donnée par cet étudiant, je le cite simplement pour montrer quelle influence peut avoir Elon Musk sur les personnes qui voient dans l’IA actuelle une nouvelle frontière enthousiasmante.
    Ceci étant posé, je me demande tout de même quel est l’objectif de cette communication d’Elon Musk. Calcul purement cynique d’un entrepreneur en besoin de financements, ou bien discours transhumaniste messianique ? Car ce type d’annonce est à double trachant de mon point de vue. Il y a 5 ans, les annonce de l’IA ne suscitaient qu’enthousiasme dans les médias et auprès de mes étudiants. Depuis 2 ans, disons depuis par exemple l’élection de Donald Trump et le soupçons d’intervention d’IAs sur les réseaux sociaux, je vois au contraire croitre des réflexions plutôt inquiètes, et je crois que bientôt, l’ensemble de la population aura été informée par exemple du dilemme de la voiture autonome devant écraser des piétons pour sauver ses passagers… Dès lors, pourquoi en rajouter ? Ou alors, l’objectif serait-il de détourner l’attention ? Comme le rappelle Gilles dans sa dernière phrase, derrière l’IA, on retrouve déjà par exemple tout une activité tâcheronnée d’annotation confiée à des intelligences bien humaines mais exploitées (Casilli 2019, Sagot et al. 2011). Et puis, il y a toutes ses conséquences plus sournoises de l’utilisation de systèmes dits intelligents qui ne sont le plus souvent que des signaux faibles auxquels on ne prête pas attention mais qui changent, dans discussion dans le débat public, nos modes de vie et de travail, nos capacités cognitives etc… (Lefeuvre-Halftermeyer et al 2016).

    —————————————-

    Antonio Casili (2019) En attendant les robots. Enquête sur les travailleurs du clic. Seuil.

    Benoît Sagot, Karën Fort, Gilles Adda, Joseph Mariani, Bernard Lang. Un turc mécanique pour les ressources linguistiques : critique de la myriadisation du travail parcellisé. Actes TALN’201, Juni 2011, Montpellier, France. 2011. (https://hal.inria.fr/inria-00617067/)

    Anaïs Lefeuvre-Halftermeyer, Virigine Govaere, Jean-Yves Antoine, Willy Allegre, Samuel Pouplin, Jean-Paul Departe, Samia Slimani et Aurore Spagnulo (2016) : Typologie des risques pour une analyse éthique de l’impact des technologies du TAL. Revue TAL 57(2) pp 47-71. (https://hal.archives-ouvertes.fr/hal-01501192/)

Répondre à Jean-Yves Antoine Annuler la réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *