Apprendre aux robots les valeurs humaines, par la lecture d’histoires, c’est la nouvelle marotte des scientifiques. Ces derniers mènent des expériences, avec des intelligences artificielles à qui ils font littéralement la lecture. Des récits simples, certes, mais que les machines seraient en mesure d’assimiler. Asimov doit bicher d'imaginer Terminator perplexe : écraser, ou ne pas écraser cette fourmi ?
Le 19/02/2016 à 15:41 par Nicolas Gary
Publié le :
19/02/2016 à 15:41
Sebastian Lund, CC BY 2.0
Les trois lois de la robotique qu’avait imaginées le romancier Isaac Asimov, voilà plus de 70 ans, posaient déjà les premières règles essentielles à l’existence d’une machine.
Forts de cette approche, les scientifiques tentent désormais de faire progresser l’intelligence artificielle. Sous la direction de Mark Riedl, directeur de l’Entertainment Intelligence Lab au Georgia Institute of Technology, une étude présente les expérimentations suivant la théorie de l’alignement de la valeur. Cette dernière impose à l’IA de poursuivre des objectifs qui ne seraient pas nuisibles aux humains.
Juste assez pour éviter un conflit entre humains et machines, façon Terminator.
Don Quichotte, un exemple de l'apprentissage par les livres
Pour arriver à cette posture, le scientifique part d’une technique qu’il appelle Don Quichotte : lire des histoires aux machines, par lesquelles elles se représentent des comportements acceptables, dans une culture spécifique. Un peu comme on pouvait réciter les fables d’Ésope ou les contes de Grimm aux enfants, pour leur fournir les premières armes de compréhension du monde.
Quichotte, ou modèle Shérazaade, du nom de la princesse des Mille et Une Nuits, c’est le comportement du chevalier errant de Cervantes. Ce dernier lit des histoires chevaleresques et décide de reproduire l’attitude de ces mêmes chevaliers, dans son propre environnement. Raison pour laquelle, en l’absence d’autres ennemis chevaliers, il va s’en prendre aux moulins à vent, ses uniques rivaux. « En bref, nous émettons l’hypothèse que l’entité intelligente peut apprendre, ce qu’une chose signifie pour un être humain en se plongeant dans les histoires que l’humanité a produites. »
Par la suite, une méthode de récompense par petites étoiles vient consacrer la bonne conduite – une sorte de petite image pour enfants sages. Ce signal de récompense renforce l’instinct informatique de privilégier les solutions positives.
Selon Riedl, cette méthodologie élimine plusieurs difficultés dans l’enseignement d’une morale aux robots. Spécifiquement parce qu’il est pour l’heure impossible de leur apprendre toutes les valeurs nécessaires à l’ensemble des réactions possibles. On leur inculque les grandes lignes, et pas les nuances, en somme.
Un Vade-mecum du Bien et du Mal
À travers les contes, la machine serait toutefois de procéder par une sorte de rétro-conception, et remonter les fils des valeurs tacites, comprises dans les histoires. Et à ce titre de produire son propre code de bonne conduite.
Pour vérifier leurs postulats, les chercheurs ont simulé une situation où la base est d’obtenir des médicaments sur ordonnance. Des centaines d’histoires en crowdsourcing ont été intégrées dans le programme, avec des notations de 0 à 10, mesurant les bons et mauvais comportements. Le meilleur scénario était d’obtenir une ordonnance du médecin et de payer les médicaments. Le pire, de braquer la pharmacie pour les obtenir. Le programme a ainsi été monté pour rejeter les comportements inacceptables, et conserver uniquement ceux qui étaient moraux.
Le principe est en quelque sorte celui des livres dont on est le héros, où les choix déterminent la possibilité d’avancer dans l’intrigue. On est encore loin d’un apprentissage réel, parce que le fonctionnement est encore celui d’une série de 0 et de 1 dans le comportement.
Pourtant, en s’appuyant sur les fables et contes allégoriques, Mark O. Riedl et Brent Harrison, qui ont mené l’étude estiment que l’ordinateur peut « lire et comprendre des histoires, et, si on lui donne assez d’exemples d’histoires d’une culture donnée, peut remonter le fil des valeurs implicitement véhiculées par la culture qui les a produites. Ces notions peuvent être assez complètes pour qu’elles puissent aligner les notions d’une intelligence artificielle avec celles de l’humanité ».
Les textes choisis « apprennent aux enfants comment se comporter de manière socialement acceptable, avec des exemples de comportements appropriés et inappropriés, trouvés dans les fables, les romans et d’autres documents ». Ainsi, il deviendra avec le temps possible d’obtenir une IA ayant intégré les notions humaines sociales, et obtenir d’elle des réactions sensées.
Je cherche la pharmacie la plus proche... Gaudencio Garcinuño, CC BY SA 2.0
« Nous croyons que la compréhension d’histoires par les robots peut éliminer un comportement psychotique apparent, et renforcer les choix qui ne nuiront pas à l’homme, tout en obtenant l’effet désiré », concluent les chercheurs.
Développer les Intelligences Artificielles pour le bien-être des humains
Pour autant, il ne peut pas être possible de prévenir tous les dangers issus de la robotique, que les humains encourent. Et en filigrane de cette belle aventure scientifique, on serait tenté de retenir deux choses : les polarités du Bien et du Mal pourraient très bien être inversées, si l’on récompense la machine quand elle privilégie les mauvais comportements – voire qu’on la punit quand elle opte pour les bons.
Des textes subversifs peuvent aider alors à transformer radicalement la saine démarche, pour en obtenir des choses bien plus terrifiantes.
Dans le même temps, définir ce qui est une littérature édifiante à même de servir les intérêts communs reste un exercice périlleux. Des personnages ambigus – un Rastignac, bon ou mauvais ? – ou des situations nécessitant des choix entre peste et choléra, seraient-elles solubles par l’IA ?
A-t-on envisagé des doses d’aspirines, pour robots perplexes ?
Les travaux décrits dans l’étude indiquent cependant que la recherche ne fait finalement que débuter : la transmission d’une connaissance socioculturelle implicite et explicite à travers les histoires représente une première approche. « Cela nous permet de surmonter l’une des limites de l’alignement de la valeur : certaines ne peuvent pas facilement être exposées de manière exhaustive par un auteur humain. » Charge à la machine de compléter son apprentissage – et à l’humain de lui conférer les outils pour ce faire.
« Notre technique est un pas en avant dans la fabrication d’intelligence artificielle qui peuvent poursuivre leurs propres objectifs », dans le respect des êtres humains. « Comme le recours à l’IA se répand dans notre société, et que l’IA dispose de nouvelles capacités, les conséquences de leurs actions peuvent être importantes. Donner aux intelligences artificielles la capacité de lire et comprendre des histoires peut être le moyen le plus avantageux de les éduquer, de sorte qu’elles puissent s’intégrer au mieux dans les sociétés humaines et contribuer à notre bien-être global. »
Commenter cet article