Rentrée littéraire : La fashion week des libraires

medias

Des chercheurs utilisent des livres jeunesse pour “éduquer” les robots

- 17.02.2016

Ailleurs - robots - livres jeunesse - intelligence artificielle


Des chercheurs de l'Institut de Technologie de l'État de Georgie ont dévoilé une de leurs techniques pour améliorer les intelligences artificielles sur lesquelles ils travaillent. Des histoires destinées aux jeunes lecteurs sont soumises aux robots : en prenant la place des protagonistes, ces derniers assimileraient les conduites sociales les plus appropriées dans différentes situations. Une étape indispensable au perfectionnement de ces intelligences artificielles.

 

 

Robot automatique

(ActuaLitté, CC BY SA 2.0)

 

 

Les expériences qui impliquent littérature et intelligence artificielle ne sont pas récentes : d'ailleurs, l'étude menée par l'Institut en Georgie se base sur un projet antérieur, plus centré sur les jeux vidéo et l'interactivité. Celui-ci s'appuyait sur les choix multiples proposés aux joueurs dans un cadre vidéoludique, et tentait de générer un récit cohérent, quelle que soit la décision prise par le joueur. 

 

Les chercheurs Mark Riedl et Brent Harrison se sont pour leur part tournés vers les choix de l'intelligence artificielle elle-même : Riedl qualifie leur expérience de « premier pas vers une intelligence artificielle raisonnée ». Il s'agit cette fois d'inculquer à la machine des choix préférables à d'autres, dans une situation donnée. Et, pour inculquer un certain sens des conventions sociales aux robots, les chercheurs ont recours à des histoires pour enfants.

 

« Les histoires trouvées au sein des différentes cultures apprennent aux enfants comment se comporter de manière socialement acceptable, avec des exemples de bonne et de mauvaise conduites dans les fables, les romans et d'autres types de littératures », explique le chercheur. « Nous pensons que la compréhension de ces histoires par les robots permettra d'éliminer des réactions perçues comme psychotique et de renforcer des choix qui ne portent pas préjudice à l'humain, dans une situation donnée. »

 

Les explications semblent légèrement anxiogènes, mais un comportement jugé psychotique n'est pas forcément dangereux, il est avant tout... très bizarre. Un des exemples les plus frappants concerne le robot dont les traits ont été modelés d'après l'écrivain de science-fiction Philip K. Dick : il avait littéralement menacé un journaliste, en expliquant qu'il allait lui « garder une place au chaud, et en sécurité, dans mon zoo pour humains, d'où je pourrai vous regarder »...

 

Les chercheurs impliqués ajoutent que ce type de choix moraux sont pour l'instant réservés à des actions très simples, mais évoquent l'exemple d'un robot missionné par un humain pour obtenir en urgence des médicaments. La machine aura alors le choix entre braquer la pharmacie (sic), passer devant les autres clients ou attendre sagement dans la file. Avec le système étudié au sein de l'Institut de Technologie, le robot pourrait alors faire de bons choix, en évaluant la récompense sociale de tel ou tel comportement.

 

Et on assure que c'est plus efficace que les lois de la robotique...



Les histoires sans fin