17.12.2015
C’est un robot qui dit non
Aux Etats-Unis, des chercheurs apprennent à un robot à rejeter les ordres venant d’un être humain s’ils s’avèrent dangereux pour lui...
Si vous êtes un/e passionné/e de science-fiction, vous connaissez assurément les
trois lois de la robotique écrites par Isaac Asimov, écrivain de science-fiction. Pour les personnes qui ne les connaissent pas, sachez qu’elles servent à organiser les relations entre les robots et les humains en obligeant les premiers à ne jamais s’en prendre aux seconds et à toujours respecter leurs ordres, à condition que les consignes données n’entrent pas en contradiction avec la règle de préservation des Hommes.
Ces trois lois inspirent aujourd’hui les scientifiques œuvrant dans le domaine de la robotique. Ainsi, dans le secteur de l’intelligence artificielle, des voix commencent à se faire entendre pour réclamer un encadrement plus strict de son développement, en s’inspirant des pistes couchées sur papier par Isaac Asimov. Le but : éviter que des robots trop capables ne se retournent contre l’humanité.
Parmi ces trois lois, l'une penche en faveur des robots. Celle-ci convie le robot à « protéger son existence tant que cette protection n’entre pas en conflit » avec les autres lois. La société Aldebaran Robotics s’est en quelque sorte inspirée de cette loi et a programmé le robot Nao à rejeter des ordres provenant d’un Homme si ces derniers pouvaient être dangereux pour lui.
Dans une démonstration vidéo que vous pouvez visionner ici, l’un des chercheurs de l’Université de Tufts demande au robot Nao de se lever puis de marcher vers le bord de la table. Ce dernier refuse d’obéir car il a détecté la présence du vide et le risque de chute qui pourrait l’endommager. Le chercheur renouvelle sa demande en ajoutant qu’il le rattrapera. Nao accepte alors d’exécuter l’ordre.
Cette démonstration vidéo a pour but de montrer l’intérêt de permettre à un robot de refuser une consigne afin d’obliger l’humain à être plus clair dans ses instructions. Elle illustre aussi la construction de la déduction du robot qui prend en compte les informations délivrées par le contrôleur (l’ordre « marche droit devant » a été refusé par la machine face au risque de chute, mais la commande « je te rattraperai » a été dite ensuite). Intéressant.
Source : futura-sciences.com
»