Copyright © Françoise Herrmann
Depuis 1950, les informaticiens, et plus particulièrement les spécialistes de l’intelligence artificielle, lancent le défi du test de Turing. Il s’agit de savoir si les ordinateurs sont capables de penser et raisonner comme les humains. Pour le prouver, l’ordinateur doit être capable de faire croire à un utilisateur en situation de communication qu’il s’agit non pas d’une machine mais d’une personne en chair et en os qui lui répond.
Le défi du Test de Turing a lieu chaque année par devant un jury d’experts. En 2014, un programme ordinateur Chatbot, appelé Eugene Goostman, a su embobiner 33% des juges qui pensaient s’adresser en conversation libre à une personne en chair et en os.
Une partie de la communauté informatique a aussitôt proclamé que le Test de Turing avait été solutionné, alors que l’autre partie de la communauté a remarqué que le test de Turing ne faisait que prouver que les humains se font parfois embobinés et qu’ils ne s’agit pas en réalité d’un test de la capacité des machines à penser ni à raisonner, mais d’un test de détection de la supercherie. Ce qui renvoi à nouveau au problème de l’intelligence, de la pensée et du raisonnement humain, voire si la capacité à embobiner en fait partie, ou non…
Et ainsi de suite, en fait depuis plus d’un demi-siècle, car au fond l'intelligence artificielle n'a pas besoin d'etre humaine pour être vraiment utile, sauf peut-être s'il s'agit d'un outil permettant de mieux comprendre les différences irréconciliables qui peuvent exister entre les deux !
Ceci dit, post Turing, les informaticiens organisent maintenant des concours de bon sens. Si les ordinateurs sont capables de raisonner et de penser, ils doivent au moins faire preuve de bons sens. Pour tester cette nouvelle hypothèse, on utilise des questions d’ambiguité pronominale, comme par exemple:
Le fils de mon voisin est rentré de vacances; il est très content. Qui est content? a. mon voisin, b. son fils (exemple extrait de J. Dubois, 1973)voire encore:
Le trophée ne rentre pas dans le sac parce qu’il est trop grand/trop petit. Qu’est-
ce qui est trop grand/trop petit ? a. le sac b. le trophée? (Exemple traduit - Commonsense.org)
En cas d'amibiguité, on en revient aussi au fameux problème du “panier de la ménagère en légumes”. L'absurdité dans un sens indique que ce n'est évidemment pas la ménagère qui est en légumes, mais pour un programme ordinateur qui ne fonctionne pas au niveau du sens, mais au niveau de la syntaxe de la phrase, ce n’est pas aussi évident, et par conséquent pour les moteurs de traduction non plus !
Les phrases ambiguës, quelle que soit la source de l’ambiguïté, possèdent deux structures sématiques profondes selon les règles de réécriture d’une grammaire transformationnelle (Chomsky, 1957, Dubois, 1973, Dubois et Dubois-Charlier, 1970). Pour le cas du “panier de la ménagère en légumes” l'absurdité d'un des sens en éliminera une. Mais dans le cas de "mon voisin ou son fils", "du sac et du trophée" et ailleurs, la structure profonde en vigueur, le sens actif de l'énoncé n'est pas aussi évident en surface, et indépendamment d'un contexte particulier.
Autre exemple :
Georges aime Marie autant que Jean, cet énoncé signifie -t-il que "Georges aime Marie autant que Jean aime Marie" ou que "Georges aime Marie autant qu'il aime Jean"?
Donc, comment ces énoncés, et tous ceux qui présentent ce genre d'ambiguité, seront–ils ainsi traduits par un moteur de traduction? Comment seront-ils interprétés par un programme ordinateur en lice pour relever les défis en matière d'intelligence artificielle et de bon sens Post-Turning?
Pour le cas du pronom « il » en référence à mon voisin ou à son fils, pas de problème pour le moteur de traduction qui n'a pas besoin de comprendre qui est heureux pour traduire le pronom de la deuxième phrase correctement. Idem pour le cas du sac et du trophée, le moteur de traduction n’a pas besoin de savoir, ni de comprendre, qu’est-ce qui est trop petit ou trop grand pour traduire correctement le pronom de l’énoncé "il". À la limite aussi, le moteur de traduction n’a pas non plus besoin de savoir « qui aime qui » dans l’énoncé « George aime Marie autant que Jean », en tous cas pour la traduction du français vers l’anglais, et du moment qu’il n’y a pas trop de suite, ni d’antécédence…
Mais justement, si l’ordinateur n’a effectivement pas besoin de poser de questions pour comprendre et traduire correctement ces énoncés, s’il s’agit uniquement d’une manipulation syntactique logique, voire probabiliste, de symboles selon un, ou plusieurs, algorithme(s) de correspondance entre deux langues, on comprend bien, par la même occasion, que l’ordinateur se trouve donc dépourvu de bon sens! On comprend que l’ordinateur est effectivement incapable de raisonner ou de penser, et que la machine est vouée à échouer le test de Turing et ses versions plus récentes qui reformulent le défis en termes de bon sens.
C’est sans doute la raison pour laquelle certains moteurs de traduction entre interlocuteurs (par ex. Amikai) incluent une fonction d'interrogation Hein? (Huh? en anglais) permettant à l’utilisateur de demander une reformulation de l'énoncé traduit et ainsi d’en préciser davantage le sens. En effet, on peut alors supposer qu'en cas d'ambiguité, il y aura interrogation, et l'énoncé sera reformulé pour y éclairer la structure profonde en vigueur. en l'occurence mon voisin ou son fils, le trophée ou le sac, et qui aime qui, etc.. Ceci dit, ce sera encore l'utilisateur qui posera les questions, et qui invoquera la fonction "Hein?".
Autrement, nous en reviendrons à tous les coups au cas de "la ménagère en légumes", et les resultats vont vous faire pouffer de rire !
Autrement, nous en reviendrons à tous les coups au cas de "la ménagère en légumes", et les resultats vont vous faire pouffer de rire !
Alan Turing: L'interminable réhabilitation d'un génie - Le Monde - 28-01-2015
http://www.lemonde.fr/pixels/article/2015/01/28/alan-turing-l-interminable-rehabilitation-d-un-genie_4564537_4408996.html
Alan Turing: Creator of Modern computing
http://www.bbc.co.uk/timelines/z8bgr82
Amikai: Best of breed MT engines – Interview with Raymond Flournoy
http://www.transplore.com/article755.html
Chinese Room Argument (John Searle)
http://www.bbc.co.uk/timelines/z8bgr82
Amikai: Best of breed MT engines – Interview with Raymond Flournoy
http://www.transplore.com/article755.html
Chinese Room Argument (John Searle)
Chomsky, N. (1957) Syntactic Structures. The Hague, Netherlands: Mouton.
Comonsense Reasoning
http://commonsensereasoning.org/index.html
Dubois, J. & F. Dubois-Charlier, F. (1970) Éléments de lingustique française: Syntaxe. Paris, France: Larousse Langue et Langage.
http://commonsensereasoning.org/index.html
Dubois, J. & F. Dubois-Charlier, F. (1970) Éléments de lingustique française: Syntaxe. Paris, France: Larousse Langue et Langage.
Dubois, J. (1973) Grammaire structurale du français: Nom et promom. Paris, France: Larousse Langue et Langage.
Eugene Goostman
https://fr.wikipedia.org/wiki/Eugene_Goostman
Test de Turing
https://fr.wikipedia.org/wiki/Test_de_Turing
Eugene Goostman
https://fr.wikipedia.org/wiki/Eugene_Goostman
Test de Turing
https://fr.wikipedia.org/wiki/Test_de_Turing
No comments:
Post a Comment