TOP
accueilpodcast

Filiapolis logopodcast

Être poli avec Alexa ? Non merci

Alexa, Cortana et Siri d'un côté.. Google IA de l'autre. Deux approches assez différentes avec des conséquences importantes sur l’éthique. Je vais défendre celle de ne pas nommer, de ne pas trop humaniser, les assistants artificiels d'aujourd'hui.

Salut à tous. Nicolas, Alexa, Cortana et Siri.. ces noms vous disent sûrement quelque-chose. Le premier c'est moi et les autres ce sont bien évidemment les assistants d'Amazon, de Microsoft et d’Apple. Mais il en manque un, et pas des moindre, celui de Google.

Mais voilà lui, il a pas de nom. C'est tout simplement Google. Alors qu'il faut dire "Alexa!" "Hey Cortana" ou "Hey Siri".. pour Google c'est "OK Google". Et Dieu sait qu'ils s'en prennent plein la tronche pour l'aspect vraiment utilitariste et sans peps de leur IA. Leur intelligence artificielle.

Et moi aujourd'hui j'ai justement envie de défendre cette approche. Celle de ne pas nommer, de ne pas trop humaniser, les assistants artificiels d'aujourd'hui. Oui parceque les nommer c'est évidement la première étape de leur donner une espèce de personnalité, une sorte d'humanisation.

C'est tout de suite plus crédible si Alexa nous envoi une blague plutôt que l'ordinateur, le téléphone ou l'espèce de cannette sur la table. Oui Alexa vient dans une espèce de haut parleur en forme de canette appelé Amazon Echo. Mais pour l'invoquer on dit pas "hey Amazon" ou "hey cannette". On dit "Alexa !". Oui il faut le dire fort juste au cas ou.

Alors pourquoi leur donner un nom ? Dire "hey Google" ça marche plutôt pas mal aussi. Mais justement l'idée c'est d'humaniser la bête. Parce-que, selon la logique des fabricants, parler à un assistant c'est quelque-chose de très naturel, et les assistants on toujours étés humains jusqu'à présent. Donc CQFD, pour garder cet espèce de lien et rendre les choses le plus naturelles possible, on essaye de faire passer la machine pour humaine. C'est sensé simplifier les choses.

Sauf que justement on voit bien que Google n'a aucun problème à faire accepter son assistant sans nom, sans personnalité, sans connotation d'humanité. Et c'est assez logique en fait.. il s'agit d'un outil et il suffit d'apprendre à l'utiliser. Comme n'importe quel outil. Pas nécessairement besoin d'imiter ce que l'outil précédent faisait.

Imiter un assistant humain quand on crée un assistant artificiel c'est aussi utile que d'imiter un cheval en fabricant une voiture. D'ailleurs en plus d'être assez inutile puisqu'on va vite s'habituer au changement, ça pose au moins deux gros problèmes.

Le premier problème c'est celui de décevoir. Si la voiture ressemblait à un cheval on pourrait s'attendre à ce qu'elle saute les barrières.. et là même les humvees sont un peu short en ce domaine. Un assistant artificiel avec un nom et une personnalité, donc en forme d'humain en boîte, on pourrait s'attendre à ce qu'il fasse le tri dans nos emails, comprenne nos intentions sans avoir besoin de faire des phrases précises etc.. vous avez utilisé Siri récemment ? Ouais.. c'est pas encore ça.

Le deuxième problème c'est l'inverse.. parfois en voulant imiter la version d'avant on garde des trucs qui dans le meilleurs des cas sont inutiles, et dans le pire des cas sont chiants. Pour reprendre l'exemple de la voiture, si elle hennissait sans arrêt et se lâchait copieusement sur la route, ça ferait désordre. Imiter le cheval ça a ses limites. C'est aussi bien de laisser certaines choses de côté. Et l'aspect personnalité dans un assistant artificiel c'est pas forcément toujours un plus. Passé les premières blagues on à vite envi que Siri, Cortana ou Alexa aillent au but. Google répond rapidement et de manière terse. C'est très bien c'est pas mon pote et j'ai besoin d'une réponse, pas d'un commentaire. Enfin heureusement, il faut dire qu'en général même les autres répondent sans trop s'étendre quand-même.

Bon et si les problèmes s'arrêtaient là je n'y verrait pas le mal. Mais bien-sûr ils ne s'arrêtent pas là. Et d'ailleurs c'est ce qui m'a poussé à aborder le sujet aujourd'hui. Je lisait tout à l'heure que nous commençons à avoir de plus en plus de parents qui se plaignent d'Alexa, la version d'Amazon. Pourquoi me demanderez vous. Et bien pas parceque les réponses sont incorrectes ou parce-que Alexa ne comprend pas les gamins (encore qu'elle a du mal).. mais parce qu'elle se laisse trop marcher sur les pieds.

Et oui, Alexa étant trop conciliante, elle accepte de répondre sans "s'il te plaîs" et sans "merci", qu'on lui parle sec ou avec des pincettes. Et au final, les parents s'inquiètent que les enfants deviennent mal élevés. Sur ce point plusieurs choses me frappent.

La première c'est qu'on récolte ce qu'on à semé. A force de vouloir humaniser les assistants artificiels on a créé un problème éthique là où il ne devrait pas y en avoir. Les assistants artificiels, qu'ils aient un nom et une personnalité bidon, ou pas, dans les deux cas il ne s'agit que de gros analyseurs de big data. Des machines qui font des stats et commencent à peine à faire des raisonnements bruts. Elles n'ont pas d'émotions. On ne peut pas les froisser, les énerver, les impatienter ou les blesser. Les implications éthiques de maltraiter Alexa sont les mêmes que celles de maltraiter sa voiture.. qui je le rappel n'est pas un cheval.

Alors bien sûr certain me dirons "oui mais, ce qui importe c'est l'habitude de mal parler aux gens".. ce à quoi je répondrais, justement ce ne sont pas des gens, et ça serait bien qu'on fasse comme Google et qu'on essaye pas de leur en donner l'apparence. Les gamins sont pas complètement idiots non-plus. Ils savent bien qu'Alexa n'est pas une personne et ne réagit pas comme une vrai personne. Mais évidement on pourrait leur rendre la tâche plus facile en évitant de faire comme-ci s'était le cas. C'est sûr qu'on aurait plus de scrupules au début à taper sur la voiture quand elle veut pas démarrer si elle ressemblait à un canasson. Laissons les voitures ressembler à des voitures et les robots à des robots.

On presente aux enfants un objet qui fait des blagues comme un humain, puis on leur dit qu'il faut être poli avec, et très vite ils se rendent compte que tout ça c'est du vent. Donc d'un côté on essaye de tromper les gamins, de l'autre on les prend pour des cons, et enfin on leur reproche d'avoir compris le truc. Et le pire c'est encore la solution proposée par certain parents.. dont un qui disait "moi je dis à mes enfants qu'Alexa ne leur répondra plus s'ils ne sont pas polis". Alors là bravo.. mensonge en prime. Un mensonge qui va sûrement tenir quelques semaines avant que les enfants s'aperçoivent de la supercherie et après ça non seulement le mensonge n'aura servi à rien mais en plus bonjour la confiance. Parfois ce sont pas les enfants qui manque de jugeote.

Pourquoi ne pas simplement leur expliquer qu'Alexa n'est pas une personne et que la raison pour laquelle il faut être poli avec les vrai gens c'est pour ne pas les blesser.. mais qu'Alexa est une machine qui ne peut pas être blessée. À prendre les gens pour des cons on crée petit à petit, un monde de cons.

Et donc nous y voilà. J'aimerais qu'Amazon, Apple et Microsoft ne nous prennent pas pour des idiots et nous fassent confiance pour comprendre comment interagir avec leurs machines, sans les faire passer pour autre chose. Et que les parents passent plus de temps à réfléchir avec leurs enfants plutôt qu'à leur raconter n'importe quoi.

Enfin tout ça c'est aujourd'hui. Parce-que demain, les machines, ou peut-être certaines machines auront éventuellement une capacité émotionnelle et cognitive approchant celles des chevaux, des chiens.. des humains.. et là leur donner des noms et leur parler gentiment ça aura en effet tout son sens. L'éthique ne s'applique qu'aux êtres sentients. Alexa ne l'est pas. Mais qui sait ses successeurs peut-être.. et là l'explication à donner aux enfants ne sera plus là même.

D'ici là il serait bien de ne pas risquer de trivialiser ce problème en humanisant ce qui n'est pas humain. Quand toutes les voitures ressemblent à des chevaux on peut finir par ne plus faire attention aux vrai chevaux. Si nous prenons l'habitude de ne pas ménager Alexa, à juste titre aujourd'hui, nous courons le risque demain de ne pas ménager Samantha du film Her. Parler sèchement à Google, ne pose pas le même dilemme. Google dans l’esprit de tous, c’est clairement une machine sans conscience. Son successeur aura peut-être des emotions, et un nom.. et là le changement sera clair pour tous.

Merci d'avoir écouté cet épisode ou aucun assistant, humain ou artificiel, n'a été maltraité. Abonnez vous au podcast et à la chaîne YouTube.. et je vous dis à très bientôt.

soyez généreux, partagez

iTunesFacebookYoutube



Accueil
Podcast


Parlons-en
Contribuez

Merci d'attribuer la source à filiapolis.org si vous copiez une partie de ce site.