Cet article retrace les conversations portant sur l'intelligence artificielle que j'ai pu avoir depuis 2014 avec différentes personnes concernées de près ou de loin par le sujet.

gits-ban-nb-1

Sommaire

Input ~ Output
Input : importance de l'oubli
Output et rapport au corps humain
Plaisir ~ douleur
Le « comme=bien, pas comme=mal »
Réseau neuronal
La machine artiste
Musique
Créativité
Vie et intelligence
Perfection artificielle
Virtuosité relative
Continuité intérieur extérieur

Conversation avec Rots, Nuki, Sylvanor, et Kevar ~ mai 2014

Input ~ Output

Input : importance de l'oubli

R. — Je suis convaincu que c'est biaisé et laid conceptuellement de devoir fournir une base de mots reconnus à un chatterbot. Pour moi un bon chatterbot doit mémoriser un mot nouveau lorsqu'il le rencontre souvent. Et lui donner un sens par sa présence simultanée avec d'autres mots.

J'avais déjà travaillé sur un modèle de chatterbot qui lui ne reconnaissait que les lettres et quand il voyait que des lettres étaient souvent ensemble (mot) il créait un nouveau neurone pour le mot, et reliait ces mots avec d'autres.

Une chose qu'on oublie souvent quand on fait une IA neuronale, c'est l'importance de l'oubli. On se concentre beaucoup sur le fait d'apprendre, mais il faut souvent faire le ménage des concepts les moins utilisés c'est à dire les moins pertinents. Ne serait-ce que pour des raisons d'espace de stockage.

N. — De vitesse de traversée aussi ?

R. — Oui mais tout ça c'est de la basse matérialité quasi hardwarienne qui ne mérite qu'un peu d'attention pour une optimisation raisonnable.

Ce système est extensible car à la place des lettres on peut rajouter comme sens (oui car chaque lettre est un sens, ou du moins une cellule d'un organe des sens qui est le formulaire à alphabet) des triplets "fréquence lumineuse / coordonée X / coordonnée Y" et avec exactement le même programme reconnaitre des formes colorées et les associer à des concepts, c'est à dire une caméra/oeil qui comprend ce qu'il voit.
Ou bien des cellules sensorielles "fréquence sonore", qui lorsqu'elles rencontrent souvent simultanément certaines fréquences associent un concept (un timbre, un bruit).

Si on connecte plusieurs sens, on a un concept qui possède un bruit un mot et une image. Le côté input est terminé.

Output et rapport au corps humain

R. — La deuxième phase, c'est l'output. Donc on peut avoir l'alphabet comme organe d'action (sortie textuelle), du bruit (parole, jamais essayé, je sais pas ce que ça peut donner un ordi qui essaie de parler en imitant un humain parler, peut-être comme un bébé qui apprend à dire papamaman...), des images, des mouvements (bras articulés ?)...

Je n'avais implémenté que l'alphabet, mais j'avais déjà mis en évidence des mots et des connexions de mots. Par contre je n'ai jamais codé l'output. D'ailleurs la partie output est une partie à laquelle je n'ai quasiment pas encore réfléchi pour l'instant.

Si dans la base de données tu associes le mot kiwi au fait de lever les bras en l'air, si tu fais une liaison directe, à chaque fois que tu diras kiwi à l'ordinateur il lèvera les bras en l'air. Au début seulement en réalité. Car l'output devient intelligente à partir du moment ou elle a un impact sur l'extérieur qui est captable par l'input (les sens). Donc si l'ordi voit ses bras se lever lorsque le neurone d'action "bras en l'air" est activé, il va faire la connexion entre le phénomène observé et l'action, et non plus à kiwi.

La partie de la question de l'output qui reste brumeuse pour moi est la notion de volonté. Comment implémenter la volonté ? Un ordi peut comprendre, assimiler, mais s'il n'a aucun intérêt à produire des outputs il ne fera rien. La volonté je pense est une conséquence directe de l'implémentation plaisir/douleur. Si une chose fait souffrir ou fait du bien, le réseau de neurone instruit peut éviter/rechercher le phénomène en créant une output.

Plaisir et douleur

« comme=bien, pas comme=mal »

R. — Comment implémenter plaisir/douleur ? C'est une question extrêmement difficile en apparence "comment faire souffrir une machine ?". Personnellement j'ai une idée qui me semble extrêmement puissante pour résoudre ce problème. [Attention, à partir d'ici c'est non-conventionnel et non testé ; j'aimerais beaucoup l'implémenter]

J'appelle ça le "comme=bien, pas comme=mal" : quand une chose détectée (input) est habituelle (déjà enregistrée) la conséquence est le plaisir / le calme ; quand une chose détectée est nouvelle (inexistante / en contradiction avec la mémoire)la conséquence est la souffrance / l'angoisse. Le calme (le "comme") réduit le flux de réflexion, l'angoisse (le "pas comme") augmente le flux de réflexion (panique) pour tenter de comprendre le nouveau phénomène et d'y apporter une réponse (output ?). Le "comme/pas comme" doit être le moteur du réseau de neurone, il doit non seulement avoir un impact sur l'état de panique, mais être également le "but" du réseau : tout "pas comme" doit être résolu par la dislocation/création de concepts (= compréhension du monde extérieur, peur de l'incompris), le "comme" est recherché. Je pense que c'est difficile d'implémenter les émotions sur un réseau de neurones, tout simplement parce que les émotions sont essentiellement dues à l'intelligence hormonale et non à l'intelligence neuronale, même si les deux sont étroitement liées.

Dans le cas d'un réseau de neurones pur, je pense -même si c'est audacieux philosophiquement- qu'on peut IDENTIFIER le comme au plaisir / au calme, et le pas comme à la douleur / la peur. On a peur de ce qu'on ne connait pas (ce qui n'est pas en mémoire), de ce qu'on ne comprend pas (incohérence avec la mémoire), je renvoie à la peur du noir qui est la peur de ne pas comprendre/maitriser son environnement ; la peur de l'autre qu'on peut ne pas comprendre, ne pas prédire, ne pas maitriser ; l'amour de soi, le soi étant la chose la plus "comme", puisque le réseau de neurone est ce qui est le plus en cohérence avec lui-même, il est ce qu'il connait le plus puisqu'il est tout ce qu'il connait, il est ce qu'il maitrise le plus puisqu'il a l'action directe via l'output ; l'amour des autres, ici, ceux qui nous ressemblent, ceux que l'on comprend ; la peur la plus grande étant l'incohérence la plus grande pour le réseau, c'est à dire la négation totale de tout ce qu'il contient, assavoir sa non existence, qu'il ne peut conceptualiser puisque c'est l'opposé de son esprit, je renvoie à la peur de la mort ; si on lui enseigne que faire telle chose dangereuse le fera mourir, cette chose est associée conceptuellement à la mort et donc indirectement au "pas comme", du coup le réseau produira une output pour éviter ce phénomène.
Ceci est purement spéculatif, mais c'est la seule façon que je vois d'implémenter formellement des émotions et une "pompe à output" c'est à dire une volonté.

Sinon tu peux faire une output forcée à la détection de concepts (mots) très actifs après avoir reçu une phrase en input. Comme tu as fait un alphabet d'input (chaque lettre est un neurone d'entrée) il faudra faire un alphabet d'output (un neurone qui quand activé provoque l'écriture -code en dur- d'une lettre à l'écran). Il est essentiel que l'ordinateur voie (capte en input) ce qu'il écrit pour pouvoir se corriger. Un enfant qui apprend doit coordonner ses actions avec ce qu'il voit : les jeunes enfants quand ils essaient de mettre de la nourriture dans leur bouche, la plupart du temps ça finit dans leur oeil droit ; mais ils captent avec leur oeil que le mouvement était mauvais alors ils renvoient une output au bras jusqu'à ce que la nourriture arrive dans la bouche. Apprendre à marcher ce n'est pas évident non plus, ça demande une extrême coordination des inputs et des outputs. Quelqu'un qui n'a aucun sens (ne peut pas voir, entendre, toucher, avoir une sensation d'équilibre) ne pourra JAMAIS marcher, puisqu'il ne peut pas corriger son erreur.

S. — Ta vision du plaisir et de l'angoisse liés à ce qu'on connaît et ne connaît pas me semble lacunaire, sinon. Par exemple, elle ne laisse pas sa place au "plaisir d'apprendre" (qui devient panique), et on peut avoir très peur de quelque chose que l'on connaît, aussi.

R. — Apprendre, c'est résoudre l'incompris et l'inconnu. C'est la transformation du "pas comme" en "comme", normal que ça puisse être un plaisir. Quelque chose que l'on connait, mais que l'on ne maîtrise pas, ou bien qui peut nous mettre en danger.

Réseau neuronal

L. — Peux-tu expliquer le fonctionnement de ton réseau neuronal ?

R. — J'avais fait deux tables : la table des neurones, la table des liens. Un lien relie un neurone A à un neurone B (avec A différent de B). Tu peux faire une base qui confond le lien "A vers B" avec le lien "B vers A", je te le conseille dans un premier temps.

Comme je tiens beaucoup à l'oubli, j'avais fait que les neurones et liens créés peuvent être oubliés si très très peu actifs ou si fortement contredits. Par contre, pour éviter de supprimer les neurones d'input (sens) et d'outputs (mouvements au sens large, incluant la parole), j'avais fait un champ booléen "supprimable" pour la table neurone. Tous les liens sont supprimables.

Bien sur dans la table neurone il y a un champ pour l'activité actuelle (au temps t), et dans la table lien il y a un champ pour la pertinence du lien.
Un neurone qui reçoit des signaux d'une certaine force de la part de neurones voisins va transmettre son activité à tous ses neurones voisins proportionnellement à la pertinence de son lien avec chacun. Si le neurone "nuit" est relié à "lune" avec une force 0,9 et avec "choucroute" avec une force "0,1", s'il est activé par ses camarades à 100, il va transmettre 90 d'activation à lune et 10 à choucroute. Ici dans mon exemple c'est linéaire, mais tu peux rajouter (c'est conseillé) un seuil pour que le neurone ne transmette rien si ses camarades ne lui envoient pas assez.

Deux types de neurones ont un traitement spécial : les neurones d'input et les neurones d'output. Les neurones d'input sont activés seulement par du code en dur dès qu'il y a un signal dans un "organe des sens" : formulaire de texte, caméra, micro... Les neurones d'output à l'inverse activent du code en dur s'ils sont suffisamment activés : bras articulé, sortie textuelle, bruit...
Entre chaque tour où les neurones se transmettent leurs activités en fonction des pertinences des liens, le code de supervision globale du réseau regarde si les neurones activés simultanément correspondent aux liens : si ça correspond on renforce les liens, [dans le cadre de ma théorie ici on active du "comme" ,] si ça ne correspond pas il faut affaiblir les liens contredits (voire tuer des neurones (oubli)) et créer des neurones et des liens pour décrire le nouveau phénomène, [ici dans ma théorie on active du "pas comme"].

Pour créer un neurone qui correspond à une nouvelle carte de simultanéité, on ajoute le neurone ainsi que des liens forts (mais tout de même proportionnels à l'activité de chaque neurone) vers les neurones qui étaient activés simultanément. Ce nouveau neurone qui relie tous les neurones qui étaient activés simultanément dans cette configuration nouvelle (= nouveau concept inconnu), ce nouveau neurone représente alors en mémoire ce nouveau concept. S'il est pertinent, il sera renforcé dans le futur, sinon il sera détruit.

Et ce "comme / pas comme" est exactement ce pourquoi une machine préfèrera -tout comme un humain- l'accord do mi sol à l'accord si fa sol#.

La machine artiste

machine-artiste-nb

Musique

S. — J'ai lu ce paragraphe sur la musique qui m'a interrogé dans l'océan de vos posts auxquels je ne comprends absolument rien. Mais j'ai entendu parler d'expériences qui avaient été menées, du type faire composer de la musique à un ordinateur, ou créer de la musique à partir de "croisements" de sons et d'éléments constituants divers "idéaux" faits par ordinateurs, et il paraît que ça a toujours donné de très mauvais résultats.
Tu as entendu parler de ces expériences? Qu'est-ce que tu en penses?

R. — Alors les chercheurs sont rarement à la fois de très bons musiciens et de très bons informaticiens. Il y a eu des expériences, assez mauvaises, certes.
Dans le cadre d'un projet j'ai commencé à faire un programme qui compose de la musique, j'ai défini des règles sur les accords autorisés, l'enchainement des accords, comment construire une mélodie. J'ai eu de relatifs très bons résultats, la musique commençait bien, mais à cause d'une erreur dans la manipulation des indices des tableaux un décalage se formait entre la mélodie et l'harmonie ce qui créait des dissonances. Je compte le recoder intégralement dès que j'aurai le temps, c'est un projet très intéressant et très faisable, j'insiste.


Ajout juillet 2014 : Rots obtient des résultats avec son programme composeur de musique

R. — Sylvanor avait demandé à entendre ce que faisait mon programme composeur de musique, ça peut intéresser d'autres personnes également.
Pour l'instant il ne gère qu'un instrument à la fois (je suis en train de réfléchir à la façon dont je vais implémenter l'écriture de plusieurs instruments en même temps au niveau des listes et des beans).

  • J'ai rapidement enregistré quelques notes pour constituer une gamme (histoire qu'on puisse entendre ce que le programme pond, parce que lire un tableau de chiffres c'est pas évocateur)
  • J'ai réglé l'instrument en comportement "mélodie"
  • et en ambiance "joyeuse"

Je suis plutôt content : ça ressemble à une mélodie joviale qu'aurait pu composer un humain, et c'est complètement exploitable dans un jeu vidéo rétro.

Après on pourra superposer d'autres instruments en comportement "accompagnement dans les graves", "accompagnement dans les aigus", "contre-mélodie"...
Et une piste de percussions qui fait poum-poum-tchik !

Actuellement je réfléchis à mes manipulations de listes et de beans, parce que le diagramme des classes commence à être labyrinthique. Je cherche la façon la plus propre/élégante d'implémenter ça. Je pourrais le faire tout de suite, de façon dégueulasse, mais si jamais y'a un bug je ne saurai pas le corriger.


Ajout août 2018 : Performance au piano en temps réel par un réseau neuronal. (tensorflow.js)


Créativité

S. — Et dans une approche plus large, est-ce qu'on peut encore parler d'art si tout repose seulement sur des règles et des éléments calculables ?

R. — L'art c'est le fait de créer (par technique (= connaissance prédictive de ce qui sera beau et ce qui ne le sera pas), parfois par chance) sur un phénomène beau, c'est-à-dire interprété par un réseau de neurone comme majoritairement "comme". Donc oui c'est exactement ça.

S. — C'est très très discutable: tout ce qui est beau n'est pas art, et tout ce qui est art n'est pas beau.
L'art ça peut être très différent de simplement faire du beau, mais bon là on est plutôt sur le terrain de la philosophie. L'art c'est aussi l'inattendu, par exemple, c'est le questionnement, c'est une sorte de dialogue entre l'oeuvre et le spectateur, pour donner quelques pistes de réflexion. Pour reprendre une réflexion d'Yves Michaud, l'art c'est également un certain niveau de virtuosité technique. Or il n'y a pas de virtuosité technique s'il y a une machine à la place d'un humain.
Et puis l'art simplement beau, c'est souvent ce qu'on appelle du kitsch.
Bon évidemment je ne cherche pas à te dire ce qu'est l'art (d'ailleurs au fond personne ne peut vraiment le dire), mais il ne faut peut-être pas se contenter d'un raisonnement mathématique...?

Partir de l'idée que tout n'est que calcul, ça me rappelle les théories de Norbert Wiener, père de la cybernétique. Ca a été très critiqué par les chercheurs en sciences humaines pour les nombreuses dérives dangereuses que ça peut occasionner et l'aspect très réducteur de la vision donnée de l'humain. Wiener lui-même d'ailleurs a changé d'avis et s'est "repenti" sur la fin de sa vie.

R. — C'est quoi cette discrimination terriblement raciste ? Pourquoi interdire aux machines le droit de faire de l'art et de dénigrer leur travail en se basant sur le simple fait que ce sont des machines ?
C'est absurde d'ailleurs, vu que l'humain est une machine.

S. — Ca dépend de ce que tu entends par machine. A priori je ne suis pas du tout d'accord avec toi.

R. — Ce qui compte pour faire de l'art, ce n'est pas d'être une machine ou pas, mais c'est de ne pas être un outil. La différence est grande, car la machine peut avoir une intelligence et une volonté propre. C'est sûrement le mot que tu as voulu utiliser, outil. Une machine munie d'une intelligence et d'une volonté propre est comme toi. Ne fais pas de discrimination raciale envers les ferreux.

La vie et l'intelligence

S. — Une machine ne peut pas être dotée d'une volonté propre. Il n'y a pas de "vie" qui permet à cette machine de fonctionner. Ce n'est qu'un assemblage de codes alimenté par de l'électricité et éventuellement des fonctions aléatoires soumises à des conditions.
Tout dépendants que nous sommes de notre corps, et même de la structure de notre cerveau en ce qui concerne notre intellect, il y a quelque chose qui fait que nous sommes conscients, que nous ne sommes pas juste quelque chose qui "a l'air" conscient mais qui vit réellement et est conscient réellement.
J'ai l'impression de dire un truc très ésotérique, mais je crois que le plus ésotérique de nous deux c'est quand même toi.

Tu as dû voir trop de ces films de SF où on a des personnages robots qui ont l'air très "humains" et pour lesquels on se prend d'affection, qu'on prend en pitié lorsque de vrais humains les considèrent seulement comme des machines et passent pour de gros fachos. Un robot peut avoir l'air extrêmement humain, il reste un logiciel faisant bouger du métal, il n'y a aucune vie derrière, seulement un simulacre d'émotion et d'intentions. C'est la même chose que l'IA d'un jeu vidéo en plus développée, et pour laquelle je n'ai aucune amitié, aucune empathie, et parler de racisme est absurde.

A la limite si tu parviens à faire qu'une IA réalise quelque chose d'intéressant d'un point de vue artistique, l'artiste c'est toi et non la machine. Et le produit est oeuvre d'art probablement plus grâce à son concept d'oeuvre d'art réalisée par une machine programmée pour faire des oeuvres d'art, que comme oeuvre d'art "directe".

Tu devrais lire "L'utopie de la communication" de Philippe Breton, il fait tout l'historique de l'idéologie de la communication dans ce bouquin, idéologie qui comme toi pense que l'ensemble de la réalité et des êtres vivants peuvent se résumer à des calculs et formules mathématiques.

Ou alors tu fais de l'humour, et dans ce cas je me suis fait avoir. D'habitude je repère facilement ton ironie, là tu as l'air plus sérieux que d'habitude.

R. — Un ordinateur est une machine électronique, je ne pense pas que l'humain puisse faire des choses qu'un ordinateur ne peut pas faire. Peu importe le matériau de la machine. Je pense que tu fais une fixation sur le fer, je te croyais plus tolérant.

Tu veux sûrement dire "il n'existe PAS ENCORE de machine ferreuse qui peut inventer des dessins aussi bizarres que les miens par une volonté propre et non pas par des règles codées en dur". Mais ça n'a rien d'impossible, c'est même très faisable. Avec les puissances de calcul qui augmentent exponentiellement, sans parler de l'arrivée des ordinateurs quantiques qui permettent le parcours de tableaux en un temps sous-proportionnel à la taille du tableau, on peut manipuler des réseaux de neurones et leurs liens factoriels de plus en plus intéressants. Je pense que tu devrais te renseigner sur l'algorithme de Grover et lire ces livres :

  • Sein und Zeit, de Martin Heidegger (lis-le en allemand)
  • Ce qu'est et comment se détermine la phusis
  • La Fin de la philosophie et la tâche de la pensée
  • La biographie illustrée de Patrick Sébastien

S. — Je vais commencer tes suggestions de lecture par la fin. Je verrai si je trouve ça en bibliothèque.

R. — Non ce n'était pas sérieux cette histoire de bouquins et d'algorithme de Grover (même si l'algorithme existe et est un cas de parcours de tableau sous-proportionnel).
Avec trotter on a listé toutes les tactiques de guerre, notamment celle qui consiste à renvoyer l'adversaire lire un livre, technique que tu utilises souvent et à raison vu qu'elle est très puissante : elle ajoute une valeur d'autorité et fait passer l'adversaire pour moins lettré.

S. — Ha ! Ha ! Oui c'est vrai j'aime bien faire ça, mais c'est aussi parce que j'ai envie de partager des lectures qui m'ont plu. Fais gaffe je risque de te prendre au mot et d'aller lire ce que tu me conseilles.

Pour revenir au sujet je crois que tu te plantes. Peu importe ce qu'une machine est "capable" de réaliser, peu importe la puissance de ses algorithmes, elle n'est pas vivante. Elle donne l'impression de l'être, avec beaucoup de réalisme, elle simule la vie, mais elle n'est pas vivante. Quand tu programmes, tu ne crées pas la vie. Et tu ne pourras jamais le prouver empiriquement, car c'est un problème ontologique.
On ne sait pas créer la vie (sinon biologiquement, évidemment). Et ce n'est certainement pas avec des circuits imprimés et des algorithmes que l'on créera la vie.
Dire que tu crées la vie quand tu crées une super machine revient à dire que tu crées une vie (basique) quand tu crées une machine primitive (comme une bête IA, un chatterbot, une IA de jeu vidéo, etc). Or, ça n'a rien à voir avec une vie. Et si ces dernières ne sont pas une vie, mais qu'une super machine est une vie, alors à partir de quand une IA commence-t-elle à être vivante? Ca n'a aucun sens.

Ta confusion me fait penser au tableau de Magritte: "ceci n'est pas une pipe". Tu confonds le tableau et la pipe. Tu confonds l'IA qui imite l'intelligence et la vie avec la véritable intelligence et la véritable vie.

magritte

R. — Je t'arrête tout de suite, je ne parle pas de vie, je parle seulement d'intelligence. Je sais très bien que le fer ne vit pas.
Tu me rappelles un tableau du peintre Hollandais Johann Vandenbeck "le juge et le chapeau", tu confonds le juge avec le chapeau toi aussi.

S. — Ok, je vois ce que tu veux dire. Mais est-ce qu'une intelligence sans vie, ça existe vraiment? Est-ce que ce n'est pas qu'une imitation?
Tu peux répondre que oui, ça fonctionne. Je suis prêt à te l'accorder. Mais dans ce cas, je pense que l'art c'est plus que de l'intelligence, car c'est du ressenti. Et le ressenti est lié au vivant, à l'expérience du vivant.
Soit dit en passant je ne trouve aucune trace de ton tableau sur Google Images. C'est un piège, ou Google est nul, ou tu as fait une faute?

Il est vrai qu'il n'existe peut-être pas de choses qu'un humain puisse faire et qu'une machine (supposons infiniment puissante) ne puisse pas faire. Mais la machine n'étant pas vivante, elle n'a pas d'intention.
Or, nous parlions d'art. On peut dire que l'intention ne compte pas dans l'art, c'est une vision possible, mais pour beaucoup de monde, elle compte. Elle est même à la base de l'art contemporain, par exemple.
De plus, l'humain n'est pas qu'une "machine à faire des choses", fort heureusement.

La perfection est artificielle

S. — L'art se définit aussi par sa rareté, par sa qualité d'objet unique. Même s'il est reproductible grâce aux technologies numériques, il reste une oeuvre de l'esprit (et de la main) unique. Si une machine crée de l'art, elle peut en produire à l'infini, parfaitement identique ou sous maintes déclinaisons sans aucun effort. Et toutes les machines produites sous le même modèle pourront en faire autant. Peut-on alors parler d'art pour une pièce reproductible à l'infini, imitable à l'infini, sans effort, et sans intentionnalité?

R. — Je peux composer un morceau de musique et composer le même morceau à l'identique autant de fois que je veux. Pour le dessin c'est très difficile parce qu'il y a la précision du trait qui entre en jeu, mais même, deux machines ne produiront pas le même dessin avec une précision allant jusqu'à l'atome, donc on peut dire qu'ils sont aussi différents que toi lorsque tu dessines deux fois le même dessin et que le seuil de précision est arbitraire.

S. — Pour une oeuvre très peu complexe, c'est possible que tu parviennes à la composer une seconde fois à l'identique. Mais je ne suis pas sûr que si on avait demandé à Mozart de re-composer à l'identique ses concertos (ou toute autre oeuvre plutôt complexe) il y serait parvenu.
Et quand bien même il y parviendrait (ce qui serait alors un exploit, et non un fait banal comme c'est le cas pour une machine), on en est à limiter l'art à sa phase de conception. L'art c'est aussi l'interprétation. Et en musique tu vois bien qu'il y a mille façons de jouer la même pièce.
Certes, tu parles d'une reproduction qui ne peut pas être fiable jusqu'à l'atome, mais on est plutôt dans le domaine de la perception. Un humain qui parvient à jouer sans cesse de façon identique un morceau, c'est à la fois très impressionnant techniquement, mais aussi plutôt ennuyeux. Pour une machine, c'est normal.

D'ailleurs, cette singularité de l'interprétation (ou de l'écriture) amène à une autre propriété de l'homme: l'idiolecte (ou le style). Est-ce qu'on peut vraiment parler d'idiolecte ou de style pour une machine? Bon, là c'est plus discutable, je te le concède.

R. — Tu dis que la machine n'est pas intelligente car elle est potentiellement plus puissante que l'humain ?
Je trouve ça paradoxal. Je pense au contraire que quand on aura câblé une machine comme un humain, on aura à faire à des intelligences assez grandes, c'est une des raisons d'être motivé à mener à bien ce projet.

Virtuosité relative

S. — Et puis l'art, c'est la virtuosité. Mais pas la virtuosité absolue, la virtuosité relative. Un filtre Sphérisation sur Photoshop est d'une virtuosité absolue, imbattable, c'est le sommet de la sphérisation! Mais ça n'a aucun intérêt artistique. Alors que quand c'est Escher qui le dessine, c'est fascinant. Parce que l'humain est faillible, l'humain est faible, son geste est fragile et hasardeux. Et c'est sa maîtrise acquise, c'est sa victoire sur ses faiblesses, qui rend la virtuosité admirable.
Voir une machine réussir, c'est fade. Une machine est faite pour réussir. L'exécution d'une machine est parfaite, ou bien elle échoue (souvent parce qu'il y a un bug). La machine a des potentialités infinies, pas l'humain. Et c'est en réalité ce que l'humain fait de ses limites qui crée l'art.

R. — Une machine qui apprend aura aussi une virtuosité acquise.

S. — Mais une machine est potentiellement illimitée. On peut lui rajouter des disques durs, accélérer son processeur à l'infini, la faire fonctionner pendant des milliers d'années, etc. Un humain a des limites, des faiblesses. Quoi qu'il fasse, il ne peut jamais totalement les combler. Il est obligatoirement faillible, contrairement à la machine qui est (au moins potentiellement) infaillible. Et même lorsqu'il acquiert une parfaite maîtrise, il peut encore se tromper.
Quelque part, l'expression "la beauté du geste" décrit bien ce phénomène. L'humain lutte contre son imprécision, contre sa lenteur, contre ce qui le limite, et qui est biologique. Et quoi qu'il fasse, ce biologique le limitera toujours, de façon variable.
La machine ne lutte pas: elle est précise, ou ne l'est pas (et éventuellement "apprend" à être plus précise). Et quand bien même tu intégrerais de l'aléatoire dans son geste, ce ne serait pas tout à fait pareil.

Une pensée d'Alain me semble aussi pertinente, il nous rappelle que l'art est un processus continu, une action qui se vit, l'artiste découvre l'oeuvre en même temps qu'il la crée. Une machine ne vit pas la création de son oeuvre, puisqu'elle ne vit pas. Elle fait ce pour quoi elle est fabriquée, et donc le fruit de son travail n'est pas de l'art, mais de l'artisanat (tel qu'Alain le définit). Le filtre sphérisation de Photoshop est utile, d'un point de vue artisanal.

R. — Globalement je pense que tu es victime d'un amalgame hélas facile entre "ça n'existe pas" et "ça ne peut pas exister".

Je dis "globalement", parce que dans le cas de la reproductibilité, comme je l'ai dit, la précision est une affaire de seuil arbitraire et donc le critère de la précision ne permet pas de différencier l'homme de la machine.

Tu dis que l'art n'existe pas si on retire la possibilité de rater. Quand est-ce qu'on "rate" l'art ? Parfois on fait de très bonnes découvertes en ratant. Et rien ne dit qu'une machine en réseau de neurones ne peut pas commettre des erreurs. Tu identifies trop la machine aux bras articulés qui peignent les voitures chez Toyota. Il y a d'autres sortes de machines moins déterministes voire non déterministes.

Intelligence : continuité entre l'intérieur et l'extérieur

S. — Est-ce qu'une intelligence sans vie, ça existe vraiment? Est-ce que ce n'est pas qu'une imitation ?

L. — La créativité semble liée à la capacité à recombiner des éléments de mémoire.
Une machine n'est pas considérée comme intelligente car elle n'est pas capable de "comprendre" les signes qu'elle manipule. Mais je ne vois pas ce qui empêcherait une machine d'être créative un jour, et ça passera sans doute par sa capacité à se reprogrammer elle-même. On pourra sans doute parler de créativité, d’autonomie, de volonté… voire de « vie artificielle ».

En imaginant qu'on remplace une des cellules d'un être humain par un circuit, et que l'on continue à remplacer ses cellules une par une. Au bout d'un moment son cerveau a été entièrement remplacé et l'humain continue à dire qu'il ne ressent pas de véritable changement.
La conscience aurait-t-elle été transformée ? Aurait-on été capable de reproduire une conscience avec une machine ?

Il y a des domaines qu’un automate à état fini ne semble pas pouvoir maîtriser si facilement, comme la vision ou la désambiguïsation. Mais théoriquement, quand on considère que le corps humain et le système nerveux font partie du monde physique, c'est possible.

C'est peut-être ce type de questions qui avaient poussé Turing à passer de l'IA à la morphogenèse. C'est le problème inverse : comment avoir un corps ? Dissocier le corps et l'esprit étant déjà un parti pris.

K. — Je pense qu'il y a là un point intéressant : on a souvent tendance à voir l'intelligence comme une "boîte noire dans le crâne" alors qu'elle est plus probablement une continuité entre l'extérieur et l'intérieur.

Là on parle d'apprentissage, de conception du vivant. On pourrait donc s'intéresser à l'histoire de l'intelligence et de la vie. Il fut un temps où il n'y avait "que" des molécules dans un continuum physique, sans pour autant qu'un organisme soit clairement identifié (le soi et le non-soi). Quelque part, en quoi les interactions physiques avec mon environnement (échange de chaleur, émission et réception de sons, lumière, molécules) ne pourraient pas m'amener à considérer que je ne suis pas une entité, mais juste un morceau arbitraire du monde ? On pourrait résoudre ce problème en se disant "l'extérieur est ce qui génère des inputs et reçoit mes outputs" mais en faisant ça, on décide déjà d'un résultat de l'évolution, à savoir où se situe la limite. On pourrait très bien considérer que l'IA n'est concernée que par des flux binaires non sémantiques (donc plus "d'input texte/son/image", juste des flux, à charge pour l'IA de construire du sens avec) ou au contraire des éléments très spécifiques (je reçois l'input "déclame un poème de Baudelaire" ou "donne la liste des sites pornos gratuits"). Dans le premier cas, on n'est pour ainsi dire dans une répétition du monde réel, et on croise les doigts pour que quelque chose de cohérent en sorte, dans le second cas on tombe finalement dans des systèmes comme google ou même un simple programme qui nous donnera exactement ce qu'on veut, mais sans surprise.

Je pense que la question la plus importante finalement est de se dire : qu'est ce qu'on veut "maîtriser" comme concept en tant que créateur : est ce qu'on veut juste "faire tourner des trucs ensemble" ou est ce qu'on veut obtenir un résultat qui suit un concept spécifique (je veux une IA capable de comprendre les sous-entendus d'une discussion). Est ce qu'on ne fait que reproduire les conditions de la nature ou est ce qu'on cherche à illustrer une hypothèse sur l'intelligence ? Et l'apprentissage est concernée par tout ça : elle est finalement une extension du principe d'évolution. Et donc, soit on accepte que l'apprentissage ne puisse pas impacter tout les aspects de l'IA, ce qui nous permet de fixer une bonne fois pour toute certains processus et donc de maîtriser un minimum le résultat qu'on veut obtenir, soit on considère que tout peut être changé, et dans ce cas on se déplace d'un problème de conception d'une IA à un problème de simulation d'un monde en entier.

R. — J'ajouterais qu'on peut difficilement trancher si un mécanisme est intelligent ou bête, l'intelligence ce n'est pas un phénomène booléen mais progressif.

Un stade de réussite correct serait "la machine veut quelque chose, ce quelque chose est difficile à obtenir, elle agit pour l'obtenir, elle l'obtient" et j'ai même envie de dire "ou échoue" car peu importe. On voit que l'intelligence ce n'est pas que de la résolution de problème, sinon google serait intelligent, or google est un algorithme déterministe et intelligemment inerte, il est aussi bête qu'un moteur de voiture. La partie "vouloir" est importante, la seconde partie importante est "réfléchir comment obtenir", et la troisième partie "agir" j'ai envie de dire qu'on peut s'en passer aussi. Un type qui n'a plus de bras et de jambes, on agite le chocolat au dessus de lui, il ne peut pas agir, mais il réfléchit à comment l'obtenir, il n'est pas stupide pour autant. Donc je pense que les critères satisfaisants sont simplement : "vouloir" et "réfléchir à comment avoir", le reste c'est de la déco.