Création artificielle
La convivialité des interfaces à vocation ludique et/ou
pédagogique Ludovia 5-6 juillet 2007.
Michel BRET
Professeur émérite, ATI
Université Paris
18° section (Esthétique et sciences de l’art)
51 rue de la Marée, 95320 Saint Leu La Forêt
01 39 32 99 58 06 66 64 11 36
Mots-clés :
Algorithmes génétiques, art, autonomie, connexionnisme,
création, évolutionnisme, réseaux neuronaux
Résumé :
La relation homme-machine a toujours été définie de façon asymétrique en postulant la supériorité du premier sur la seconde, la convivialité ne visant que le confort de celui-là. Nous pensons que cette position auto centrée est préjudiciable à la créativité elle-même qui ne saurait se réduire à la simple expression démiurgique d’un auteur, fut-il génial, mais implique la nécessaire prise en compte de son environnement et donc, en ce qui concerne les arts numériques, des machines, des logiciels et de leurs évolutions.
Je propose, sous le vocable de « connecvolution », une méthode basée sur le connexionnisme, sur le concept d’autonomie et sur l’évolutionnisme, permettant de concevoir des systèmes capables de créer artificiellement. Avec cette nouvelle forme de création artificielle se trouve reposée la question de la créativité naturelle.
Introduction
La création, aussi bien artistique que scientifique, suppose que le créateur soit doté d’une autonomie suffisante lui permettant de dépasser ses acquis culturels, la création artificielle exige donc des systèmes autonomes agissant indépendamment de leurs concepteurs.
Le vocable « connecvolution » est un néologisme construit sur les deux termes de « connexionnisme » et d’« évolutionnisme », le premier permettant, grâce aux réseaux neuronaux, une adaptation ontogénétique des phénotypes, et le second produisant, à l’aide des algorithmes génétiques, les conditions de l’évolution phylogénétique d’une population de génotypes.
En faisant évoluer génétiquement des populations (de réseaux neuronaux ou de robots) il est possible de sélectionner ceux répondant le mieux possible à certaines conditions.
Plus généralement la théorie du darwinisme neuronal rend compte de l’organisation et de l’évolution des réseaux neuronaux eux-mêmes.
En m’appuyant sur ces réflexions, je propose de développer un système de création artificielle qui catégoriserait et mémoriserait ses perceptions du monde pour ensuite reconnaître ses propres actions. Plus précisément, il s’agirait de construire un système prenant en entrée de très nombreuses réalisations artistiques, les catégoriserait, serait capable d’agir sur le monde en créant lui-même d’autres œuvres par évolution génétique des catégories trouvées et qu’il percevrait. Des structures de réseaux neuronaux réentrants pourraient modéliser adéquatement un tel processus en boucle, tandis que des processus de sélection darwinienne devraient pouvoir assurer une évolution non dirigée et donc potentiellement innovatrice. Des notions aussi importantes que celles de création, d’émotion et de conscience artificielle se trouvent ainsi posées, conduisant à requestionner leurs pendants naturels.
Les réseaux neuronaux peuvent s’auto configurer au cours d’apprentissages, supervisés ou non, mais la question de leur configuration initiale reste posée, elle est soit arbitraire, soit aléatoire. Les algorithmes génétiques [GOLDBERG 1991] sont une puissante méthode pour trouver les optimums globaux dans les problèmes d’optimisation et peuvent être utilisés pour déterminer les meilleures configurations initiales d’un certain type de réseaux neuronaux [JONES 1993] [VAN ROOIJ 1996] : on construit une population de réseaux neuronaux dont la topologie des connexions (nombre de couches, nombre de neurones sur chaque couche) est aléatoire, on les fait se croiser et muter, et on sélectionne ceux qui résolvent le mieux le problème posé.
Jean Arcady Meyer [GUILLOT MEYER 2003], dans le même esprit, propose l’approche « animats » qui s’inspire des méthodes inventées par la nature pour construire des systèmes artificiels (robots réels ou logiciels), capables de survivre en s’adaptant, de façon autonome, à des environnements imprévisibles. L’intelligence artificielle traditionnelle avait plutôt cherché à simuler les facultés les plus élaborées du cerveau humain en mettant en œuvre une approche computationnelle de la cognition, mais en ignorant la nécessaire interaction des êtres vivants avec leur environnement qui implique des notions aussi importantes que celles de perception, de mouvement [BERTHOZ 1997] ou d’adaptation. Avec la robotique comportementale, l’intelligence artificielle située [DROGOUL MEYER 1999] et l’approche animat, on s’intéresse maintenant à des agents autonomes capables de percevoir leur environnement, d’agir sur lui et de s’y adapter. Selon James « le cerveau n’est pas construit pour penser de façon abstraite, il est construit pour assurer notre survie dans le monde », il faudra donc prévoir des aptitudes minimales à catégoriser, à représenter, à gérer des buts et des émotions, et donc à apprendre pour évoluer.
Les cartes cognitives [KOHONEN 1984] sont des représentations internes de l’espace apprises interactivement qui donnent aux robots des capacités robustes et efficaces de navigation en environnement inconnu. Pour ce faire, il doit être capable de sélectionner et de mémoriser des amers saillants dont les changements lui permettent de mettre à jour ses cartes cognitives.
L´apprentissage, le développement et l´évolution étant les trois principaux moteurs de l´adaptation des systèmes naturels, ils doivent être utilisés pour construire un système adaptatif artificiel. Un humain, qui ignore bien évidemment les résultats attendus, ne peut concevoir seul l´architecture de contrôle d´un animat que l’on confiera plutôt à un processus évolutif simulant les effets de la sélection naturelle. Cette architecture de contrôle peut être codée dans un génotype et améliorée de génération en génération en évaluant les individus au moyen d’une fonction de « fitness » favorisant ou non leur reproduction et donc la transmission de leurs gènes. Des codages indirects décrivant des programmes de développement à partir desquels sont générés des contrôleurs neuronaux ont été développés. D´autres recherches visent à faire coévoluer des animats aux comportements et aux fonctionnalités différentes, ou à faire coévoluer à la fois l´architecture de contrôle et la morphologie d´un animat donné. Enfin, une autre direction de recherche vise à combiner les processus d´apprentissage, de développement et d´évolution. De tels programmes, obtenus par évolution, fournissent un premier niveau phylogénétique d´adaptation (changements environnementaux lents affectant des générations successives). Des mécanismes d’apprentissages neuronaux fournissent un deuxième niveau ontogénétique d’évolution.
En passant d’un animat isolé à un groupe d’animats on constate que le développement de l´intelligence est guidé par la nécessité de survivre en société plutôt que par celle de survivre dans un monde purement physique. Ainsi, un animat développerait son intelligence en apprenant à interpréter les actions d´autrui, en apprenant l’art de la manipulation et de la tromperie pour éviter d’être lui-même manipulé et trompé. Les possibilités de communication qui se développent au sein d’un groupe modifient les façons de construire les cartes cognitives et les apprentissages motivationnels. L´exploration d´un environnement inconnu peut donner lieu à des stratégies collectives efficaces issues directement des interactions entre individus. Par exemple, la décision de se nourrir peut être inhibée si un autre animat bloque l’accès à la nourriture.
Sélectionner une l´action c’est décider quoi faire à chaque instant : doit-on continuer l´action courante ou entreprendre une autre action, et laquelle ? Ce problème, lié aux notions de but et de motivation, peut être résolu de façon adaptative. Lorsque le but est fixe, la résolution en est facilitée. Mais il est plus difficile de décider quel but ou quel sous-but poursuivre, puis de sélectionner l’action correspondante . La plupart des systèmes motivationnels actuels sélectionnent l´action à accomplir en fonction des seules valeurs captées par l´animat, de telles décisions ne sont alors que de simples réflexes.
En utilisant aussi la mémoire, on peut se décider non seulement en fonction de la perception du moment, mais encore en fonction du souvenir qu´on a des conséquences de certaines actions dans les mêmes conditions.
On peut tenir compte non seulement des perceptions et de la mémoire, mais encore d’une capacité à prévoir et à anticiper. Les animats se décident alors en fonction des conséquences prévisibles de leurs actions ou de celles des autres.
Il n´existe nulle part dans le cerveau un superviseur prenant rationnellement les meilleures décisions possible. Toutes les décisions sont des réactions à des états émotionnels qui, selon Damasio, visent à préserver l´homéostasie de l´organisme, elles ne sont pas des choix délibérés, mais mènent à des actions engagées dans l’urgence. La capacité de décider [BERTHOZ 2003] n’est pas une pure démarche logique, mais tient compte de facteurs émotionnels [DAMASIO 1995]. Les modèles de sélection de l’action, qui permettent à un animat de décider quoi faire dans une situation donnée, doivent être des systèmes motivationnels et émotionnels (choix du but) et doivent tenir compte des souvenirs relatifs aux expériences passées. Pour Berthoz le cerveau n’est ni calculateur ni compilateur, mais simulateur d´action. La décision n’est pas un processus rationnel, fondé sur la logique, mais constitue une des propriétés fondamentales du système nerveux, dont la fonction est de préparer, de commander et de réguler l´action. La perception est fondamentalement une décision, celle de choisir, dans la multiplicité des informations disponibles, celles qui sont pertinentes pour l´action envisagée. C´est aussi trancher, donc choisir, dans des conflits sensoriels. Mémoriser est aussi une décision, c´est faire un choix, l´oubli étant toujours sélectif.
L’évolution des mécanismes décisionnels, et particulièrement ceux de type intelligent permettant l´adaptation, est continue, depuis l´amibe jusqu’à l´homme. On peut parler de convergences de solutions, pouvant prendre des formes particulièrement complexes comme dans les processus dits d´hominisation. Une première évolution a demandé au moins 600 millions d´années et a vu émerger les comportements intelligents puis conscients dans le développement des espèces animales, dont fait partie l´espèce humaine. Une seconde évolution s´amorce actuellement, celle des systèmes artificiels sources potentielles d’émergence de formes de vie, d´intelligence et de conscience [CARDON 2000] qui, certes, s’inspirent de leurs pendants humains, mais qui, sans doute, prendront des formes tout à fait nouvelles et inimaginables aujourd’hui.
La théorie de la sélection de groupes neuronaux a été développée par Gérard Edelman depuis les années 80 [EDELMAN 1982, 1987], pour rendre compte de l’organisation des réseaux neuronaux selon une sélection darwinienne : au stade embryonnaire les neurones sont d’abord connectés au hasard puis, progressivement, des circuits se stabilisent, et des groupes de circuits se connectent à leur tour pour former des cartes. Changeux [CHANGEUX 1983] avait déjà parlé des objets mentaux, et les idées seraient des objets comme les autres, observables dans les réseaux neuronaux, tandis que pour Edelman [EDELMAN 2000]la conscience émerge de la matière.
Au cours de la vie d’un individu, une sélection par l’expérience produit le renforcement ou l’affaiblissement sélectif de certaines populations de synapses conduisant à la formation de groupes neuronaux. Enfin, les différentes cartes neuronales interagissent entre elles par un processus de réentrance sans qu’aucune ne joue le rôle d’homoncule superviseur. Daniel Dennett [DENETT 1991] avait montré qu’il n’y a pas dans le cerveau un superviseur représentant le soi conscient, mais à tout instant, des milliers d’objets mentaux entrant en compétition darwinienne les uns avec les autres. Antonio Damasio [DAMASIO 1999] propose la construction des différents niveaux de conscience en faisant appel à des cartographies et réseaux de neurones superposés : le proto-soi, le soi central, le soi autobiographique et finalement la conscience étendue. La conscience primaire résulte d´un ensemble de processus qui ne peuvent s´établir que sur des architectures cérébrales caractérisées par une grande complexité (comportant des milliards de neurones, des millions de cartes fonctionnelles et de groupes de neurones). La réentrance (qui est beaucoup plus que le feedback, simple commande homéostatique de correction d’erreur) est une condition nécessaire à l’apparition de la conscience. Ces considérations résultent de l´existence d´un noyau dynamique (ni stable ni localisé) de réseaux de neurones qui animent et informent par ré-entrance, en permanence, un certain nombre de sites constituant le cœur momentané de la conscience primaire.
Edelman pose le problème de la catégorisation en ces termes : « Comment se fait-il qu’un animal, qui au départ n’a été confronté qu’à un petit nombre d’événements, ou d’objets nouveaux, puisse reconnaître un objet sans l’aide d’un professeur ? Et comment peut-il ensuite généraliser et construire des universaux en l’absence de ces objets ? ». Avec la conscience primaire, le cerveau construit des autocatégories en ajustant les catégories perceptives passées aux signaux provenant des systèmes de valeurs, ce qui revient à découper le monde en catégories utiles. La conscience d’ordre supérieur revient à la reconnaissance, par le sujet, de ses propres actes et affects. La scène mentale ne dépend pas seulement de la catégorisation perceptive de stimuli actuels, mais surtout de leur interaction avec des souvenirs catégoriels, c´est-à-dire avec le passé, ce qui suppose la mémoire.
En m’inspirant des réflexions exposées dans les paragraphes précédents, je propose une méthode de construction d’un système de création artificielle qui observe son environnement en catégorisant ses perceptions à l’aide d’apprentissages non supervisés. Ainsi à chaque perception correspond un certain état d’une mémoire associative. Si l’on code ces états comme une population de génomes, il est possible de leur appliquer une évolution darwinienne (par des algorithmes génétiques) visant à favoriser ceux qui répondent le mieux à une certaine fonction d’évaluation. Une façon de les noter serait de noter l’image (qui n’existe pas) lui correspondant, ce qui suppose que soit trouvée une méthode de « remontée » du réseau. Pour cela on peut utiliser un apprentissage supervisé sur le réseau inverse (obtenu en permutant les entrées et les sorties), les couples d’apprentissages étant les couples inverses (état, expérience) du premier apprentissage. Ainsi à tout nouvel état obtenu par croisement de deux états correspond une nouvelle image qu’il suffit alors d’évaluer.
J’ai réalisé une application artistique en proposant en entrée de réseaux neuronaux de très nombreuses images, lesquelles génèrent une population d’états dont les enfants donnent, en remontant le réseau, une infinité de nouvelles images (voir figure 0). Une expérimentation analogue pourrait être tentée avec de la musique.
Résumons ce que Damasio appelle le proto-soi : un
organisme est cartographié dans son cerveau, un objet (réel ou remémoré)
interagissant avec lui y est également cartographié : il s’agit de
cartographies du premier ordre qui sont des configurations neuronales (ou
images mentales). Les changements de ces cartes donnent lieu à d’autres
cartographies, du second ordre, représentant la relation entre l’objet et
l’organisme. Il y a production de
conscience-noyau chaque fois qu´un objet interagit avec l´organisme en modifiant
le proto-soi et en construisant de nouvelles connaissances. Les informations
neuronales correspondantes peuvent devenir des images, représentées à leur tour
dans des cartes de second ordre donnant naissance à des sentiments. Être
conscient, c´est être capable de se représenter certaines de ses
représentations.
La conscience-noyau résulte du flux des
impulsions provoquées par les interactions avec les objets : objets du
monde réel, mais aussi perceptions de l´état du corps, et encore évocations d’images
mentales mémorisées (objets pensés).
Le soi-central apparaît dès qu´un objet modifie le proto-soi. Au-delà du
soi-central, nous trouverons le soi-autobiographique, constitué de souvenirs
implicites d´expériences antérieures, des prévisions simulées de ce qui peut se
produire compte tenu de ces expériences passées et des états actuels du corps
(souvenirs du futur). Le soi-autobiographique se développe ensuite en la
conscience étendue lors d’interactions sociales avec d´autres organismes.
Je propose de faire rêver un être artificiel
en simulant ces différents niveaux de conscience : des configurations
neuronales du premier ordre cartographieront, sous forme d’images mentales, la
perception d’images réelles (proto-soi). Un changement de ces cartes par évolution
génétique sera une représentation, au second ordre, de la relation entre
les images et l’organisme (conscience noyau), qui produira de nouvelles images
mentales. Par un processus inverse (allant du mental au réel) l’organisme
pourra alors interagir socialement avec d’autres organismes pour, peut-être,
atteindre un degré de conscience plus élevé.
L’organe de perception est une rétine artificielle sur laquelle on inscrit des images qui se projettent sur la couche d’entrée d’un réseau neuronal. Pour une analyse en niveaux de gris un seul réseau est nécessaire, mais pour traiter la couleur j’ai employé trois réseaux, un pour chaque composante rouge, verte et bleue. D’autres caractéristiques de l’image (comme l’extraction de contours ou sa partition en zones homogènes) peuvent également être traitées par des réseaux spécifiques. La (ou les) couche (s) cachée (s) tiennent lieu de « cortex » et la couche de sortie est connectée à un éditeur de codes que nous appellerons génomes pour des raisons qui apparaîtront plus loin (voir paragraphe 4.4). La figure 1 montre :
1) En haut et à gauche l’ensemble des codes de l’apprentissage.
2) En bas à gauche l’ensemble des images de l’apprentissage.
3) En haut à droite l’ensemble des couples d’apprentissages constitués de paires (image, code) pour chaque composante de la couleur
4) Au milieu à droite les trois réseaux rouge, vert et bleu avec, pour chacun, une couche d’entrée, une couche cachée, une couche de sortie et une matrice de poids synaptiques (non représentées ici).
5) En bas à droite les paramètres permettant de régler les réseaux (nombre de couches cachées, constantes d’apprentissage, etc..).
Un apprentissage supervisé par l’algorithme de la rétropropagation de l’erreur est lancé : pour chaque couple (ei, oi) on présente l’image ei au réseau qui fournit un code de sortie calculé ti, puis on cherche à minimiser l’erreur quadratique :
où (oi – ti) est la différence des sorties souhaitée et calculée, pour cela on fait évoluer les poids wij dans la direction inverse du gradient :
où n est une constante permettant de moduler la correction (grande au début de l’apprentissage et petite à la fin).
La figure 2 montre l’évolution des erreurs au cours de l’apprentissage.
Une méthode récurrente de calcul des signaux d´erreur des cellules d´une couche à partir de ceux de la couche suivante consiste à calculer les signaux d´erreur pour la couche de sortie, puis, de proche en proche en descendant dans les couches, on utilise les signaux d´erreur des cellules de la couche i pour calculer celui de chaque cellule de la couche i-1. D´ou le nom de "rétropropagation de l´erreur " de cet algorithme [ABDI 1994] .
Un tel réseau entraîné par cette méthode présente une propriété très remarquable qui est celle dite de « généralisation » : Il sera capable non seulement de fournir la sortie souhaitée pour une entrée apprise, mais il le fera aussi pour une entrée proche, et il fournira une sortie non arbitraire pour une entrée non apprise. Nous dirons qu’il est capable d’improviser (tout comme un musicien improvise sur des thèmes connus).
Il s’agit là d’une autonomie que nous qualifierons de faible, car elle nécessite qu’un professeur guide le réseau dans son apprentissage.
Les réseaux précédents sont faiblement connectés et, de ce fait, représentent très imparfaitement la réalité biologique puisque les réseaux neuronaux naturels, en particulier dans le cerveau humain, sont fortement réentrants (connexions corticocorticales).
Des apprentissages compétitifs, comme ceux utilisés par les réseaux de Kohonen [KOHONEN 1984], catégorisent un environnement sans aucune intervention humaine.
J’ai exposé ailleurs [BRET 2006] une méthode permettant des apprentissages non supervisés : la saisie continue des entrées constitue un flux donnant lieu, en sortie, à un autre flux arbitraire pour un réseau n’ayant encore rien appris. En faisant l’hypothèse que la mise en phase de ces deux flux traduit une bonne adaptation du réseau à son environnement, on peut prendre leur différence de phase comme erreur pour guider l’apprentissage.
Il s’agit là d’une autonomie forte dans le sens où le réseau apprend seul à catégoriser son environnement.
Ces réseaux permettent de construire des codes à partir d’images. cherchons à inverser le processus, c´est-à-dire à construire des images à partir de codes. Pour cela, inversons les réseaux. Remarquons qu’il ne suffit pas d’échanger les rôles des entrées et des sorties, mais qu’il faut aussi redéfinir la topologie des connexions (les nombres des neurones sur les couches ayant changés), il sera aussi nécessaire de reconfigurer le réseau par apprentissage.
Sur la figure 3 on peut voir les résultats :
1) En haut et à droite les couples d’apprentissages (code, image), inverse des couples (image, code) du réseau direct.
2) Au
milieu à droite les couches sont structurées différemment qu’elles ne l’étaient
sur la figure 1.
Les figures 4 et 5 montrent que les images sources du premier apprentissage sont bien reconnues dans le second lorsque les sources sont les codes.
La figure 6 donne un exemple d’image « inventée » à partir d’un code non appris.
Si on considère les codes cibles du premier apprentissage
comme représentatifs des souvenirs des images perçues, on peut envisager de les
combiner génétiquement pour obtenir de nouveaux codes qui, sources dans le
deuxième apprentissage, produiront des images inédites. C’est cette méthode que
j’ai implémentée en appliquant les algorithmes génétiques à la population des
codes [HOLLAND 1975] [GOLDBERG 1991] : Ils traitent des populations (construites aléatoirement et donc peu
performantes) qu´il font évoluer par croisements et mutations en sélectionnant
celles qui répondent le mieux à une certaine fonction d´adaptation. La
théorie de l´évolution stipule que de telles populations s´améliorent au cours
de leurs reproductions et que, au bout d´un certain temps, apparaissent des
individus optimaux. Ce sont des méthodes d´optimisation qui, à la différence
des méthodes algorithmiques classiques qui ne résolvent que des problèmes
parfaitement bien posés, peuvent résoudre des problèmes mal posés, ou même sans
solution exacte, et c´est la raison pour laquelle nous les étudions dans le
cadre de la création artistique [SIMS 1991, 1994].
La population des génomes à l´instant t+1 est générée en fonction de
celle à l´instant t.
À chaque génération les individus sont évalués et si leurs adaptations
sont satisfaisantes le processus est stoppé.
Sinon les individus sont sélectionnés aléatoirement avec une probabilité
proportionnelle à leur adaptation.
Les individus sélectionnés sont alors appariés et croisés. Pour cela un point
de croisement est choisi aléatoirement entre 0 et L-1 (où L est la longueur
de la chaîne) produisant deux autres génotypes par mélange des matériels
génétiques :
Des mutations de faible probabilité (de l´ordre de 1/1000) sont
appliquées lors du croisement afin de préserver une diversification évitant
ainsi une dérive élitiste.
Chaque couple d’apprentissage (code, image) du réseau inverse définit
un individu « code », la population de ces codes est traitée par un
algorithme génétique qui produit de nouveaux codes (répondant de mieux en mieux
à une certaine fonction d’évaluation) à partir desquels sont produites de
nouvelles images (par remontée du réseau). Parmi les fonctions d’adaptation
possibles, on a choisi celles qui optimisent certaines propriétés des images
(distributions des variations de paramètres comme la luminance).
Sur les figures 7 à 12 on a
représenté les génomes, en haut de chaque image, sous la forme de segments
rouges, verts et bleus (pour les bits « 1 » de chaque composante de
la couleur) et de segments noirs (pour les bits « 0 »). L’image du
bas est la traduction du 3ème code obtenu par croisement des deux codes du haut
et peut être interprétée comme le croisement des deux images du haut.
Les figures 7 et 8 montrent les résultats de deux croisements
différents à partir d’un même couple de base de génomes .
Les figures 9 à 12 donnent des exemples de croisements à partir de
différents codes.
Les figures 13 à 24 montrent une évolution sans mutation conduisant à une image stable.
Les figures 25 à 34 montrent une évolution avec mutations.
A partir d’images de base (figure 35), 2 générations sont produites sur les images 1 et 5 dans des ordres différents (figures 36 et 37), les figures 38 à 41 montrent 2 générations différentes à partir des mêmes images.
Un pré traitement de l’image rétinienne permet de passer en entrée du réseau neuronal une description condensée de l’image, ce qui a pour effet, d’une part, de réduire les calculs et, d’autre part, de tenir compte de certaines propriétés géométriques de l’image. Ainsi, en codant une extraction de contours, il est possible de conserver des formes apparentes comme le montrent les figures 35 et 36.
Le thème "Art et autonomie " est l´un des principaux axes de travail de l´association « Les Algoristes » qui appelle ses membres à participer au projet PAP (Projet artistique Primeval/Primeval Art Project). Il s’agit de réaliser un réseau de sites web autonomes, mais communicants. Chaque site est de type "soupe primordiale ", répondant aux caractéristiques suivantes :
- Il contient un grand nombre d’œuvres, objets artistiques au sens traditionnel, ou programmes interactifs (réseaux neuronaux, algorithmes génétiques, systèmes multi agents...).
- La population d’œuvres se développe de façon autonome, à la façon de la "soupe primale " d´où émergea la vie, et évolue sans intervention humaine directe.
- Tous les sites du réseau échangent librement des oeuvres. Des conditions particulières seront fixées pour les sites adhérents au projet, mais non membres de l’association.
- L´association elle-même pourrait assumer la responsabilité d´un site évaluatif, descriptif, gérant la diffusion des œuvres et les droits d’auteur.
L´expérimentation a débutée avec le site Roxame-Pap (de Pierre Berger président de l’association) [BERGER 2007] contenant deux types d´entités :
- N´importe quelle production digitale (objets fixes ou animés, interactifs ou non, systèmes produisant ces objets) ; dans un premier temps, on se limitera aux images en deux dimensions.
- Des "artistes " artificiels (systèmes autonomes adaptatifs).
Chaque artiste humain, soit à partir de son propre code, soit à partir des systèmes et des œuvres existant sur tous les sites, produirait des œuvres nouvelles, dans un processus permanent de génération.
Des processus de sélection darwinienne artificielle favoriseront la reproduction des œuvres répondant à certains critères (à définir) et maintiendront les tailles des populations d’œuvres dans des limites raisonnables. Des processus de coévolution pourront être envisagés entre plusieurs sites ou groupes de sites.
Conclusion
De même que la création naturelle ne saurait se concevoir sans
l’autonomie du créateur, la création artificielle ne saurait exister en dehors
de l’autonomie du système. Le créateur du système est donc amené à abandonner
toute velléité de contrôle sur son œuvre. Il m’a semblé que les techniques
connexionnistes (réseaux neuronaux) et évolutionnistes (algorithmes génétiques)
étaient à même de répondre à cette exigence. En m’inspirant du fonctionnement
des organismes naturels j’ai construit un système de création artificielle qui
observe son environnement (premier apprentissage construisant des codes à
partir d’images), réfléchit en utilisant la connaissance acquise (évolution
génétique des codes) et agit sur le monde réel en produisant des images
inventées qu’il peut percevoir et ré alimenter ainsi une perception qui devient
informée. La méthode devient encore plus intéressante lorsque coévoluent plusieurs
systèmes dans lesquels interviennent des humains (c’est le projet artistique
Primeval).
Bibliographie
GOLDBERG D. E.
1991, Algorithmes génétiques, Addison-Wesley.
JONES A. J.
1993,
“Genetic algorithms and their applications to the design of neural
networks”, in Neural
computing & applications, vol 1, N°1, pp. 32-45.
VAN ROOIJ
A. J. F., JAIN L. C., JOHNSON R. P.
1996, Neural Network training using
genetic amgotithms, World Scientific.
GUILLOT A. , MEYER J.A.
2003,
« La contribution de l´approche animat aux
sciences cognitives », in Cahiers
Romans de Sciences Cognitives. Vol
1, N° 1, pp. 1-26.
BERTHOZ A.
1997, Le sens du mouvement, Ed Odile Jacob.
DROGOUL A., MEYER J.A.
1999,
Intelligence artificielle située,
cerveau, corps, environnement, Hermes.
KOHONEN
T.
1984, Self-Organization and Associative
Memory, Springer-Verlag .
BERTHOZ A.
2003, La décision, Ed Odile Jacob.
DAMASIO A. R.
1995, L’erreur de Descartes, Ed Odile Jacob.
CARDON A.
2000, Conscience artificielle, Eyrolles.
EDELMAN G. M., REEKE G.N.
1982, Selective networks capable of
representative transformations, limited generalizations and associative memory,
in Proceedings of the National Academy of Sciences of the USA, 79 (1982) pp.
2081-95.
EDELMAN G.
1987, « Neural Darwinism : The Theory
of Neural Group Selection », Basic Book, New York.
CHANGEUX J. P.
1983, L’homme neuronal, Fayard.
EDELMAN G.
2000, Comment la matière devient conscience, Odile Jacob.
DENNET D.
1991, La conscience expliquée, Odile Jacob.
DAMASIO A.
1999, Le sentiment même de soi, Odile Jacob.
ABDI H.
1994, Les réseaux de neurones, Presses Universitaires de Grenoble.
BRET M.
2006, « Emergence et résonance neuronale ».
HOLLAND J.H.
1975, « Adaptation natural and artificial systems », An
Arbor: The University of Michigan Press.
SIMS K.
1991, « Artificial
Evolution for Computer Graphics », Computer GraphicsVol 25 No 4, 319-328 (1991).
SIMS K.
1994, “EvolvingViirtual Creatures”,
in Computer Graphics (Siggraph’94 Proceedings) pp. 15-22.
BERGER P..
2007, http://roxame.com/Primeval/Texts/Comments.htm
Figures
Figure 0 : Principe de l’installation
Figure 1 : Images en entrée et génotypes en sortie
Figure 2 : Apprentissage, les erreurs diminuent
(de l’ordre de 0.5 à 0.1).
Figure 3 : Inversion du réseau, génotypes en
entrée et images en sortie
Figure 4 : Reconnaissance de l’image 2
Figure 5 : Reconnaissance de l’image 3
Figure 6 : Reconnaissance d’une image non apprise
Figures 7, 8 : Deux croisements différents à
partir de deux images de base
Figures 9, 10 : Exemples de croisements
Figures 11, 12 : Exemples de croisements
Figures 13 à 24 : Adaptation darwinienne sans
mutation conduisant à un équilibre
Figures 25 à 34 : Adaptation darwinienne avec
mutations maintenant la diversité
Figures 35 : Images de base
Figures 36 et 37 : 2 générations à partir des
images 1 et 5, puis 5 et 1
Figures 38 et 39 : 2 générations différentes à
partir des images 2 et 3
Figures 40 et 41 : 2 générations différentes à
partir des images 7 et 2