MÉTHODES D´OPTIMISATION DANS LA CRÉATION ARTISTIQUE
Michel BRET
professeur en "Art et Technologies de l´Image"
Université Paris 8 (1997)
Article refusé par la revue Champ Visuel en 1997
1 Résumé
 
La notion de progrès, légitime en science, est-elle signifiante en art ?
Et comment peut-on parler d´optimiser la création artistique ?
 
Cet article se propose de dépasser l´opposition science-art
en la revisitant à la lumière des récentes avancées dans la connaissance
du cerveau et des machines.
 
Il sera question d´ordinateurs et de création artistique, de réseaux
neuronaux et d´algorithmes génétiques.
 
 
Is the idea of improvement, legitimate in science, full of mean in art ?
And how can we speak of optimum about the artistic creation ?
 
This paper proposes to go beyond the opposition science-art with the
progressive ideas on the subject of brain and computers.
 
We will speak about computers and artistic creation, neural networks
and genetic algorithms.
2 Art et technique
2-1 La problématique art et technique
 
Art et techique sont deux faces d´une même médaille (comme l´atteste
le double statut utilitaire et culturel de l´outil) qu´on ne saurait
dissocier sans rennoncer à expliquer leur histoire. Celle-ci a connue
des périodes de coexistence, comme la Renaissance (avec la perspective
mathématique et l´anatomie scientifique), puis des phases plus
conflictuelles (comme l´époque romantique), avant de se résoudre de nouveau
avec les cinéticiens [Popper 1980] pour, finalement, exploser avec les
nouvelles technologies [Popper 1993].
 
Si la science et la technique permettent bien de connaître, et donc de
maîtriser, la réalite, elles sont impuissantes à définir celle-ci en dehors
d´elles-mêmes. L´art non plus, même lorsqu´il "représente" la réalité, ne
dit rien sur celle-ci en dehors du regard qu´il porte sur elle. La question
du "réel" est aussi mal posée par le positivisme (pour lequel la réalité
préexiste à son analyse) que par l´idéalisme (pour lequel la réalité est
le produit du sujet pensant), la vérité est à chercher dans un dépassement
de cette opposition: Par exemple la physique moderne nous apprend que toute
observation modifie l´observé et donc que la connaissance du réel est
inséparable du regard que le sujet porte sur lui. Dans un autre domaine
Panofky [Panofsky 1975] a montré que chaque époque construit son propre
espace et que la perspective inventée par le quatrocento italien est une
forme symbolique de cette culture. Plus près de nous, la physique de la
relativité générale a du construire une géometrie non euclidienne pour
expliquer l´univers, et peut-être les expériences des cubistes ne sont-elles
pas très eloignées de ces découvertes: Le début de ce siècle aura vu
l´émergence d´une nouvelle conception, et donc d´une nouvelle perception,
de l´espace.
 
Pas plus la science que l´art ne peuvent donner une explication totale
du monde, tout au plus en proposent-ils une interprétation; qu´on appelle
celle-ci "représentation" ou "modélisation", elle n´est valable que pour
une culture donnée et à une époque donnée. Leurs rapports cessent donc
d´être conflictuels dès lors que l´on admet la relativité de leur portée.
Cet article développe l´idée que certaines avancées scientifiques peuvent
faire évoluer la création artistique sans que celle-ci perde pour autant
son âme.
2-2 Ordinateur et créativité
 
L´ordinateur est l´instrument par excellence de toutes les simulations.
Historiquement développé par les scientifiques pour tester des modèles
physiques de la réalité, il a trouvé de nombreuses applications dans la
modélisation et la prévision des phénomènes naturels.
 
Mais limiter la création aux seuls modèles réalistes revient à enfermer
l´art dans une "mimésis", or l´oeuvre n´est jamais le simple reflet
ni d´un déterminisme sociologique ni d´une réalité extérieure.
 
D´autre part l´utilisation des nouvelles technologies dans le domaine
de la création artistique introduit de nouvelles manières de penser et
de nouvelles pratiques en rupture avec les méthodes traditionnelles:
 
La nature numérique du support peut remettre en cause non seulement les
techniques de fabrication, mais encore celles de transmission, des images.
Si cette remise en cause peut être vécue comme une évolution, ou une
adaptation nécéssaire, il n´en est pas de même des méthodes de conception:
 
La crétion artistique est traditionnellement liée au geste, à
l´observation, à l´intuition. Avec l´ordinateur, rien de tel: Les gestes
concernent la commande d´un automate, l´intuition est remplacée par
le recours à un texte (le programme), l´observation de la réalité fait
place à la construction de modèles abstraits. Certains y verront la mort
de l´art, d´autres une réinvention. Sans nier les changements radicaux
apportés par la synthèse, constatons cependant qu´ils s´inscrivent
dans une certaine continuité: La première image de synthèse n´a-t-elle
pas été faite par Brunelleschi, au XVeme siecle, lorsqu´il automatisait
la mise en perspective ? Synthèse sans ordinateur, certes, mais construction
mathématique quand même d´un espace virtuel. Les premières oeuvres
"interactives" n´ont-elles pas été créées par les cinéticiens ?
 
Certains critiques d´art et certains plasticiens émettent des
réserves quand à la qualité esthétique des oeuvres produites à l´aide
de machines: Bien qu´en décalage radical avec l´immense activité menée dans
ce domaine par de jeunes artistes de plus en plus nombreux (voir en
particulier des manifestations comme "Cybermonde" à Montreal Canada,
ou "Anima Mundi" a Rio de Janeiro au Brésil ou encore "Imagina" à Monte-Carlo
Monaco), leurs critiques pointent le fait que la production
pléthorique d´oeuvres médiocres masque l´émergence d´un style nouveau.
Mais n´en a-il pas toujours été ainsi, les grands courants artistiques
ayant rarement été reconnus à leur naissance ?
 
Cependant des questions pertinentes restent posées: La machine, par son
automatisme, ne va-t-elle pas priver l´artiste du contrôle de sa création ?
Qu´adviendra-t-il de la notion d´oeuvre lorsque des informations
numériques (valant pour du texte, de la musique ou des images) circuleront
de façon anonyme et libre sur un réseau mondial ?
 
Les détracteurs des "nouvelles images" sous-estiment en fait leur
adversaire: Utilisé comme simple outil, l´ordinateur ne différe en rien
des outils traditionnels, mais il est beaucoup plus que cela: C´est
ce que j´appelerai un "méta outil", c´est à dire un outil servant à
fabriquer des outils; et même plus, cette machine de simulation est capable
de simuler tout, y compris ce qu´elle n´est pas. C´est ainsi que les
nouvelles machines sont conçues, sous forme de modèles, programmées,
puis "imprimées" lorsque ces modèles donnent satisfaction.
 
Mais on risque de perdre beaucoup plus qu´un simple contrôle si ces
machines deviennent "intelligentes". Nous répugnons toujours à
abandonner ce que nous considerons comme étant la nature même de notre
humanité, mais en même temps nous avons toujours gagné à nous remettre en
cause:
 
Avec Galilé nous avons perdu notre position centrale dans l´Univers
et avons par la même occasion acquis une meilleure connaissance de celui-ci.
Avec Darwin nous avons perdu notre origine divine mais gagné la compréhension
du vivant. Avec Freud nous avons perdu un certain libre arbitre pour
découvrir l´inconscient. Nous perdrons bientot l´exclusivité de
l´intelligence, mais sous la forme d´une extension de celle-ci, d´une
hybridation avec la machine, d´une véritable mutation, et notre capacité
à nous adapter sera une fois de plus la preuve de notre superiorité.
3 Le détour par le langage
3-1 Symbolique et fonctionnalité
 
Le langage, d´abord symbolique, a aussi une dimension fonctionnelle:
En agissant, ou en voulant agir, sur le monde (magie), ou sur les autres
(communication, politique). Avec l´ordinateur il devient opérationnel
(le programme "dit" au robot industriel ce qu´il doit faire, des
algorithmes "démontrent" des théorèmes), le "dire" et le "faire" ont alors
un rapport de dépendance, le langage n´exprime plus seulement, mais il agit,
et inversement une machine peut s´adresser à nous, même si ce n´est pas
véritablement un être parlant.
 
Avec les "Réalités Virtuelles" une nouvelle perception est née: Celle
du virtuel. Le geste n´agit plus seulement sur les choses mais encore sur
des représentations, dont nous sentons en retour la présence physique.
Réalité et symbolique entament alors un dialogue inattendu.
 
Ainsi le peintre, lorsqu´il remplace son "coup de pinceau" par une
trouvaille algorithmique, étend son geste au virtuel: Sa parole devient
agissante, créatrice. En ce sens l´ordinateur, et singulièrement l´activité
de programmation, en actualisant la fonctionnalité du langage, redonne
à la parole et à l´écrit un rôle fondateur que notre époque, entièrement
vouée à l´image, semblait avoir oublié
3-2 Un progrès vers le réalisme ?
 
Giotto est considéré comme le 1er peintre de la modernité, et certains
y ont vu l´éveil du réalisme qui devait se poursuivre à la Renaissance et
apparaître comme une progression constante des techniques d´imitation du
monde visible. L´art moderne n´est plus alors que "décadent", et la synthèse
réaliste 3D serait un renouveau, une promesse d´avenir. Mais une telle
notion de progrès est contredite par toutes les analyses qu´ont fait
de l´histoire de l´art des auteurs comme Frankastel [Francastel 1951] ou
Panofsky [Panofsky 1975]. On peut tout au plus parler d´émergence de
styles, de représentations du monde valables pour une époque donnée, on
peut voir des influences, des filiations, mais en aucun cas une marche
en avant vers une quelconque perfection.
4 État des lieux
 
Les artistes disposent, aujourd´hui, d´un ensemble de machines et de
programmes sensés les aider à créer. De par son origine l´ordinateur semble
voué à simuler le réel, c´est du moins ce qu´un certain nombre de constructeurs
et de concepteurs prétendent. À travers une analyse des outils mis à la
disposition des artistes, je tenterai de montrer qu´il s´agit là
d´une régression, mais que de nouvelles voies s´ouvrent qui vont
révolutionner le rapport des créateurs aux machines.
4-1 Les programmes de synthèse du commerce
 
Ils supposent une modélisation géométrique d´objets dans un espace
euclidien à 3 dimensions, ce qui implique d´abord un monde d´objets à
représenter, ensuite une structure bien définie de ce monde, préexistante
à sa représentation.
 
Ils utilisent ensuite la projection conique (de centre un oeil unique
et ponctuel) de cet espace sur un plan, faisant de la perspective linéaire
la seule et unique méthode de visualisation.
 
Enfin ils éclairent la "scène" par des "lampes" et modélisent la lumière
par les lois de l´optique géométrique, les rayons étant nécéssairement
rectilignes.
 
Le style imposé est ainsi celui du réalisme photographique.
Sans contester la validité de ces options, on peut cependant regretter
qu´elles aient été "cablées", les élevant ainsi au niveau de vérités
universelles, alors qu´elles ne sont qu´une possibilité parmi bien d´autres.
4-2 Critiques
 
N´oublions pas que la géometrie cartésienne et l´optique physique ne sont
que des modèles, valables sous certaines conditions et à une époque donnée,
aucun scientifique ne songerait à les ériger en vérités universelles. Que
ces modèles soient les plus simples est à la rigueur un argument pour les
concepteurs de programmes, mais il ne faudrait pas qu´ils briment
l´imagination de l´artiste qui devrait pouvoir construire son espace à
mesure qu´il le représente.
 
D´autre part un monde d´objet exclut à priori le vivant et conduit à
représenter les êtres animés par des robots de la première génération.
 
Quand à la perspective conique, faut-il rappeler qu´elle date du XV ème
siècle et qu´elle a donné naissance à la géométrie projective dont elle
n´est plus aujourd´hui qu´une application mineure. Des espaces courbes, aux
propriétés insolites et merveilleuses, sont ainsi rendus inaccessibles par
ce seul recours à une projection particulière.
 
Et que dire des magnifiques mondes éclairés par une lumière relativiste
dont les rayons seraient courbés par les masses, sinon qu´ils sont eux
aussi rendus inacessibles par cette véritable "dictature de la droite" que
constitue le recours systématique à l´algorithme du "lancer de rayons".
 
Ce retour à un réalisme trivial sera sans doute considéré comme l´une
des plus grandes régressions esthétique de notre siecle.
4-3 Les programmes d´animation
 
La méthode d´animation la plus populaire est certainement celle dite
des "dessins clés", inventée par Walt Disney voici plus d´un demi siecle.
La cinématique, ou étude des mouvements indépendamment de leurs causes, avec
ses trajectoires et ses lois de mouvement, figure en bonne place dans
tous les systèmes d´animation. Une des retombées de la robotique a produit
la "cinématique inverse", ou définition d´un mouvement par son but, qui
facilite grandement la tâche de l´animateur. Enfin des modèles de la
dynamique permettent de simuler les lois de la mécanique et d´animer, avec
beaucoup de réalisme, des corps pesants, déformables, soumis à des forces
et à des contraintes. Du dessin animé traditionnel aux simulations des
modèles physiques, l´animation par ordinateur ne semble pas avoir pris
son autonomie par rapport aux savoirs anciens.
4-4 Critiques
 
Ce qui fait la force du dessin animé traditionnel, c´est
peut-être cette très grande liberté qu´il prend par rapport au réel qui
n´est d´ailleurs pas celui des choses, mais celui des situations.
 
De toute façon, pour rendre l´"âme" de la vie (ce que signifie très
exectement le terme "animation"), il faut mettre en scène autre chose que
des objets, fussent-ils "drôles".
 
Les "bases de données" chères aux infographistes, ne sont que de la
matière inerte, qu´ils sont obligés de traiter manuellement et
laborieusement en n´utilisant que très peu la puissance des machines.
 
En programmation traditionnelle, le "code", qui représente la "pensée",
et les "datas", qui représentent les objets, sont séparés, or, dans un être
vivant, il n´en est pas ainsi. D´ou l´idée de construire
des structures de données qui intégreraient du code: C´est ce que l´on
appelle les "langages orientés objet" (ou L.O.O.), ils permettent de
définir des "acteurs", qui sont bien des objets de synthèse,
mais munis d´un "comportement", c´est à dire qu´ils sont capables de
réagir, de façon non déterministe, à des situations données. L´un des
intérêts de cette méthode, connue sous le nom d´"animation comportementale",
réside dans le fait qu´un très grand nombre d´individus,
munis du même comportement, constituent une population dont le devenir
résulte des interactions de ses membres entre eux et avec l´environnement,
sans qu´il soit nécéssaire de les définir. Ce qui permet de gérer très
facilement des bancs de poissons, des vols d´oiseaux, des foules, et tous
les phénomènes mettant en jeu un grand nombre d´interactions complexes qu´il
serait impossible d´étudier de façon exhaustive.
 
Mais cette méthode, qui fait passer l´animateur du statut de
marionnettiste à celui de metteur en scène, ne se trouve, du moins dans sa
forme la plus générale, dans aucun logiciel du commerce.
 
 
La démarche du créateur ne se formalise pas, du moins pas en terme
d´algorithme. Et ceci est vrai de l´artiste dont l´inspiration ne se laisse
pas facilement traduire en chiffres, comme du mathématicien qui "découvre"
un théorème bien avant que d´en avoir fait la démonstration, celle-ci
n´intervenant qu´à titre de justification ou de validation. En quoi
l´ordinateur peut-il alors intervenir dans le processus de création ?
 
Audelà d´une utilisation archaïque des machines se limitant à
simuler les techniques traditionnelles (réalisme imitant la photographie,
"dessins clés" et "boîtes déformantes" imitant le dessin animé), le
problème de la création par ordinateur est beaucoup plus profond puisque
c´est le principe même de la démarche algorithmique qui est mis en cause.
5 Algorithmes et stratégies du vivant
5-1 Algorithmie traditionnelle
 
Jusqu´à aujourd´hui, les machines ne pouvaient résoudre que les
problèmes dont on connaissait une solution. Il s´agissait , à partir d´une
analyse de ce problème, de construire un algorithme donnant une méthode de
résolution, puis d´écrire un programme la traduisant dans un langage
compréhensible par la machine, et enfin de faire "tourner" ce programme.
La machine proposait alors un résultat.
 
Mais l´on sait bien que les vrais problèmes sont ceux dont on ne connait
pas la solution, et même plus, les vraies questions sont celles qui sont
mal posées. L´enfant (ou l´adulte) qui apprend ne sait bien évidemment pas
ce qu´il apprend et les startégies du vivant pour s´adapter sont tout sauf
une démonstration. À plus forte raison en ce qui concerne la création
artistique, la méthode algorithmique semble de peu d´utilité
 
Les méthodes classiques d´optimisation fournissent une illustration de
cette question, elles se divisent en 3 catégories [Goldberg 1991]:
 
1) Numériques: Elles cherchent à atteindre un extremum local d´une
fonction en se basant sur les variations de son gradient, la supposant
dérivable, ce qui n´est pas le cas de la plupart des fonctions
"intéressantes" qui ne sont bien souvent même pas continues.
 
2) Énumératives: Par une recherche exhaustive sur tous les points, mais
une telle méthode n´est praticable que pour des ensembles de définition
réduite.
 
3) Enfin aléatoires: L´examen systématique est remplacé par un tirage
aléatoire, mais cette méthode n´est guère plus efficace que la précédente.
 
Au lieu de vouloir atteindre à toute force un optimum, pourquoi ne
pas seulement chercher à s´en rapprocher en n´exigeant aucune connaissance
à priori sur le problème étudié ? C´est précisément la stratégie du
vivant qui cherche à s´adapter à une situation en se modifiant de façon
tout à fait pragmatique.
 
Nous distingueront deux approches: Celles proposée par les "réseaux
neuronaux" et celle connue sous le non d´"algorithmes génétiques":
5-2 Les réseaux neuronaux
 
Un neurone artificiel simule le neurone biologique. Au lieu de
construire une circuiterie figée (ce que sont les ordinateurs classiques)
qui ne fournira jamais plus que ce que l´on y a mis au départ, on conçoit,
sur le modèle du cerveau, un réseau de cellules interconnectées de façon
modulable et souple. Ceci est réalisé pratiquement en affectant à ces
liaisons un "poids" contrôlant la quantité d´information circulant sur
une voie donnée (par exemple un poids nul coupe la connection), et en
permettant au système de se modifier lui-même afin d´améliorer ses
réponses. C´est le principe du "perceptron" qui peut, entre autre,
apprendre à reconnaître un alphabet ou un vocabulaire de formes.
 
Dans un réseau multicouche dont l´information est astreinte à progresser
depuis la couche d´entrée jusqu´a la couche de sortie en passant par les
couches "cachées", on réalise un "apprentissage" en présentant au système
des couples (entrée,sortie souhaitée), l´erreur commise (différence entre la
sortie trouvée et la sortie souhaitée) est utilisée (par une methode dite
de la "rétropropagation" [Bourret 1991]) pour corriger les poids des couches
inférieures afin de minimiser cette erreur.
 
On a montré qu´un tel réseau saura alors résoudre toute une classe de
problèmes analogues à celui ayant servi à l´apprentissage.
 
Un autre aspect des réseaux neuronaux est leur capacité à simuler la
mémoire humaine: La mémoire n´est pas une inscription d´informations
amorphes (comme elle l´est dans les ordinateurs classiques) mais a été
définie par les psychologues comme un "réseau d´association".
 
Les "mémoires associatives linéaires" sont, pour simplifier, une
généralisation du perceptron [Abdi 1994], en ce sens qu´elles associent une
sortie spécifique à une entrée. Les "mémoires auto associatives", qui
ne comportent qu´une seule couche de cellules, permettent de retrouver une
information lorsqu´on n´en donne qu´une partie (possiblement bruitée)
Les réseaux de Hopfield [Hopfield 1982] modélisent ce concept. Une
généralisation de ces réseaux a conduit aux "machines de Boltzmann" qui
utilisent une activation probaliste des cellules, évitant ainsi un
blocage dans un minimum local. A "température" élevée le réseau pourra
"rebondir" dans un autre état et éviter ainsi les puits d´énergie.
 
 
Les réseaux neuronaux, en simulant le fonctionnement du cerveau (sans
cependant chercher à le copier), permettent de résoudre des problèmes
par les mêmes méthodes que le vivant: C´est à dire non pas en
planifiant la liste des instructions à executer pour arriver au résultat
(algorithme) mais en définissant un comportement adaptatif modifiant
l´organisme lui-même qui trouve ainsi, par essais et erreurs, la solution.
5-3 Les algorithmes génétiques
 
Charles Darwin [Darwin 1859] avait proposé une explication de
l´évoltuion des êtres vivants en posant l´hypothèse de la "sélection
naturelle" [Dessales 1996]. Contrairement a Lamarck (qui postulait l´hérédité
des caractères acquis), Darwin pense que l´action de l´environnement ne
s´exerce pas directement sur le génome d´un individu mais favorise la
survie et la reproduction de certains génomes apparus aléatoirement par
croisement et mutation des gènes.
 
Au début des années soixantes, John Holland développe les "algorithmes
génétiques" dans le but d´expliquer les processus naturels d´adaptation,
et de concevoir des systèmes artificiels ayant les mêmes propriétés.
 
Dans son principe cette méthode consiste à faire évoluer une "population"
de solutions: Celles-ci se reproduisent par croisement des meilleures
(favorisant ainsi leur survie) et par mutations (évitant une homogénisation
d´individus meilleurs mais pas nécéssairement excellents). La sélection
se fait en choisissant les individus pour lesquels une certaine fonction
d´adaptation est maximale.
 
On a montré qu´il s´agissait de procédures robustes d´exploration d´espaces
complexes [Holland 1975] dont les solutions ne sont pas explicitées (mais
découvertes par l´algorithme lui-même), et pouvant s´appliquer à toute une
classe de problèmes (car indépendantes de ceux-ci).
 
Les algorithmes génétiques remplacent les méthodes traditionnelles
d´optimisations (qui progressent localement) par une sorte de paralellisme
massif, toute une population de solutions évoluant et se reproduisant
sur le modèle des êtres vivants.
6 Application à la création artistique
 
Historiquement liées à l´optimisation des problèmes, ces nouvelles
techniques ouvrent un vaste champ de recherche en proposant une approche,
non plus algorithmique, mais automatique des problèmes, c´est à dire que
l´on a plus à fournir les solutions de ceux-ci , mais que l´on est conduit
à construire soit un réseau susceptible d´évoluer favorablement, soit
une population dont on attend qu´elle s´améliore.
 
 
Les artistes qui utilisent les ordinateurs le font souvent, comme
il a été dit plus haut, avec des méthodes archaïques simulant les
techniques traditionnelles.
 
Avec les réseaux neuronaux et les algorithmiques génétiques, une
occasion leur est offerte de repenser leur rapport à la machine et de pouvoir
enfin la considérer comme un outil de création et non pas seulement comme
un moyen d´imiter ou de copier.
 
 
Ainsi Karl Sims [Sims 1991] utilise des algorithmes génétiques pour créer
des structures complexes, comme des plantes 3D, des textures ou des mouvements.
Le rôle que peut jouer l´artiste est illustré par la façon dont Sims implémente
ces idées: Il remplace d´abord la fonction d´adaptation explicite par une
appréciation visuelle, retrouvant ainsi un jugement esthétique. Il remplace
ensuite les génomes (qui sont des chaînes de caractères de taille fixe) par
des expressions symboliques, reprenant en celà le concept de "programmation
génétique" [Koza 1990 et 1992]. On voit bien sur cet exemple que l´artiste
n´est pas prisonnier de la machine et qu´il peut en quelque sorte changer
les "règles du jeu".
 
Karl SIMS [Sims 1994] encore décrit un système pour générer des créatures
virtuelles se déplaçant et se comportant dans un environnement physique 3D
simulé. La morphologie de ces créatures et le réseau de neurones contrôlant
leurs muscles sont générés automatiquement par des algorithmes génétiques.
Un réseau neuronal est généralement spécifique au problème à traiter;
l´idée de Sims, consistant à le faire trouver automatiquement par un
algorithme génétique, résoud donc le problème de sa construction en
simulant la vie qui invente le cerveau par un phénomène d´adaptation.
 
Michel Van de Panne et Eugène Fiume [Van de Panne 1994] simulent
des êtres vivants à partir de réseaux neuronaux dont les entrées sont des
capteurs et les sorties sont des muscles contrôlant les mouvements d´un
corps de synthèse obéissant aux lois de la dynamique: Ces "acteurs"
inventent ainsi des stratégies de marche qu´aurait fort bien pu trouver
la nature. De telles recherches, dans le domaine de la "vie artificielle",
ouvrent à la création artistique des voies nouvelles en considérant une
oeuvre, non pas comme un objet fini et déterministe construit une fois
pour toute, mais comme un véritable "être" ayant son autonomie et capable
de nous surprendre.
 
Latham et Todd [Todd 1991] appliquent des concepts analogues pour
engendrer des sculptures autogénérées, simulées par des primitives 3D de
la géometrie constructive.
 
Michael Tolson utilise les réseaux neuronaux pour contrôler toute
une population d´animaux de synthèse qui réagissent interactivement
lorsque l´on dépose de la nourriture.
 
 
Audelà de tels dispositifs simulant la vie, on peut imaginer des
systèmes qui, par apprentissage, comprendraient la démarcher et le style
d´un artiste, et qui l´accompagneraient ensuite dans sa création: Le
dialogue traditionnel du créateur avec son oeuvre serait étendu en une
interaction avec un partenaire intelligent.
Conclusion
 
On sait aujourd´hui synthétiser des réalités virtuelles indiscernables
de leur référent réel. Représenter ne peut donc plus se limiter à imiter
une apparence visuelle, mais vise à construire un modèle crédible.
Et même si celui-ci continue à se montrer comme image, à se lire comme
simulation, ce n´est plus la chose representée en tant que telle qui est
mise en scène, mais le processus par lequel elle vient au monde, existe et
se comporte.
 
Les tendances archaïques actuelles de l´image de synthèse (réalisme
naif, attachement à la simulation de techniques anciennes) feront bientot
place à des méthodes de construction de processus inspirés du monde vivant,
les réseaux neuronaux et les algorithmes génétiques en étant des exemples
parmi les plus récents.
Bibliographie
H. Abdi:
Les réseaux neuronaux,
Presses Universitaires de Grenoble, 1994
R. Bharath, J. Drosen:
Neural Network Computing,
Windcrest/McGraw-Hill New York, 1994
P. Bourret,J. Reggia , M. Samuelides:
Réseaux Neuronaux,
Teknea Toulouse, 1991
C. Darwin Charles:
The Origin of Species,
New American Library, Mentor paperback, 1959
J.L. Dessalles Jean-Louis:
L´ordinateur génétique,
Hermes Paris, 1996
P. Franscatel:
Peinture et Société,
Denoël Lyon, 1952
D. Goldberg:
Genetic Algorithms,
Addison-Wesley USA, 1991
J.H. Holland J.H.:
Adaptation in natural and artificial systems,
Ann Arbor: The University of Michigan Press, 1975
J.J. Hopfield:
Neural Networks and physical system with emergent
collective computational abilities,
Proceeding of the National Academy of Science, USA,1982
J.R. Koza:
Genetic Programming: A Paradigm for Genetically Breeding
Populations of Computer Programs to Solve Problems,
Standfort University
of Computer Science Departement Technical Report STAN-CS-90-1314, 1990
J.R. Koza
Genetic Programming: On the Programming of Computers by
Natural Selection,
Cambridge, MA, USA, MIT Press, 1992
Panofsky:
La perspective comme forme symbolique,
Les Éditions de Minuit, Paris 1975
F. Popper:
Art Action et Participation,
Klincksieck esthétique, 1980
F. Popper:
L´art à l´âge éléctronique,
Hazan, 1993
K. Sims:
Artificail Evolution for Computer Gtaphics,
in ACM Computer Graphics 24, 1991
K. Sims
Evolving Virtual Creatures,
in ACM Computer Graphics, 1994
S.J.P. Toddet, W. Latham:
Mutator a Subjective Human Interface
for Evolution of Computer Sculptures,
IBM United Kingdom Scientific Centre Report 248, 1991
M. Van de Panne Michiel, E. Fiume
Sensor-Actuator Networks,
University of Toronto Canada, 1994