LOGICIELS D'IMAGES: DES INTERFACES POUR CRÉER ET PENSER
Michel BRET
professeur à l'Université PARIS 8
juin 2000
1 Introduction
 
Derrière la révolution numérique il y a certes l'image,
mais il y a aussi, et surtout, le langage: La communication écrite (avec
et entre les machines sous forme de programmes, entre internautes via le Web)
n'a jamais connue un tel développement. Et même lorsque le vecteur
de la communication est une image, celle-ci est écrite (codée ou
synthétisée). Grâce à l'ordinateur, le langage est devenu
opérationnel,
et l'image peut être dite, non seulement sur le mode de la description,
mais encore sur celui de la création. La pensée algorithmique, qui
permet cette équivallence entre un imaginaire intuitif et un langage
systématique, s'appuie sur des modèles scientifiques:
Ainsi la Géométrie Euclidienne, rendue calculable par Descartes,
est le modèle le plus populaire de la synthèse 3D. La Mécanique
Newtonienne est couramment utilisée en animation. Le rendu de
l'image de synthèse est basé sur l'Optique Géometrique. Depuis
Wiener [WIENWR 47], avec la Cybernétique, et, plus récemment, avec les nouvelles
avancées de la Neurobiologie, le vivant et la science s'interrogent réciproquement.
Les propriétés émergentes d'un système complexe prennent le pas
sur l'explication analytique de celui-ci, le modèle n'est plus
mécaniste mais fait appel aux catégories du vivant. En intégrant ces nouvelles
dimensions, les logiciels d'images quittent le
domaine de la simulation des techniques traditionnelles pour entrer
dans le monde de la création.
 
Le peintre n'utilise pas seulement un pinceau, mais il se
construit, par apprentissage, un instrument cognitif, même
s'il n'en est pas conscient. La situation n'est pas très différente
avec les nouvelles technologies, bien que de multiples
instruments cognitifs soient proposés, clé en main, sous la forme
de logiciels, courcircuitant du même coup l'investissement
créatif de l'artiste. Il est certes difficile aujourd'hui
de maîtriser les techniques, mais il est encore beaucoup plus
difficile de s'en libérer. Le plasticien est
partagé entre l'utilisation irréfléchie des nouveaux outils
et leur critique systématique. Il devra eviter le double ecueil d'une
dépendance stérile
et d'une condamnation sans avenir.
2 Langage et image
 
Lorsque le critique d'art ou le sémiologue parle d'image
c'est toujours un discours sur, une mise en forme textuelle donnant
une interprétation, une explication ou un commentaire, qui
n'épuisent jamais leur sujet. D'autres discours, interchangeables,
pourraient tout aussi bien se développer dans d'autres directions.
Inversement, lorsqu'un metteur en scène part d'un texte
pour produire une oeuvre visuelle, c'est toujours une interprétation
particulière qu'il en donne, et d'autres images, très différentes,
pourraient être générées.
Dans les deux cas l'image et le langage, même s'ils renvoient
à la même intention, ne sont pas équivallents et la réalité
qui les soustend apparait sous deux faces qui ne peuvent être appréhendées
simultanément.
 
Avec l'ordinateur le langage devient fonctionnel, opérationnel,
il est directement et automatiquement associé à la double
action physique, celle d'abord d'écriture d'un
programme et celle ensuite de son exécution par
une machine. L'image
produite n'illustre plus un texte mais en est le résultat direct.
Comment alors écrire un tel texte ? S'il s'agit d'une
image précise, comme dans le cas de la C.A.O., le problème
est simple puisqu'une telle image admet une description univoque
qu'il suffit de programmer. Mais s'il
s'agit d'une image mentale, imprécise, vague, sa description
verbale, si elle existe bien, n'est plus formalisable. Ce
n'est pas l'image en tant que telle qu'il faut alors programmer
mais plutôt l'imaginaire qui la supporte. Et c'est l'erreur
commise par laplupart des logiciels de synthèse que de modéliser
les objets au lieu de construire des espaces ou pourraient
se développer les images: En modélisant la représentation elle-même
ils se condamnent à ne rien représenter d'autre ...
 
Ce rapport complexe de l'image au langage est au coeur de la
problématique des logiciels graphiques: Un processus automatique,
écrit, peut-il engendrer de l'image autre que triviale, peut-il
produire de la sensibilité, de l'art ? Pour répondre à cette question il
faut d'abord s'entendre sur le mot automatique. Si on le
prend dans son acceptation mécaniste, c'est à dire dans son sens
le plus pauvre, il est certain qu'il ne peut montrer plus que
ce que l'on y aura mis. Mais si on se référe à des processus
émergents, comme l'est le vivant et comme commencent
à le devenir les machines, on ne peut plus être aussi affirmatif.
D'autre part il faut aussi s'entendre sur le mot sensibilité.
Si, avec les romatiques, on en fait une sorte de naturalité de
l'humain, il est certain qu'on ne peut rien en dire. Mais si l'on
veut bien reconsidérer la notion du vivant à la lumière des
neurosciences, alors le psychique, la pensée, la sensibilité
ont leur siège dans un organe, certes hautement complexe, le cerveau,
mais dont le fonctionnement n'est pas sans rappeler celui des
machines numériques. Et c'est à une redéfinition aussi
bien du vivant que de la machine auquel nous assistons aujourd'hui, ni
l'un ni l'autre n'étant ce que l'on avait pensé jusqu'à présent.
La question n'est donc plus: "Un processus automatique
peut-il faire de l'art ?", mais plutôt: "En quoi les nouveaux
processus automatiques ressemblent-ils à nos propres processus
de pensée, et dans quelle mesure peuvent-ils avoir
une conscience de soi ? ".
La conscience
serait un phénomène émergent qu'une étude
analytique ne saurait expliquer.
Par contre si on arrive à synthétiser des modèles montrant une
certaine aptitude à penser, certes on n'aura pas explique pour
autant la pensée, du moins en aura-t-on construit des conditions expérimentales
nous permettant peut-être de mieux la comprendre.
Le vieux dualisme corps-esprit est depassé et de nouveaux concepts sont
nécessaires pour expliquer l'étrange ressemblance que montrent aujourd'hui
le vivant et la machine.
 
Si l'artiste se réclame volontiers de l'intuition et si
l'informaticien utilise plutôt les catégories du rationnel,
comment les faire cohabiter ?
La philosophie, comme la science, classiques
nous ont habitués à penser le rationnel comme fondement de la
pensée, la logique comme fondement des mathématiques. Audelà du
fait que l'art pense nécéssairement et que la science
peut aussi avoir des états d'âme, c'est de la distinction même
entre théorie et pratique dont je voudrais maintenant parler.
3 Faire et penser
 
Pour Hilbert les fondements de la géométrie sont à
rechercher dans la seule logique: En 1900 il
posa pour la 1ère fois le problème de la non contradiction
des mathématiques, problème qui reçut en 1931 une réponse
inattendue sous la forme du théorème de Gödel (1):
Contrairement a ce que pensait Hilbert, la notion de vérité arithmétique,
ou d'évidence n'est pas réductible à un algorithme fini.
En un mot la notion de vérite n'est pas formalisable.
 
Pour Poincaré au contraire les
concepts de la géométrie seraient construits lors de la perception
de mouvements qui se traduit par des modifications de formes.
Piaget avait montré ensuite comment les concepts se construisent
au cours d'expériences qu'a le jeune enfant avec son environnement.
Les neurosciences nous apprennent aujourd'hui que la nécessité
de coordonner des actions est à l'origine des fonctions cognitives
les plus évoluées [BERTHOZ 98]. La logique que nous utilisons lorsque nous
faisons des mathématiques est le résultat
d'apprentissages physiques avec le monde réel. Et cette logique nous devient
un outil pour agir sur ce monde par l'intermédiaire de théories
d'ou sont issues les technologies. Ainsi la capacité d'abstraire
est un élément de notre survie et c'est la raison pour laquelle
la sélection naturelle l'a retenue, et non l'inverse, qui serait
l'existence d'une logique antérieure a toute apparition de
la pensée.
 
Il semble que 2 zones cérébrales soient responsables des
aptitudes mathématiques chez l'humain: L'une, associée au langage,
se situe dans le lobe frontal inférieur gauche et l'autre,
associée à la vision est localisée dans les 2 lobes pariétaux
inférieurs. L'activité de calculer met en jeu 2 systèmes
cognitifs: L'un, lié au langage exécute les calculs exacts
et l'autre, lié à la vision, fonctionne sur le mode analogique
par évaluations de quantités globales. Dans le 1er cas, le
cerveau traite des symboles abstraits (le chiffre 7 est une
représentation arbitraire d'une collection de 7 objets et n'a
aucun rapport de ressemblance avec une telle collection), dans
le 2em cas le cerveau traite plutôt des images (comparaison
visuelle de 2 échelles représentant les nombres 3 et 8). Par
exemple Einstein (dont on a récemment étudié le cerveau)
déclarait que sa pensée scientifique relevait plus de la vision
et des sensations musculaires que du langage [LA RECHERCHE 1999].
 
Est-ce à dire qu'il existerait 2 modes de pensée, l'un abstrait,
lié au langage et l'autre, plus intuitif, lié à la vision ? Ou
ne faudrait-il pas mieux voir dans ces 2 approches une complémentarité ?
D'ailleurs le fait qu'Einstein parle de sensation musculaire aussi
bien que visuelle invite à généraliser la notion d'image comme
résultat d'une perception multisensorielle.
 
Certes les mathématiques n'ont jamais été le garant
d'une certitude absolue, et l'axiomatique a montré qu'un système
cohérent ne représente pas nécessairement des vérités naturelles,
bien qu'un tel système puisse aider à se représenter le monde
(ainsi les géométries non euclidiennes et la Relativité générale (2)).
Mais jamais on n'avait mis en doute la certitude
hypothetico-déductive. L'existence même d'une logique immanente
à la pensée n'est plus une évidence.
4 La notion d'émergence
La méthode analytique suppose l'existence d'une réalité
à priori
qu'elle décompose en éléments plus simples à partir desquels
elle fournit une explication globale. L'hypothèse d'une vérité
independante de son observation est contredite par la physique
moderne qui a montré quelle impact peut avoir l'expérience sur la connaissance.
L'hypothèse de la réversibilité de l'analyse, c'est à dire la croyance
en la pertinence d'un modèle construit sur l'assemblage des seules
propriétés des éléments est contredite par le Holisme et
par le Structuralisme qui ont montrés que le tout est plus
que la somme de ses parties. La Méthode Analytique, qui
a donné les preuves de son efficacité, est couramment utilisée
encore aujourd'hui, elle est cependant inadaptée pour l'étude des
phénomènes émergents car, lorsque l'on dissocie les
structures d'un système, ces phénomènes disparaissent. Une
méthode synthétique, qui construit au lieu de disséquer,
est alors préférable.
Le connexionnisme repose sur la notion d'émergence
de propriétés globales que chaque élément ne possède pas et qui ne
résulte pas d'une simple combinaison de leurs propriétés.
Un réseau
interconnécté de neuronnes (naturels ou artificiels) a la propriété
de s'autoconfigurer lors de phases d'apprentissage [ABDI 94].
Les problèmes très difficiles
dont on ne connaît aucune solution, les problèmes qui n'ont pas de
solution, ou même les problèmes mal posés résistent
à la méthode algorithmique. Au lieu de cela, on construit un réseau neuronal,
machine (réelle ou virtuelle), que l'on met en présence du problème
en action, sous la forme d'exemples que le réseau apprend par
essais/erreur en s'autoconfigurant de façon à répondre de mieux en mieux.
Un tel réseau a la propriété très étonnante de pouvoir généraliser
son apprentissage à des exemples non appris (tout comme un enfant
apprend la syntaxe de sa langue maternelle en écoutant puis en
produisant des exemples de phrases, et ce qui est très remarquable,
c'est que cet enfant se forge ainsi des concepts abstraits, il en va
de même pour un réseau neuronal artificiel).
Les réseaux Neuronaux simulent le système nerveux d'individus artificiels.
Et la question s'est posée de leur construction,
c'est à dire de leur naissance, donc de l'évolution
d'une population de tels individus.
S'inspirant de la théorie Darwinienne de l'Évolution par la
Sélection Naturelle [DARWIN 1859], John Holland [HOLLAND 75] développa en 1962 les Algorithmes
Génétiques à l'Universite du Michigan. Son but était de mettre en évidence
et d'expliquer rigoureusement les processus d'adaptation des
systèmes naturels et de concevoir des systèmes artificiels possédant
certaines propriétés des systèmes naturels [GOLDBERG 94].
Il s'agit de faire évoluer des populations d'êtres
artificiels par croisement et mutation en optimisant une certaine
fonction d'évaluation. Par exemple pour résoudre un problème dont
on a pas la moindre idée de la solution, on construit toute une
population de petites solutions approchées, toutes fausses, mais
on leur permet de se multiplier en favorisant la survie de celles
qui répondent le moins mal au problème, au bout de quelques
générations la sélection travaille sur des solutions qui répondent un peu
mieux au problème et après de nombreuses régénérations
on peut trouver des solutions qui résolvent le mieux possible le problème.
Et ce resultat a été obtenu sans connaître ni la solution ni
l'alogorithme de résolution.
Une autre approche, proposée par KOZA [KOZA 92], consiste à travailler,
non plus sur des populations d'individus décrits
par des génotypes de longueurs fixes, mais à considerer des populations
de programmes que l'on fait évoluer par croisements et mutations
selon les lois de la sélection naturelle: C'est une nouvelle façon
de résoudre le problème de la programmation automatique, et,
par là même,
de venir à bout de quantité de problèmes très difficiles, impossibles
ou mal posés, que l'on rencontre fréquemment dans le processus,
la plupart du temps non formalisé, de la création artistique.
 
L'oeuvre artistique, d'abord objet de contemplation, s'est,
à la suite du Cinétisme,
ouverte à l'action avec l'art de la participation [POPPER 90], avant
de devenir interactive avec le numérique. Mais, jusqu'à
une époque récente, la relation du spectateur avec
l'installation artistique se faisait sur le mode du feedback
automatique, c'est à dire, finalement, de façon très mécanique.
C'est d'aileurs une constante, aussi bien dans les films de
Science Fiction
(sauf peut-etre 2001 Odysee de l'Espace), que dans les jeux
vidéo, de concevoir la machine sur un mode archaique (puissance,
robotisation, transfert de comportements violents et machistes)
et de vivre la relation homme-machine comme un
asservissement. La production artistique numérique est
très en retard sur son époque (voir le succès du style gothique,
l'engouement pour les histoires moyennageuses avec combats
d'épées, visite de cryptes et de cimetières, bref toute les
panoplies d'un archaisme et d'une regresseion infantile
désolantes). C'est tout le contraire qui va arriver et, une fois de
plus, les artistes contemporains auront ratés le rendez-vous
de leur époque en laissant à d'autres l'oportunité de
découvrir l'art de leur siècle. Ce sont les nouveaux créateurs,
hybrides de techniciens, d'artistes et de poètes, qui ont compris
quelle révolution de la pensée apportaient des mouvements
comme celui de la Vie Artificielle [HEUDIN 94].
L'oeuvre interactive prend une nouvelle dimension en intégrant
des propriétés du vivant, comme la perception ou la réflexion:
Le spectateur n'est plus en face d'un robot répétant ses
gestes, mais est mis en présence d'un être autonome avec
lequel un dialogue peut s'instaurer: L'oeuvre est devenue
vivante, réalisant ainsi le rêve de Pygmalion.
Comme exemple je donnerai celui d'un funambule virtuel que je
développe actuellement avec Marie Helene TRAMUS et qui réagit
aux sollicitations d'un funambule réel (le spectateur), non pas
sur le mode clonique,
mais sur celui d'une autonomie dont les stratégies sont issues
d' apprentissages intelligents. Pratiquement il s'agit d'un
acteur de synthèse en interaction dynamique avec son environnement
et muni de réseaux neuronaux. L'expérimentation a fait apparaître
une relation de l'artiste avec ce programme très différente de ce
qu'elle est avec un programme traditionnel: Le but n'est pas de
commander un robot mais de dialoguer et de composer avec un acteur
sensible, bien que de synthèse. Il ne s'agit plus de raconter une
histoire, mais de vivre une avanture, à la différence du scénario
classique, ce rapport à la machine n'est pas écrit d'avance, ni
même programmmé.
5 Le logiciel comme outil artistique
 
Pour moi un logiciel n'est pas un exécutable mais c'est
d'abord et avant tout un ensemble de sources, c'est à dire quelque chose
en devenir, qui a une histoire et
qui est susceptible d'évoluer de façon imprévisible. C'est une
oeuvre qui se confond avec les films ou les installations qu'elle
me permet de réaliser, mais ce n'est pas une oeuvre encadrée ni même
seulement interactive, c'est une système évolutif qui me transforme
autant que je le transforme.
 
C'est dire que, pour moi, les logiciels de synthèse du
commerce ne sont pas véritablement des logiciels. Quelque soit leur degré de
sophistication ils ne représentent que l'état des fantasmes,
des limitations et des préjugés de ses concepteurs
à un instant donné.
Et quand on connait la pauvreté de l'imaginaire du programmeur
moyen (cartoon3D, réalisme naif, etc...) on est tout à la fois
étonné et affligé de voir des artistes se soumettre
à leurs contraintes arbitraires.
 
À la limite le seul logiciel digne de ce nom serait un compilateur, et
d'ailleurs, dans anyflo, est intégré un interpreteur-compilateur
qui est en fait le coeur du système. Dans les logiciels traditionnels
les objets sont déjà des modèles de ce que le programmeur se figure
être un objet réel. Alors que le réalisme postule
l'existence d'un réel indépendamment de sa représentation,
de tels logiciels postulent en outre
l'existence d'une représentation indépendante des objets auxquels elle
s'applique. Dans anyflo par contre un objet est une abstraction
sans aucune structure prédéfinie, il est donc possible de lui
affecter n'importe quelle propriété, par exemple du code et en faire ainsi un
acteur de synthèse, c'est à dire une entité capable de s'exécuter
et, donc, de réfléchir: C'est la voie ouverte vers le comportemental.
Par ailleurs l'écriture modulaire et très générale du code me permet
de greffer n'importe quel méta propriété, c'est à dire de redéfinir
une algorithmie et, pourquoi pas, de s'affranchir de l'algorithmie:
C'est ce que j'ai fait en implémentant les réseaux neuronaux
et les algorithmes génétiques qui constituent une nouvelle façon
d'aborder un problème non pas en recherchant analytiquement une
solution mais en procédant plutôt comme un organisme vivant qui,
confronté à un environnement qu'il ignore, se construit des
stratégies et des cartes de représentation
par essais et erreurs. Bien entendu, au final, il
y a toujours un algorithme, et il peut paraître paradoxal
d'écrire des algorithmes permettant de se libérer de l'algorithmie.
Mais, après tout, quel que soit la sophistication d'un langage
évolué, après compilation, il ne reste plus que du binaire,
et pourtant le but des langages évolués est précisément de permettre de
se passer du langages binaire. Il n'y a pas contradiction
à construire un système qui dépasse ses propres bases (3).
 
À quels critères devrait répondre un logiciel
à finalité artistique ?
Il faut poser cette question dans le contexte
sociologique actuel qui veut, qu'on le regrette ou non, qu'une
certaine séparation entre art et technique est entretenue par
les uns et les autres. Dans ces conditions aucun logiciel
ne convient: S'il est programmable,
l'immense majorité des artistes, techniquement incultes, n'y
auront pas accès, s'il est cablé (à la souris) il ne
répondra pas aux exigences de la création. Actuellement, un
compromis a été trouvé: Les logiciels du commerce, immédiatement
utilisables par tout un chacun, proposent cependant des
interfaces programmables. Mais le problème reste entier: Seuls des utilisateurs
ayant une certaine habitude de la programmation auront
accès à ces extensions.
 
Comme le souligne Edmond COUCHOT [COUCHOT 98], la question du
numérique est devenue centrale dans les débats artistiques. On
ne peut l'éluder en séparant arbitrairement les tenants
d'un savoir technique et les dépositaires supposés d'une culture
qu'il resterait à définir.
Il faudrait que les artistes possèdent les
concepts scientifiques et les outils techniques de base leur
permettant de contrôler, de modifier et de construire leur
technologie. Or nous assistons aujourd'hui à un tout autre
scénario: La plupart des jeunes, aussi bien artistes
que techniciens, qui utilisent l'ordinateur, le font sur un
mode totalement nouveau, qui n'est pas analytique et rationnel,
mais plutôt heuristique:
On peut regretter un gachis de
compétences, une perte de temps et d'efficacité, dus a un manque
de connaissance techniques, mais, en même temps, ces comportements
font preuve d'une grande adaptabilité et, une fois de plus,
l'évolution choisit des stratégies étonnantes mais qui réussissent.
6 Conclusion
 
Il serait vain de donner les grandes lignes de ce que devrait
être un logiciel de création artistique, car, outre le fait
de supposer une mentalité qui n'est pas celle actuellement en
vogue chez les plasticiens, ce serait ignorer les bouleversements
comportementaux, pas seulement négatifs mais aussi porteurs de renouvellement,
que l'on peut observer chez les utilisateurs de ces logiciels. Les solutions que nous
préconisons aujourd'hui seront probablement rapidement dépassées
par une évolution qui nous surprendra toujours ... Du moins en aura-t-on
prédi les effets.
Notes
 
(1) Hilbert montra
qu'il existe une formalisation complète de la logique des prédicats
mais que l'arithmétique formelle, si elle est non contradictoire,
n'est pas complète, c'est à dire qu'il existe une formule non
démontrable (dont on ne peut affirmer ni qu'elle soit vraie ni
qu'elle soit fausse). Il s'en suit que la non contradiction de
l'arithmétique formelle n'est pas démontrable par ses propres méthodes.
 
(2) L'espace à 4 dimensions de la Relativité Générale
est courbé en fonction de la distribution des masses.
 
(3) C'est, en mathématique, le concept bien connu
d'extension (par exemple l'ensemble des fractions est défini
comme une extension de l'ensemble des entiers, celui des complexes
est défini à partir des réels).
BIBLIOGRAPHIE
Herve ABDI Les réseaux neuronaux Presses Universitaires de Grenoble, 1994
Alain Berthoz, Le sens du mouvement, Ed Odile Jacob Sciences, 1997
Alain Berthoz, Le cerveau et le mouvement, in Science & Vie, numéro 204,
septembre 1998
Edmond COUCHOT, La technologie dans l'art, Ed Jacqueline Chambon,
1998
Charles DARWIN De l'origine des espèces au moyen de la séllection naturelle, 1859
David E. GOLDBERG Algorithmes génétiques, Ed. Addison-Wesley, 1994
Jean Claude HEUDIN: La Vie Artificielle, Hermès, 1994
John HOLLAND Adaptation in Natural and Artificial Systems,
Ann Arbor: The University of Michigan, 1975
J.R. KOZA, Genetic Programming: On the Programming of Computers by the Means
of Natural Selection, Cambridge, MA, MIT Press, 1992
LA RECHERCHE, dossier: Le cerveau d'Einstein, numéro 326, décembre 1999
Frank POPPER: Art, Action et Participation, Ed Klincksieck, 1980
Norbert WIENER Cybernetics or Control and Communication in the animal and the Machine
Cambridge (Mass), 1947