LOGICIELS D'IMAGES: DES INTERFACES POUR CRÉER ET PENSER


Michel BRET
professeur à l'Université PARIS 8
juin 2000



1 Introduction

         Derrière la révolution numérique il y a certes l'image, mais il y a aussi, et surtout, le langage: La communication écrite (avec et entre les machines sous forme de programmes, entre internautes via le Web) n'a jamais connue un tel développement. Et même lorsque le vecteur de la communication est une image, celle-ci est écrite (codée ou synthétisée). Grâce à l'ordinateur, le langage est devenu opérationnel, et l'image peut être dite, non seulement sur le mode de la description, mais encore sur celui de la création. La pensée algorithmique, qui permet cette équivallence entre un imaginaire intuitif et un langage systématique, s'appuie sur des modèles scientifiques: Ainsi la Géométrie Euclidienne, rendue calculable par Descartes, est le modèle le plus populaire de la synthèse 3D. La Mécanique Newtonienne est couramment utilisée en animation. Le rendu de l'image de synthèse est basé sur l'Optique Géometrique. Depuis Wiener [WIENWR 47], avec la Cybernétique, et, plus récemment, avec les nouvelles avancées de la Neurobiologie, le vivant et la science s'interrogent réciproquement. Les propriétés émergentes d'un système complexe prennent le pas sur l'explication analytique de celui-ci, le modèle n'est plus mécaniste mais fait appel aux catégories du vivant. En intégrant ces nouvelles dimensions, les logiciels d'images quittent le domaine de la simulation des techniques traditionnelles pour entrer dans le monde de la création.
         Le peintre n'utilise pas seulement un pinceau, mais il se construit, par apprentissage, un instrument cognitif, même s'il n'en est pas conscient. La situation n'est pas très différente avec les nouvelles technologies, bien que de multiples instruments cognitifs soient proposés, clé en main, sous la forme de logiciels, courcircuitant du même coup l'investissement créatif de l'artiste. Il est certes difficile aujourd'hui de maîtriser les techniques, mais il est encore beaucoup plus difficile de s'en libérer. Le plasticien est partagé entre l'utilisation irréfléchie des nouveaux outils et leur critique systématique. Il devra eviter le double ecueil d'une dépendance stérile et d'une condamnation sans avenir.

2 Langage et image

         Lorsque le critique d'art ou le sémiologue parle d'image c'est toujours un discours sur, une mise en forme textuelle donnant une interprétation, une explication ou un commentaire, qui n'épuisent jamais leur sujet. D'autres discours, interchangeables, pourraient tout aussi bien se développer dans d'autres directions. Inversement, lorsqu'un metteur en scène part d'un texte pour produire une oeuvre visuelle, c'est toujours une interprétation particulière qu'il en donne, et d'autres images, très différentes, pourraient être générées. Dans les deux cas l'image et le langage, même s'ils renvoient à la même intention, ne sont pas équivallents et la réalité qui les soustend apparait sous deux faces qui ne peuvent être appréhendées simultanément.
         Avec l'ordinateur le langage devient fonctionnel, opérationnel, il est directement et automatiquement associé à la double action physique, celle d'abord d'écriture d'un programme et celle ensuite de son exécution par une machine. L'image produite n'illustre plus un texte mais en est le résultat direct. Comment alors écrire un tel texte ? S'il s'agit d'une image précise, comme dans le cas de la C.A.O., le problème est simple puisqu'une telle image admet une description univoque qu'il suffit de programmer. Mais s'il s'agit d'une image mentale, imprécise, vague, sa description verbale, si elle existe bien, n'est plus formalisable. Ce n'est pas l'image en tant que telle qu'il faut alors programmer mais plutôt l'imaginaire qui la supporte. Et c'est l'erreur commise par laplupart des logiciels de synthèse que de modéliser les objets au lieu de construire des espaces ou pourraient se développer les images: En modélisant la représentation elle-même ils se condamnent à ne rien représenter d'autre ...
         Ce rapport complexe de l'image au langage est au coeur de la problématique des logiciels graphiques: Un processus automatique, écrit, peut-il engendrer de l'image autre que triviale, peut-il produire de la sensibilité, de l'art ? Pour répondre à cette question il faut d'abord s'entendre sur le mot automatique. Si on le prend dans son acceptation mécaniste, c'est à dire dans son sens le plus pauvre, il est certain qu'il ne peut montrer plus que ce que l'on y aura mis. Mais si on se référe à des processus émergents, comme l'est le vivant et comme commencent à le devenir les machines, on ne peut plus être aussi affirmatif. D'autre part il faut aussi s'entendre sur le mot sensibilité. Si, avec les romatiques, on en fait une sorte de naturalité de l'humain, il est certain qu'on ne peut rien en dire. Mais si l'on veut bien reconsidérer la notion du vivant à la lumière des neurosciences, alors le psychique, la pensée, la sensibilité ont leur siège dans un organe, certes hautement complexe, le cerveau, mais dont le fonctionnement n'est pas sans rappeler celui des machines numériques. Et c'est à une redéfinition aussi bien du vivant que de la machine auquel nous assistons aujourd'hui, ni l'un ni l'autre n'étant ce que l'on avait pensé jusqu'à présent. La question n'est donc plus: "Un processus automatique peut-il faire de l'art ?", mais plutôt: "En quoi les nouveaux processus automatiques ressemblent-ils à nos propres processus de pensée, et dans quelle mesure peuvent-ils avoir une conscience de soi ? ". La conscience serait un phénomène émergent qu'une étude analytique ne saurait expliquer. Par contre si on arrive à synthétiser des modèles montrant une certaine aptitude à penser, certes on n'aura pas explique pour autant la pensée, du moins en aura-t-on construit des conditions expérimentales nous permettant peut-être de mieux la comprendre. Le vieux dualisme corps-esprit est depassé et de nouveaux concepts sont nécessaires pour expliquer l'étrange ressemblance que montrent aujourd'hui le vivant et la machine.
         Si l'artiste se réclame volontiers de l'intuition et si l'informaticien utilise plutôt les catégories du rationnel, comment les faire cohabiter ? La philosophie, comme la science, classiques nous ont habitués à penser le rationnel comme fondement de la pensée, la logique comme fondement des mathématiques. Audelà du fait que l'art pense nécéssairement et que la science peut aussi avoir des états d'âme, c'est de la distinction même entre théorie et pratique dont je voudrais maintenant parler.

3 Faire et penser

         Pour Hilbert les fondements de la géométrie sont à rechercher dans la seule logique: En 1900 il posa pour la 1ère fois le problème de la non contradiction des mathématiques, problème qui reçut en 1931 une réponse inattendue sous la forme du théorème de Gödel (1): Contrairement a ce que pensait Hilbert, la notion de vérité arithmétique, ou d'évidence n'est pas réductible à un algorithme fini. En un mot la notion de vérite n'est pas formalisable.
         Pour Poincaré au contraire les concepts de la géométrie seraient construits lors de la perception de mouvements qui se traduit par des modifications de formes. Piaget avait montré ensuite comment les concepts se construisent au cours d'expériences qu'a le jeune enfant avec son environnement. Les neurosciences nous apprennent aujourd'hui que la nécessité de coordonner des actions est à l'origine des fonctions cognitives les plus évoluées [BERTHOZ 98]. La logique que nous utilisons lorsque nous faisons des mathématiques est le résultat d'apprentissages physiques avec le monde réel. Et cette logique nous devient un outil pour agir sur ce monde par l'intermédiaire de théories d'ou sont issues les technologies. Ainsi la capacité d'abstraire est un élément de notre survie et c'est la raison pour laquelle la sélection naturelle l'a retenue, et non l'inverse, qui serait l'existence d'une logique antérieure a toute apparition de la pensée.
         Il semble que 2 zones cérébrales soient responsables des aptitudes mathématiques chez l'humain: L'une, associée au langage, se situe dans le lobe frontal inférieur gauche et l'autre, associée à la vision est localisée dans les 2 lobes pariétaux inférieurs. L'activité de calculer met en jeu 2 systèmes cognitifs: L'un, lié au langage exécute les calculs exacts et l'autre, lié à la vision, fonctionne sur le mode analogique par évaluations de quantités globales. Dans le 1er cas, le cerveau traite des symboles abstraits (le chiffre 7 est une représentation arbitraire d'une collection de 7 objets et n'a aucun rapport de ressemblance avec une telle collection), dans le 2em cas le cerveau traite plutôt des images (comparaison visuelle de 2 échelles représentant les nombres 3 et 8). Par exemple Einstein (dont on a récemment étudié le cerveau) déclarait que sa pensée scientifique relevait plus de la vision et des sensations musculaires que du langage [LA RECHERCHE 1999].
         Est-ce à dire qu'il existerait 2 modes de pensée, l'un abstrait, lié au langage et l'autre, plus intuitif, lié à la vision ? Ou ne faudrait-il pas mieux voir dans ces 2 approches une complémentarité ? D'ailleurs le fait qu'Einstein parle de sensation musculaire aussi bien que visuelle invite à généraliser la notion d'image comme résultat d'une perception multisensorielle.
         Certes les mathématiques n'ont jamais été le garant d'une certitude absolue, et l'axiomatique a montré qu'un système cohérent ne représente pas nécessairement des vérités naturelles, bien qu'un tel système puisse aider à se représenter le monde (ainsi les géométries non euclidiennes et la Relativité générale (2)). Mais jamais on n'avait mis en doute la certitude hypothetico-déductive. L'existence même d'une logique immanente à la pensée n'est plus une évidence.

4 La notion d'émergence

         La méthode analytique suppose l'existence d'une réalité à priori qu'elle décompose en éléments plus simples à partir desquels elle fournit une explication globale. L'hypothèse d'une vérité independante de son observation est contredite par la physique moderne qui a montré quelle impact peut avoir l'expérience sur la connaissance. L'hypothèse de la réversibilité de l'analyse, c'est à dire la croyance en la pertinence d'un modèle construit sur l'assemblage des seules propriétés des éléments est contredite par le Holisme et par le Structuralisme qui ont montrés que le tout est plus que la somme de ses parties. La Méthode Analytique, qui a donné les preuves de son efficacité, est couramment utilisée encore aujourd'hui, elle est cependant inadaptée pour l'étude des phénomènes émergents car, lorsque l'on dissocie les structures d'un système, ces phénomènes disparaissent. Une méthode synthétique, qui construit au lieu de disséquer, est alors préférable.
         Le connexionnisme repose sur la notion d'émergence de propriétés globales que chaque élément ne possède pas et qui ne résulte pas d'une simple combinaison de leurs propriétés. Un réseau interconnécté de neuronnes (naturels ou artificiels) a la propriété de s'autoconfigurer lors de phases d'apprentissage [ABDI 94]. Les problèmes très difficiles dont on ne connaît aucune solution, les problèmes qui n'ont pas de solution, ou même les problèmes mal posés résistent à la méthode algorithmique. Au lieu de cela, on construit un réseau neuronal, machine (réelle ou virtuelle), que l'on met en présence du problème en action, sous la forme d'exemples que le réseau apprend par essais/erreur en s'autoconfigurant de façon à répondre de mieux en mieux. Un tel réseau a la propriété très étonnante de pouvoir généraliser son apprentissage à des exemples non appris (tout comme un enfant apprend la syntaxe de sa langue maternelle en écoutant puis en produisant des exemples de phrases, et ce qui est très remarquable, c'est que cet enfant se forge ainsi des concepts abstraits, il en va de même pour un réseau neuronal artificiel).
         Les réseaux Neuronaux simulent le système nerveux d'individus artificiels. Et la question s'est posée de leur construction, c'est à dire de leur naissance, donc de l'évolution d'une population de tels individus. S'inspirant de la théorie Darwinienne de l'Évolution par la Sélection Naturelle [DARWIN 1859], John Holland [HOLLAND 75] développa en 1962 les Algorithmes Génétiques à l'Universite du Michigan. Son but était de mettre en évidence et d'expliquer rigoureusement les processus d'adaptation des systèmes naturels et de concevoir des systèmes artificiels possédant certaines propriétés des systèmes naturels [GOLDBERG 94]. Il s'agit de faire évoluer des populations d'êtres artificiels par croisement et mutation en optimisant une certaine fonction d'évaluation. Par exemple pour résoudre un problème dont on a pas la moindre idée de la solution, on construit toute une population de petites solutions approchées, toutes fausses, mais on leur permet de se multiplier en favorisant la survie de celles qui répondent le moins mal au problème, au bout de quelques générations la sélection travaille sur des solutions qui répondent un peu mieux au problème et après de nombreuses régénérations on peut trouver des solutions qui résolvent le mieux possible le problème. Et ce resultat a été obtenu sans connaître ni la solution ni l'alogorithme de résolution.
         Une autre approche, proposée par KOZA [KOZA 92], consiste à travailler, non plus sur des populations d'individus décrits par des génotypes de longueurs fixes, mais à considerer des populations de programmes que l'on fait évoluer par croisements et mutations selon les lois de la sélection naturelle: C'est une nouvelle façon de résoudre le problème de la programmation automatique, et, par là même, de venir à bout de quantité de problèmes très difficiles, impossibles ou mal posés, que l'on rencontre fréquemment dans le processus, la plupart du temps non formalisé, de la création artistique.
         L'oeuvre artistique, d'abord objet de contemplation, s'est, à la suite du Cinétisme, ouverte à l'action avec l'art de la participation [POPPER 90], avant de devenir interactive avec le numérique. Mais, jusqu'à une époque récente, la relation du spectateur avec l'installation artistique se faisait sur le mode du feedback automatique, c'est à dire, finalement, de façon très mécanique. C'est d'aileurs une constante, aussi bien dans les films de Science Fiction (sauf peut-etre 2001 Odysee de l'Espace), que dans les jeux vidéo, de concevoir la machine sur un mode archaique (puissance, robotisation, transfert de comportements violents et machistes) et de vivre la relation homme-machine comme un asservissement. La production artistique numérique est très en retard sur son époque (voir le succès du style gothique, l'engouement pour les histoires moyennageuses avec combats d'épées, visite de cryptes et de cimetières, bref toute les panoplies d'un archaisme et d'une regresseion infantile désolantes). C'est tout le contraire qui va arriver et, une fois de plus, les artistes contemporains auront ratés le rendez-vous de leur époque en laissant à d'autres l'oportunité de découvrir l'art de leur siècle. Ce sont les nouveaux créateurs, hybrides de techniciens, d'artistes et de poètes, qui ont compris quelle révolution de la pensée apportaient des mouvements comme celui de la Vie Artificielle [HEUDIN 94]. L'oeuvre interactive prend une nouvelle dimension en intégrant des propriétés du vivant, comme la perception ou la réflexion: Le spectateur n'est plus en face d'un robot répétant ses gestes, mais est mis en présence d'un être autonome avec lequel un dialogue peut s'instaurer: L'oeuvre est devenue vivante, réalisant ainsi le rêve de Pygmalion.
         Comme exemple je donnerai celui d'un funambule virtuel que je développe actuellement avec Marie Helene TRAMUS et qui réagit aux sollicitations d'un funambule réel (le spectateur), non pas sur le mode clonique, mais sur celui d'une autonomie dont les stratégies sont issues d' apprentissages intelligents. Pratiquement il s'agit d'un acteur de synthèse en interaction dynamique avec son environnement et muni de réseaux neuronaux. L'expérimentation a fait apparaître une relation de l'artiste avec ce programme très différente de ce qu'elle est avec un programme traditionnel: Le but n'est pas de commander un robot mais de dialoguer et de composer avec un acteur sensible, bien que de synthèse. Il ne s'agit plus de raconter une histoire, mais de vivre une avanture, à la différence du scénario classique, ce rapport à la machine n'est pas écrit d'avance, ni même programmmé.

5 Le logiciel comme outil artistique

         Pour moi un logiciel n'est pas un exécutable mais c'est d'abord et avant tout un ensemble de sources, c'est à dire quelque chose en devenir, qui a une histoire et qui est susceptible d'évoluer de façon imprévisible. C'est une oeuvre qui se confond avec les films ou les installations qu'elle me permet de réaliser, mais ce n'est pas une oeuvre encadrée ni même seulement interactive, c'est une système évolutif qui me transforme autant que je le transforme.
         C'est dire que, pour moi, les logiciels de synthèse du commerce ne sont pas véritablement des logiciels. Quelque soit leur degré de sophistication ils ne représentent que l'état des fantasmes, des limitations et des préjugés de ses concepteurs à un instant donné. Et quand on connait la pauvreté de l'imaginaire du programmeur moyen (cartoon3D, réalisme naif, etc...) on est tout à la fois étonné et affligé de voir des artistes se soumettre à leurs contraintes arbitraires.
         À la limite le seul logiciel digne de ce nom serait un compilateur, et d'ailleurs, dans anyflo, est intégré un interpreteur-compilateur qui est en fait le coeur du système. Dans les logiciels traditionnels les objets sont déjà des modèles de ce que le programmeur se figure être un objet réel. Alors que le réalisme postule l'existence d'un réel indépendamment de sa représentation, de tels logiciels postulent en outre l'existence d'une représentation indépendante des objets auxquels elle s'applique. Dans anyflo par contre un objet est une abstraction sans aucune structure prédéfinie, il est donc possible de lui affecter n'importe quelle propriété, par exemple du code et en faire ainsi un acteur de synthèse, c'est à dire une entité capable de s'exécuter et, donc, de réfléchir: C'est la voie ouverte vers le comportemental. Par ailleurs l'écriture modulaire et très générale du code me permet de greffer n'importe quel méta propriété, c'est à dire de redéfinir une algorithmie et, pourquoi pas, de s'affranchir de l'algorithmie: C'est ce que j'ai fait en implémentant les réseaux neuronaux et les algorithmes génétiques qui constituent une nouvelle façon d'aborder un problème non pas en recherchant analytiquement une solution mais en procédant plutôt comme un organisme vivant qui, confronté à un environnement qu'il ignore, se construit des stratégies et des cartes de représentation par essais et erreurs. Bien entendu, au final, il y a toujours un algorithme, et il peut paraître paradoxal d'écrire des algorithmes permettant de se libérer de l'algorithmie. Mais, après tout, quel que soit la sophistication d'un langage évolué, après compilation, il ne reste plus que du binaire, et pourtant le but des langages évolués est précisément de permettre de se passer du langages binaire. Il n'y a pas contradiction à construire un système qui dépasse ses propres bases (3).
         À quels critères devrait répondre un logiciel à finalité artistique ? Il faut poser cette question dans le contexte sociologique actuel qui veut, qu'on le regrette ou non, qu'une certaine séparation entre art et technique est entretenue par les uns et les autres. Dans ces conditions aucun logiciel ne convient: S'il est programmable, l'immense majorité des artistes, techniquement incultes, n'y auront pas accès, s'il est cablé (à la souris) il ne répondra pas aux exigences de la création. Actuellement, un compromis a été trouvé: Les logiciels du commerce, immédiatement utilisables par tout un chacun, proposent cependant des interfaces programmables. Mais le problème reste entier: Seuls des utilisateurs ayant une certaine habitude de la programmation auront accès à ces extensions.
         Comme le souligne Edmond COUCHOT [COUCHOT 98], la question du numérique est devenue centrale dans les débats artistiques. On ne peut l'éluder en séparant arbitrairement les tenants d'un savoir technique et les dépositaires supposés d'une culture qu'il resterait à définir. Il faudrait que les artistes possèdent les concepts scientifiques et les outils techniques de base leur permettant de contrôler, de modifier et de construire leur technologie. Or nous assistons aujourd'hui à un tout autre scénario: La plupart des jeunes, aussi bien artistes que techniciens, qui utilisent l'ordinateur, le font sur un mode totalement nouveau, qui n'est pas analytique et rationnel, mais plutôt heuristique: On peut regretter un gachis de compétences, une perte de temps et d'efficacité, dus a un manque de connaissance techniques, mais, en même temps, ces comportements font preuve d'une grande adaptabilité et, une fois de plus, l'évolution choisit des stratégies étonnantes mais qui réussissent.

6 Conclusion

         Il serait vain de donner les grandes lignes de ce que devrait être un logiciel de création artistique, car, outre le fait de supposer une mentalité qui n'est pas celle actuellement en vogue chez les plasticiens, ce serait ignorer les bouleversements comportementaux, pas seulement négatifs mais aussi porteurs de renouvellement, que l'on peut observer chez les utilisateurs de ces logiciels. Les solutions que nous préconisons aujourd'hui seront probablement rapidement dépassées par une évolution qui nous surprendra toujours ... Du moins en aura-t-on prédi les effets.

Notes

         (1) Hilbert montra qu'il existe une formalisation complète de la logique des prédicats mais que l'arithmétique formelle, si elle est non contradictoire, n'est pas complète, c'est à dire qu'il existe une formule non démontrable (dont on ne peut affirmer ni qu'elle soit vraie ni qu'elle soit fausse). Il s'en suit que la non contradiction de l'arithmétique formelle n'est pas démontrable par ses propres méthodes.
         (2) L'espace à 4 dimensions de la Relativité Générale est courbé en fonction de la distribution des masses.
         (3) C'est, en mathématique, le concept bien connu d'extension (par exemple l'ensemble des fractions est défini comme une extension de l'ensemble des entiers, celui des complexes est défini à partir des réels).

BIBLIOGRAPHIE

Herve ABDI Les réseaux neuronaux Presses Universitaires de Grenoble, 1994

Alain Berthoz, Le sens du mouvement, Ed Odile Jacob Sciences, 1997
Alain Berthoz, Le cerveau et le mouvement, in Science & Vie, numéro 204, septembre 1998

Edmond COUCHOT, La technologie dans l'art, Ed Jacqueline Chambon, 1998

Charles DARWIN De l'origine des espèces au moyen de la séllection naturelle, 1859

David E. GOLDBERG Algorithmes génétiques, Ed. Addison-Wesley, 1994

Jean Claude HEUDIN: La Vie Artificielle, Hermès, 1994

John HOLLAND Adaptation in Natural and Artificial Systems, Ann Arbor: The University of Michigan, 1975

J.R. KOZA, Genetic Programming: On the Programming of Computers by the Means of Natural Selection, Cambridge, MA, MIT Press, 1992

LA RECHERCHE, dossier: Le cerveau d'Einstein, numéro 326, décembre 1999

Frank POPPER: Art, Action et Participation, Ed Klincksieck, 1980

Norbert WIENER Cybernetics or Control and Communication in the animal and the Machine Cambridge (Mass), 1947