Nous avons vu plusieurs méthodes d’animation en intelligence collective pour les rencontres en présentiel et à distance. Aujourd’hui nous allons voir comment aider un membre à développer son projet
Catégorie : Complexité
Sciences de la complexité
-
La complexité c’est pas compliqué : le niveau méso (intermédiaire)
Dans un collectif il y a deux niveaux : celui du groupe et celui des membres. Mais nous allons nous intéresser aujourd’hui au niveau intermédiaire, celui des groupes de travail ou des ateliers
-
La complexité c’est pas compliqué #3 – Comment gérer sans prévoir
Nous avons vu dans les précédents épisodes qu’un groupe à partir de trois personne était complexe et que dans ce cas là cela devenait imprévisible au niveau local, même si certains aspects globaux étaient tout de même prévisibles.
-
Des cartes pour décrire des contes
Vivian Labrie est chercheuse au Quebec, spécialiste des contes. Elle travaille à la représentation des contes sous la forme de cartes. Elle prépare un « >Prospectic, nouvelles technologies, nouvelles pensées » sur les différentes façons de penser. Nous avons eu un premier échange le mardi 16 septembre 2008 qui sera suivi je l’espère par de nombreux autres, tant les points de croisement semblent nombreux entre nos approches.
Un petit résumé d’où j’en suis sur la mise à jour d’une nouvelle façon de penser
Les sciences cognitives montrent que nous disposons de deux modes de pensée :
- Le premier est basé sur la parole et est linéaire. Il est utile pour construire un discours rationnel partant d’une cause pour aboutir à UNE conclusion. Mais il ne permet pas d’envisager deux cheminements de pensée en même temps (un peu comme lorsqu’on se déplace dans un labyrinthe et que l’on doit choisir une seule voie à chaque embranchement)
- Le deuxième (appelé pensée-2 par certains auteurs) donne une vision cartographiée des choses et est très utile pour créer de la pensée (c’est à dire relier des idées entre elles). L’image que l’on pourrait donner est alors la carte qui permet de se déplacer dans le même labyrinthe (que l’on dessine sur un papier ou bien mentalement) qui nous permet de tester de nouveaux cheminements.
Nous avons appris le premier mode de pensée en même temps que le langage lorsque nous étions enfant. Ainsi, grâce au langage, nous pouvons dépasser la limite physiologique de notre mémoire à court terme (appelée « boucle phonologique » dans ce cas) qui est limitée à l’enchaînement de trois concepts. Les hommes comme les animaux ont les mêmes limites. Mais l’utilisation d’un ensemble de mots symboliques stockés dans notre mémoire à long terme nous permet d’aller plus loin et d’enchaîner les uns aux autres autant de concepts que nous le désirons pour construire un discours bien plus important. Mais se limiter à cette seule forme de pensée conduit à ne pas pouvoir sortir d’un conflit d’intérêt (deux personnes suivent une direction opposée) autrement que par le rapport de force : chacun tire de son coté un peu comme dans le jeu du tir à la corde. La pensée-2 apporte une vision cartographiée à deux dimensions. Elle permet alors d’avoir une « vue d’ensemble » des discours et ainsi de chercher comment faire converger les intérêts. C’est la difficulté de certaines personnes, pourtant très intelligentes, à envisager la convergence d’intérêt proposée dans mon livre « la coopération, nouvelles approches« , qui m’a poussé à chercher quelle était la limite cognitive qui empêchait de sortir de son seul point de vue de l’observateur – appelée vision « egocentrée » – (alors qu’il est plus profitable, même d’un point de vue personnel, de réconcilier les intérêts pour que chacun pousse dans un sens commun… ). Dans le cas de la pensée-2, cartographiée, nous avons également une mémoire à court terme (appelée « calepin visuo-spatial« ) qui est limitée cette fois à un ensemble compris entre 5 et 9 concepts que nous pouvons « garder en tête » (on parle « d’empan mnésique« ). Cette limitation est également la même que celle des animaux, mais nous avons également trouvé une façon de la dépasser : mettre les différents concepts sur lesquels nous devons réfléchir (c’est à dire trouver des liens entre eux) dans différents lieux sur le plan d’un endroit que nous connaissons bien. Les moines du moyen âge utilisaient une cathédrale qu’ils connaissaient parfaitement pour y construire souvent plus de cent lieux de mémoire (des loci)[1]. Cicéron a appelé cela l’art de la mémoire (mais on pourrait également parler « d’art de penser ») et a daté son origine du poète grec Simonide de Céos. Cependant, il semble que cet « art » soit tombé en désuétude après la Renaissance, où les progrès des sciences ont assuré le triomphe de l’approche hypothéticodéductive basée sur le premier mode de pensée.Devrons nous réapprendre les différents locis d’une carte commune, comme nous avons appris les mots de notre langage ? Cela nous permettrait d’utiliser pleinement non pas une mais nos deux méthodes de pensée afin de se compléter.
Comment se transmettent oralement les contes ?
Vivian Labrie s’est intéressée à la façon dont les contes sont mémorisés et transmis dans les cultures orales. Beaucoup d’études sur les contes partent d’une vision basée sur la culture écrite pour parler d’un phénomène de la culture orale (Les frères Grimm ou Charles Perrault ont avant tout recueilli les contes oraux et les ont transcrits par écrit sans se soucier de la verbalisation[2] c’est une des différences entre la culture savante et la culture populaire). Les travaux de Nicole Belmont montrent bien qu’il faut prendre en compte la tradition orale lorsque l’on parle de contes [3]. Le mémoire de maîtrise en psychologie de Vivian Labrie en 1975 portait sur » La transmission du conte de folklore comme fonction du niveau de développement intellectuel et du mode de présentation « . Sa thèse de doctorat à Paris V en 1978 portait ensuite sur » La tradition du conte populaire au Canada français: circonstances de la circulation et fonctionnement de la mémorisation « . C’est ainsi qu’elle en est venue à s’intéresser à l’art de la mémoire dans les traditions orales.
Plusieurs conteurs ont dit qu’ils suivaient le personnage « au dessus de son épaule » pour « voir » le conte se dérouler. Ils pouvaient vraisemblablement « changer de personnage » puisqu’il arrive dans un conte que le relais de l’histoire se passe d’un personnage à un autre. Il semble que l’on ait une vision egocentrée (un peu comme ce que l’on voit quand on se déplace dans un labyrinthe), mais pour mémoriser les contes, les conteurs semblent utiliser des « lieux de mémoire » (des « loci » selon la description de Cicéron de l’art de la mémoire) qui peuvent être situés les uns par rapport aux autres sur une carte (la vision cartographiée est allocentrée et fait appel comme nous l’avons vu à la pensée 2). Cette alliance egocentrée (impliquée dans l’histoire) et allocentrée (pour avoir une vue d’ensemble des loci) est un des aspects de l’art de la mémoire.
Certains racontaient également qu’ils « entendaient la voix du conteur de qui ils avaient appris le conte » et que l’image était ainsi associée au son lorsqu’ils se remémoraient le conte. On sait aujourd’hui que cette « intégration multisensorielle » permet d’accélérer le traitement visuel. Grâce à nos neurones miroirs, cela est vrai non seulement lorsque l’on aperçoit quelque chose mais également lorsqu’on se remémore un événement ou une histoire.
Ils semble donc que les conteurs de tradition orale utilisent (sans le savoir) à la fois l’art de la mémoire qui consiste à placer les éléments à se rappeler dans des lieux de mémoire sur une carte ; mais que certains utilisent également le son (en « entendant » dans leur tête la voix du conteur) associé à la vision.
le récit des contes merveilleux est-il basé sur une structure sous-jacente ?
Le même conte dispose de nombreuses versions et variantes, mais plusieurs points communs permettent de les regrouper. Une question est de savoir s’il s’agit alors d’une histoire unique qui s’est modifiée au cours du temps ou bien si des contes même de provenance différente peuvent avoir suffisamment de points communs pour être regroupés. Les contes pourraient-ils refléter, au-delà même des cultures, certains schémas mentaux propres à l’homme ou au moins des structures du langage ? C’est une hypothèse qu’étudient les structuralistes.
Vladimir Propp a énoncé trois principes dans la morphologie des contes écrits en 1928 [4] :
- Les éléments constants, permanents du conte sont les fonctions que remplissent des personnages (plutôt que les personnages eux-mêmes), quels que soient ces personnages et quelle que soit la manière dont ces fonctions sont remplies.
- Le nombre des fonctions que comprend le conte merveilleux est limité.
- La succession des fonctions est toujours identique. Il en a identifié 31, mais toutes n’apparaissent pas dans tous les contes.
Cette succession de fonctions[5] communes aux contes merveilleux (et uniquement à eux), identifiée au départ sur les contes russes s’est trouvé être la même sur bien d’autres contes merveilleux dans des cultures différentes. Elle semble donc indépendante de la culture. Pourrait-elle refléter un fonctionnement plus fondamental du psychisme de l’homme ? Propp, dans son ouvrage postérieur, « les racines historiques du conte merveilleux »[6], voit plutôt dans les contes merveilleux la survivance d’une littérature néolithique. « En effet, Propp ne peut prendre les contes pour argent comptant ; il ne croit pas au diffusionnisme (à la thèse en vogue au début du 20e siècle de l’origine indienne des contes), ni aux universaux symboliques de l’école du mythe naturel (le dragon serait, dans toutes les cultures, un symbole solaire), ni à la psychanalyse. Par contre, il croit tout à fait au comparatisme et admet que les contes de cultures différentes contiennent les mêmes façons de voir.« [7].
Qui y a-t-il de commun entre les différents contes ?
Vivian Labrie considère que les fonctions ne sont pas les seuls points communs entre les contes. Elle s’est tout particulièrement intéressée à ce qui peut permettre de regrouper plusieurs versions d’un même conte, voire même d’apercevoir des correspondances avec d’autres contenus narratifs, comme des films. Ainsi, dans des versions parfois très différentes de « la belle jarretière verte », on retrouve des fragments d’objets jetés en arrière qui grandissent, une alliance indisciplinée, une traversée sur l’eau avec retour à la terre. Ces éléments communs ne sont pas des fonctions comme celles sur lesquelles Propp a travaillé mais des éléments du conte à des niveaux très divers. Nous parlerons donc plutôt de « motifs » d’un conte (au sens d’éléments ayant une structure bien définie et ayant une valeur signifiante). Il existe déjà une classification des contes (principalement les contes indo européens) : la classification de Antti Aarne (qui a commencé à définir des contes types et à les classer de façon empirique en 1910), Stith Thompson (qui a complété le travail pour produire « The Types of the Folktale ». La seconde révision en 1964 commence à faire référence au niveau international : la classification AT) et Hans-Jörg Üther qui s’est basé sur le travail d’Aarne et Thomson pour publier une version réorganisée et augmentée[8] en 2004 (classification ATU). Cette classification qui avait été critiquée à l’époque par Propp pour ne pas inclure les « fonctions » des contes regroupe les contes par grand types :
- Contes d’animaux
- Contes merveilleux
- Contes religieux
- Nouvelles (contes réalistes)
- Contes de l’ogre stupide
- Anecdotes et plaisanteries
- Formules et devinettes
Vivian Labrie définie avec humour son domaine d’action comme le « 300-749 » (les numéros utilisés pour les types de contes merveilleux dans le classement ATU). En tout environ 3000 types de contes sont ainsi répertoriés. Certains contes peuvent cependant ressembler à une hybridation entre deux contes types. C’est le cas des versions du conte de l’Homme sauvage, lequel au Québec et en Acadie prend souvent le nom de Merlin, qui semblent attachées à la fois au type 502 et au type 314.
les contes transmis oralement conservent des éléments importants
Une des observations étonnantes est que les bons conteurs transmettent bien certains éléments constants des contes (contrairement au jeu du téléphone où le même récit se déforme très vite). Ainsi, un conte de type 313 restera la plupart du temps de type 313 même avec des variantes. Une hypothèse serait que l’auditoire d’un conteur comprendra entre autres des auditeurs attentifs et intéressés à transmettre qui conserveront un bon niveau de rétention. Ce qui fait que le conte est mieux mémorisé et donc mieux retransmis. On observe également qu’un conte peut retrouver des éléments de base qu’il a perdu au passage. Le fait de connaître de nombreux contes, voire plusieurs versions d’un même conte, laisse probablement un ensemble de motifs en tête qui permet de rétablir des points importants d’un conte. Ainsi, dans plusieurs versions du type 313, le héros doit trouver à manger pour nourrir un aigle. Il offre d’abord des quartiers de moutons et quand ils viennent à manquer, il offre parfois un morceau de sa propre fesse. Vivian Labrie mentionne qu’elle a souvent conté « Bonnet Vert, Bonnet Rouge », une version de ce type, en incluant l’épisode du bout de fesse… pour réaliser un jour qu’il n’était pas présent dans cette version qu’elle a pourtant beaucoup fréquentée.
Il est donc intéressant de savoir si les conteurs utilisent des locis (lieux de mémoire) similaires qui permettraient de retrouver certains motifs, même manquants, d’un conte.
Vers une cartographie des contes
Par ailleurs le côté linéaire (la succession toujours identique des fonctions de Propp) ne se retrouve pas dans les autres motifs communs au conte. Il semble intéressant d’avoir une approche topologique (spatiale) plutôt que simplement linéaire si nous voulons explorer la mémorisation utilisant la cartographie (la pensée-2 utilisant comme mémoire à court terme le « calepin visuo-spatial »). Pour Vivian Labrie, « typologie et topologie peuvent aller ensemble« . Vivian Labrie a ainsi utilisé 30 contes typiques des contes du Québec, chacun dans deux ou trois versions différentes ; ainsi que le recueil d’une centaine de témoignages de personnes racontant un cas où ils se sont fait aidé ou bien où ils avaient aidé quelqu’un. Elle a ainsi pu retrouver les motifs communs aussi bien dans les contes que dans les témoignages d’aide. Elle a également observé que dans ce corpus de contes les assemblages de territoires et de déplacements variaient d’un conte type à l’autre tout en restant assez similaires dans les versions d’un même type (par exemple aller et revenir entre deux mondes ou encore quitter un territoire pour ne plus jamais y revenir). La chercheuse a ainsi cherché à représenter les types de contes sous la forme d’un territoire où se situent les différents motifs et où l’intrigue se déplace. Parfois certains lieux dans un conte semblent se retrouver aussi sur une autre trajectoire dans un autre conte. Un petit groupe avec qui elle a partagé ses réflexion a suggéré l’image des stations de correspondance entre deux lignes de métro. Si chaque conte type raconte un parcours sur un territoire imaginaire, et qu’il y a des points de correspondance, y a-t-il aussi un plan du métro ? La question est posée. Nous étions arrivé à la même métaphore dans Prospectic en partant des trois types de perspective et donc de cartographie décrits par Olivier Auber[9].
Pourrons nous croiser ces différentes cartes pour divers types de contes et ainsi construire un ou plusieurs territoires de nos histoires ? Pourrions nous utiliser ces territoires et leurs locis pour constituer une carte commune nous permettant non seulement de penser en dépassant les limites de notre cerveau mais également d’échanger au-delà du langage linéaire qui nous est commun ? La recherche continue…
Notes
[1] Il peut s’agir aussi d’un lieu abstrait, d’un « territoire sémantique ». Ainsi les moines utilisent également les 150 psaumes qui représentent autant de sentiments ( joie et peine, action de grâce et révolte, piété et infidélité…). Il devient ainsi possible, après avoir mémorisé les psaumes, de « penser » en naviguant entre les différents sentiments alors que notre cerveau nous limite à quelques possibilités. Voir : Mary Carruthers, The Craft of Thought, Meditation, Rethoric and the making of Images, Cambridge University Press, 1998 ; traduction française, Machina Memorialis, méditation, réthorique et fabrication des images au Moyen Âge, Gallimard NRF, 2002 [2] On peut considérer cependant que Jacob et Wilhelm Grimm ont fait un vrai travail de retranscription alors que Charles Perrault a adapté les contes en fonction des messages qu’il souhaitait faire passer à la cour du roi. [3] Voir le travail de Nicole Belmont de l’EHESS et du Collège de France, sur les différences fondamentales entre transmission orale et transmission écrite. [4] Vladimir Propp, Morphologie des contes, Seuil 1970 (première édition en russe en 1928) [5] D’autres auteurs préfèrent parler de narratèmes plutôt que de fonctions. [6] Vladimir Propp, Les racines historiques du conte merveilleux, Gallimard, 1983 (première édition en russe en 1946) [7] Harry Morgan, Pour en finir avec le 20ème siècle, (article plus hébergé depuis septembre 2008 mais disponible en cache sur Google) [8] A. Aarne, S. Thompson, H.-J. Üther, The Types of International Folktales, a classification and bibliography, 3 volumes, Academia Scientiarum Fennica, Helsinky, 2004 [9] Guy Jarnac (dir), ITEMS international, laboratoire A+H, cartographie numérique et développement du territoire, OTEN, dans le cadre du programme Iris 2007, mars 2008
Quelques références
- Labrie, Vivian. « Les expériences sur la transmission orale: d’un modèle individuel à un modèle collectif ». Fabula, 18, 1-2, 1977, p. 1-17.
- Labrie, Vivian. La tradition du conte populaire au Canada français: circonstances de la circulation et fonctionnement de la mémorisation. Paris, Université René Descartes (Paris V), 1978, xxi-623 p.
- Labrie, Vivian. »Le sabre de lumière et de vertu de sagesse : anatomie d’une remémoration, Canadian Folklore canadien,vol. 1, nos 1-2 (1979), p. 37-70.
- Labrie, Vivian. « Cartographie et analyse graphique de l’univers physique du conte à odyssée ». Dans Le conte, pourquoi? Comment?, Paris, Éditions du CNRS, Geneviève Calame-Griaule, Veronika Görög-Karady et Michèle Chiche, édit., Paris, CNRS, 1984, p. 545-579.
- Labrie, Vivian. ABC. Trois constats d’alphabétisation de la culture. Québec, IQRC, 1986, 241 p.
- Labrie, Vivian. Alphabétisé-e-s! Quatre essais sur le savoir-lire. Québec, IQRC, 1987, 273 p.
- Labrie, Vivian, » D’une histoire de galère à une rêverie mathématique : réflexion sur le lien entre la vie et les contes », dans D’un conte… à l’autre – la variabilité dans la littérature orale, Paris, Éditions du CNRS (1990), p. 439-460.
- Labrie, Vivian, » Quand Ti-Jean rencontre Dieu : les sept étages de la vérité », Revue d’études canadiennes, vol. 27, no 3 (1992), p. 75-99.
- Labrie, Vivian. » Topologie, contes et écologie humaine et sociale : des convergences épistémologiques « , Canadian Folklore Canadien, vol. 16, no 2 (1994), p. 59-87.
- Labrie, Vivian. » Lettre d’amour à Hilaire Benoît/A Love Letter to Hilaire Benoît « , Canadian Folklore canadien, vol. 19, no 2 (1997), p. 13-27.
- Labrie, Vivian. » Les aventures immémoriales d’une version de l’âne qui crotte de l’argent « , Cahiers de littérature orale, no 43 (1998), p. 163-185.
- Labrie, Vivian. « Going Through Hard Times : A Topological Exploration of a Folktale Corpus from Québec and Acadie », Fabula, 1999, 40, p. 50-73
- Labrie, Vivian. « Traverses et misères dans les contes et dans la vie : Essai de systématisation d’un réflexe de chercheure », Ethnologies, 2004, vol. 26, 1, p. 61-93.
- Labrie, Vivian. « Aux frontières de la notion de conte-type. Note de recherche sur une collision entre Solaris et « Chien Canard », une version du type 652″. Cahiers de littérature orale, 57-58, 2005, p. 1 95-205.
Annexe : les 31 fonctions de Vladimir Propp
Séquence préparatoire
1. Absence 2. Interdiction 3. Transgression 4. Interrogation 5. Demande de renseignement 6. Duperie 7. Complicité
Première séquence
8. Manque ou méfait 9. Médiation 10. Commencement de l’action contraire 11. Départ du héros 12. Première fonction du donateur 13. Réaction du héros 14. Transmission 15. Déplacement, transfert du héros 16. Combat du héros contre l’antagoniste 17. Marque 18. Victoire sur l’antagoniste
Deuxième séquence
19. Réparation du méfait 20. Retour du héros 21. Poursuite 22. Secours 23. Arrivée incognito du héros 24. Imposture 25. Tâche difficile 26. Accomplissement de la tâche 27. Reconnaissance du héros 28. Découverte du faux héros 29. Transfiguration 30. Châtiment 31. Mariage ou accession au trône
-
A la recherche de l’indéterminisme
Un texte de René Thom, » halte au hasard, silence au bruit « , a relancé le débat sur le déterminisme (Le Débat n°3 juillet-août 1980 éditions Gallimard, Paris, 192p.). Les arguments pour et contre sont repris dans l’ouvrage » la Querelle du déterminisme » (éditions Gallimard, Paris, 1990). Au début, la question était de savoir si le hasard dans les systèmes sensibles aux conditions initiales n’est pas autre chose que » notre ignorance d’un ordre déterministe microscopique « . Rapidement, le débat a évolué vers le fait de savoir si le monde est entièrement déterminé ou bien s’il laisse une place pour autre chose qui pourrait être au choix : la liberté, le hasard ou la transcendance.
Les différents acteurs de cette querelle font référence aux chercheurs et aux penseurs qui les ont précédés et y ajoutent leurs propres réflexions. Le texte ci-dessous, tente de d’identifier les différents domaines où pourraient se cacher l’indéterminisme.
Le débat, a été posé de façon précise en 1814 par Pierre-Simon Laplace dans son » essai philosophique sur les probabilités » avec ce qui est devenu le » démon de Laplace » :
» Nous devons donc envisager l’état présent de l’Univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’Univers et ceux du plus léger atome. Rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux «
Le déterminisme global de Laplace a servi de base à la science. Il commence cependant a être remis en cause à partir du XIXème siècle.
La nécessité en philosophie ou le déterminisme en science ?
Le texte introductif de Krzysztof Pomian, » histoire d’une problématique « , permet de distinguer plusieurs approches :
- Le nécessitarisme en philosophie : rien n’arrive qui ne soit nécessaire à la vue des événements antérieurs (Hobbes, Spinoza ou encore Diderot dans » Jacques le fataliste). Baruch Spinoza indique : » une chose sera dite libre, qui existe sur la seule nécessité de sa nature et est déterminée par soi seule à agir ; une chose sera dite nécessaire, ou plutôt contrainte, qui est déterminée par autre chose à exister et à opérer suivant une loi certaine et déterminée « (Ethique I, déf. VII)
- Le fatalisme des stoïciens : la » nécessité fatale « , l’événement se produira nécessairement quel que soit ce qui se passe auparavant
- Le déterminisme en science : chaque événement est déterminé par le principe de causalité scientifique (il s’agit d’une nécessité non pas philosophique ou spéculative mais calculable)
Pour se poser la question du déterminisme, il est donc fondamental de bien comprendre le principe de causalité.
Le principe de causalité : une cause, un effet
Il s’énonce en deux points fondamentaux (Wikipédia) :
- tout phénomène a une cause
- dans les mêmes conditions, la même cause est suivie du même effet.
Le principe de causalité est un axiome de pensée, c’est un principe non démontré et non réfuté (au moins dans les sciences » dures » macroscopiques comme la chimie ou la physique classique).
Reste-t-il une place pour l’indéterminisme ?
Charles Renouvier, dans ses réflexions sur le libre arbitre et le déterminisme, considère que le libre arbitre est une condition de la conscience. Il précise : » le nombre de conceptions réellement différentes en philosophie, est beaucoup plus petit qu’on ne paraît généralement s’en apercevoir. Le nombre de questions contradictoirement débattues depuis vingt quatre siècles, j’entends de celles dont la solution est d’une importance capitale pour l’homme et autour desquelles toutes les autres gravitent, est lui-même très petit » (esquisse d’une classification des systèmes, au bureau de la critique philosophique, 1885, tome II, p241)
La vision d’une science physique microscopique non déterminée ne plaisait pas à Albert Einstein qui lança son célèbre : » Dieu ne joue pas aux dés « . Niels Bohr lui répondit par : « Einstein, cessez de dire à Dieu ce qu’il doit faire « .
René Thom pour sa part, conclue dans » halte au hasard silence au bruit « en disant : » le déterminisme en science n’est pas une donnée mais une conquête « . Dans sa réponse » au-delà du déterminisme : le dialogue de l’ordre et du désordre « , Edgar Morin explique que » le problème est non pas de diviniser ou d’exorciser le hasard, mais de ne plus chercher à l’éliminer idéalement du monde « .
Que vous soyez pour ou contre le déterminisme, vous trouverez toujours un contradicteur. Si le débat est aussi animé, c’est que l’idée même d’un monde déterminé semble exclure la possibilité de notre liberté. Pourtant nous devons d’abord chercher à découvrir le monde tel qu’il est plutôt que selon nos a priori.
Ilya Prigogine et Isabelle Stengers dans » la querelle du déterminisme, six ans après « résument les positions de chacun pour montrer que trois notions reposent la question du déterminisme :
- Les systèmes dynamiques étudiés entre autre par Leibniz (qui peuvent être instables)
- Plus particulièrement les systèmes sensibles aux conditions initiales sur lesquels Prigogine a travaillé
- La mécanique quantique (dont la mesure ne peut être prévue autrement que par les probabilités)
Il faudrait y ajouter
- Les premières recherches des philosophes sur la place de la liberté pour l’homme
- Et les systèmes qui rétroagissent sur eux-mêmes, ne permettant qu’une étude incomplète de leur fonctionnement
Nous allons regarder plus en détail chacune de ces possibilités.
Les premières pistes des philosophes
Krzysztof Pomian dresse une histoire de l’idée de déterminisme complété par Jean Largeault dans » causes, causalité, déterminisme «
L’indéterminisme cantonné à l’homme ou au monde terrestre
Pour Aristote, si le monde du ciel est régit par la nécessité et donc absolument prévisible, le monde sublunaire est radicalement indéterminé et voit se produire des accidents qui ne se laissent constater qu’à posteriori.
Mais cette conception nécessite une distinction nette entre le monde céleste et le monde terrestre. Celle-ci est remise en question par l’évolution de l’Astrologie. En passant de Mésopotamie en Grèce plus de 40 ans après la mort d’Aristote, l’astrologie change de nature : alors qu’elle était la description des avenirs possibles que les dieux envisagent de réaliser si rien n’est fait pour infléchir leur décision, elle devient en arrivant en Grèce un lien fort entre le ciel et le destin des hommes. Elle fut donc combattue par les continuateurs d’Aristote.
Saint Augustin propose un déterminisme très différent de l’Astrologie : c’est Dieu qui a tout déterminé (y compris le monde sublunaire contrairement à l’idée Aristotélicienne). L’homme est libre de transgresser (comme l’indiquait la distinction des stoïciens entre ce qui est entre notre pouvoir et ce qui ne l’est pas) mais son autonomie est négligeable. Dieu ne crée que le bien. Le mal lui, provient exclusivement du péché de l’homme. L’homme est incapable de rompre avec le pécher par ses propres forces, c’est Dieu qui choisit ses élus en leur offrant la grâce.
Saint Thomas d’Aquin considère que le monde est à la fois déterminé par une préconception de Dieu (finalisme) et indéterminé dans sa mise en œuvre par l’homme, intermédiaire de Dieu. Cela introduisit une controverse entre l’œuvre de salut de la grâce divine de Saint Augustin et le mérite humain réintroduit par Saint Thomas d’Aquin.
Mais l’indéterminisme du monde sublunaire d’Aristote ou bien celui de l’homme pour St Augustin (produisant le péché en transgressant l’œuvre de Dieu) et St Thomas d’Aquin (pour mettre en œuvre la préconception de Dieu) se voit remis en cause par les progrès de la Science. René Descartes et Isaac Newton, bien qu’en désaccord sur la causalité, ne laissent plus de place à l’indétermination.
René Descartes, introduit un nouveau monde au XVIIème siècle, un monde géométrique composé de matière qui s’identifie à l’étendue et au mouvement. Il faut cependant Dieu pour imprimer la quantité de mouvement à la matière. Descartes considère qu’il n’y a qu’un seul type de causalité – le changement d’état des parties ; et une seule cause – le choc des corps.
Isaac Newton au contraire, considèrent qu’il existe des forces qui ne se laissent pas voir. Pour Newton, le déterminisme des forces coexiste avec la liberté de Dieu.
Un monde déterministe et une connaissance indéterminée
Il faut distinguer le déterminisme du » problème pratique «
Gottfried Wilhelm von Leibniz se situe entre Descartes et Newton tout en laissant une petite place à la liberté. Il considère que le monde est entièrement déterministe mais que la liberté y est possible car il n’est qu’un des mondes possibles choisis par Dieu conformément au principe de la » raison suffisante » (dans ce cas, minimaliser le mal). Dieu fait le choix du monde pour expliciter la raison suffisante et en tenant compte du monde déjà créé (ou plutôt : actualisé).
Il est accusé par Samuel Clarke, ami et disciple de Newton, dans une célèbre controverse de » nier la spontanéité animale et la liberté humaine, qui ne peuvent être qu’apparences dans un monde régi par la raison suffisante, un monde ou Dieu n’intervient plus dès lors qu’il l’a créé le meilleurs des possibles » (cité dans Ilya Prigogine, Isabelle Stengers, la querelle du déterminisme, six ans après, à partir de Correspondance Leiniz-Clarke, édité par A. Robinet, Paris, P.U.F., 1957). Le Dieu augustinien, irrationnel, est combattu par le Dieu de Leibniz, rationnel et armé du principe de raison suffisante.
Cependant la question métaphysique du déterminisme est à distinguer du problème pratique de la liberté. Il reprend l’exemple de l’âne de Buridan qui dans la fable citée par Spinoza (Ethique, II, 49) meurt de faim et de soif devant un seau d’eau et une brassée de paille à égale distance, faute de pouvoir choisir entre commencer par l’un ou par l’autre. Mais pour Leibniz, l’âne peut choisir malgré la raison suffisante car les deux éléments et leur distance, mais aussi deux parties de l’âne sont toujours légèrement différents (Leibniz, théodicée, Nouveaux essais…, Paris Garnier-Flammarion, p39). Pourtant cette différence peut être infiniment petite, au-delà de notre connaissance à un moment donné.
Connaître n’est toujours qu’une approximation
De même, dans » au-delà du déterminisme : le dialogue de l’ordre et du désordre « , Edgar Morin explique que le champ de la connaissance parle » non d’un univers en soi, mais d’univers vu/perçu/conçu par un esprit humain hic et nunc « .
Pour Ilya Prigogine et Isabelle Stengers dans » la querelle du déterminisme, six ans après « , si le Dieu de Laplace est infini, le démon de Laplace ne fait que tendre vers l’infini. l’un parle de l’être, l’autre de la connaissance que l’on peut en avoir. Il y a une distance infranchissable entre l’être et le connaître. Le démon de Laplace, comme le physicien développe une connaissance qui ne fait que tendre vers ce qui est.
Voir aussi » l’univers irrésolu » publié par Karl Popper en 1982 qui est un plaidoyer pour l’indéterminisme. Il y distingue 3 mondes :
- Le monde physico-chimique (le monde observable)
- Le monde de la conscience (le monde subjectif qui peut être inclus dans le monde 1 qui devient alors ouvert
- Le monde de nos connaissances objectives (c’est le monde des idées, des théories mais aussi des formes)
Pour Jean Petitot, dans » note sur la querelle du déterminisme « , l’appréhension est subjective et la réalité est objective. C’est ce qui oppose la phénoménologie (la science des » vécus « ) à la physique (la science de la Nature), ou encore l’aristotélisme au galiléisme. Il prône une » description objective » (une eidétique) incluant la dimension phénoménologique. La théorie du chaos permet une telle réconciliation entre la science et la phénoménologie en proposant une eidétique descriptive géométrique.
L’objectif de la connaissance est-il la prévision ?
René Thom indique dans » en guise de conclusion « qu’il y a une différence entre le savant et l’expert. Ce dernier étant plus proche du pouvoir : » le pouvoir exécutif des experts se fonde plutôt sur l’existence du risque, de l’aléa, que sur son absence « , alors que le savant devrait au contraire rechercher à réduire l’aléa et le hasard.
On observe un passage du passéisme à un futurocentrisme initié par David Hume et qui domine à partir du milieu du XIXème siècle. Il s’observe par exemple dans la notion de connaissance :
- Vue comme la capacité de trouver les causes (dans le passé ou dans l’au-delà). Dans ce cas la prévision sert principalement à démontrer
- Vue comme la capacité d’en prévoir les variations. Dans ce cas la prévision est l’objectif à atteindre.
Ce renversement entre le passé et le futur cause le deuxième divorce entre la philosophie et la science qui a fait de la prévisibilité une fin en soi.
René Thom dans sa » postface au débat sur le déterminisme « , considère que la liberté de l’homme pour agir s’appuie sur les régularités et la capacité à agir : » Ainsi, la liberté humaine qui, a priori, fait échec au déterminisme, s’appuie sur lui pour agir, pour forger ses intentions et déterminer ses projets. Ce paradoxe, je crois est au cœur du déterminisme ‘scientifique’ « .
Mais prévoir n’est qu’une des méthodes d’actions. Celle-ci utilise le choix a priori. Il existe d’autres approches comme la recherche d’un équilibre au moment même du choix par exemple dans les systèmes économiques (négociation pour équilibrer l’offre et la demande) ou encore le choix a posteriori à partir d’une abondance de solutions potentielles (cf l’introduction de Internet tome 2 news/introduction-de-internet-tome-2-services-et-usages-de-demain )
Des sciences de la complexité déterministes mais imprévisibles
En physique classique on utilise les fonctions mathématiques pour connaître une situation à n’importe quel instant simplement en donnant à la variable temps la valeur adéquate. Mais cela n’est plus possible dans les sciences de la complexité : il est nécessaire de parcourir toutes les étapes intermédiaires pour connaître l’état à un instant donné. Cependant, l’imprévisibilité relative des sciences de la complexité n’est pas considérée comme indéterminée. La valeur trouvée est déterminée par les conditions initiales et les règles qui donnent à situation identique le même résultat et respectent donc bien le principe de causalité. L’imprévisibilité n’est que le résultat de la limite de notre connaissance (en particulier en cosmologie où nous ne pouvons pas découvrir les états successifs de l’univers plus rapidement qu’il ne le fait lui-même…)
Des lois déterministes, et le reste ?
Les phénomènes ayant une sensibilité aux conditions initiales
Les systèmes sensibles aux conditions initiales posent d’autres problèmes lorsque les variations de conditions initiales qui produisent des résultats mesurables sont trop faibles pour être mesurées (on parle de fluctuations). C’est cette piste là qui est débattue dans les années 80 dans la querelle du déterminisme, à partir de plusieurs théories étudient ces systèmes :
- les structures dissipatives de Ilya Prigogine et Isabelle Stengers qui étudient les systèmes loin de l’équilibre thermodynamique qui voient l’apparition spontanée d’une structure complexe et parfois chaotique avec des phénomènes d’auto-organisation. Il a montré que la thermodynamique, conformément au sens commun, était le siège de phénomènes irréversibles (Ilya Prigogine et Isabelle Stengers, la nouvelle alliance, Gallimard, Paris, 1979)
- la théorie des catastrophes fondée en 1968 par René Thom qui recherche des phénomènes stables à partir non pas des systèmes dynamiques mais de la théorie mathématique des singularités. (René Thom, stabilité structurelle et morphogenèse, Interédition, Paris, 1977)
- d’autres ouvrages dans des domaines variés, s’intéressent aux systèmes sensibles aux conditions initiales et aux phénomènes d’auto-organisation : le hasard et la nécessité de Jacques Monod (Editions du Seuil, Paris, 1970), La méthode, tome 1 : la nature de la nature d’Edgar Morin (Seuil, Paris, 1977), Entre le cristal et la fumée (Henri Atlan, Seuil, Paris, 1979)
La théorie du chaos formalisée à partir des années 1970 est aujourd’hui considérée comme déterministe.
Une science basée sur les statistiques
Ces théories (à l’exception de la théorie des catastrophes) font largement appel aux statistiques et introduisent la question de savoir si ce hasard est primordial reposent différemment la question du déterminisme.
En résumé, on peut distinguer quatre façons d’aborder le déterminisme :
- L’Astrologie à partir des Grecs qui considère que les influences astrales déterminent les affaires humaines (les événements sublunaires) : détermination par le ciel
- La vision chrétienne de Saint Augustin, qui insiste sur la providence et la prédestination : détermination par Dieu
- La vision mécaniste, qui se concentre sur la prévision comme moyen de démontrer les causes : détermination par des causes observables
- La vision statistique qui est celle des Sciences Humaines et Sociales mais aussi de certains domaines physiques comme les systèmes sensibles aux conditions initiales ou la mécanique quantique : détermination par des causes non observables. Elle affiche un futurocentrisme où la prévision est moins un moyen de vérifier les causes mais devient une fin en soi.
On assiste à une séparation entre la philosophie de l’histoire et les sciences sociales qui deviennent incompatibles dans le dernier tiers du XIXème siècle. La philosophie de l’histoire réfléchit au passé et se base sur les événements historiques alors que les sciences sociales étudie le présent à l’aide des statistiques et s’intéressent aux faits sociaux modestes.
Une mesure approximative des conditions initiales
Du fait du processus même de mesure, on ne connaît les conditions initiales qu’avec une précision approximative. Ainsi, des systèmes sensibles aux conditions initiales peuvent très bien avoir des variations trop petites de leurs conditions initiales pour être observées tout en donnant un résultat final très différent : attiré par un » attracteur » différent (une infime variation dans la main au moment du lancé et le dé tombera sur une face différente). Cela est encore plus vrai dans les sciences humaines où certaines grandeurs sont non mesurables (pour être mesurable, une grandeur doit pouvoir être comparée de façon précise à un étalon objectif commun à tous, ce qui n’est pas le cas pour des données » internes » telles que la confiance, l’estime, l’amour…). Lorsqu’une grandeur est évaluable mais non mesurable, il n’est alors possible que de lui donner une valeur approximative.
Pierre Duhem, insiste sur l’importance d’une mathématique de l’à-peu-près : » les » mathématiques de l’à-peu-près » qui permettent seules de traduire sans le trahir le langage du physicien, ne sont pas du tout une forme plus simple et plus grossière des mathématiques, mais au contraire une forme plus complète et plus raffinée « (la théorie physique, son objet – sa structure ed 1914 rééditée en 1981 chez Vrin p214
Beaucoup de systèmes dynamiques sont ainsi imprévisibles mais ont un faible nombre » d’attracteurs » (d’états stables) : comme par exemple le dé qui comporte 6 faces planes.
David Ruelle, dans » Hasard et déterminisme, le problème de la prédictibilité « considère que l’on est » mieux équipé » avec les attracteurs étranges » pour discuter de la contradiction entre déterminisme et libre arbitre «
Hasard par ignorance ou hasard primitif : l’indéterminisme est-il dans les conditions initiales ?
Dans » halte au hasard, silence au bruit « , René Thom considère que le darwinisme a introduit le hasard de façon illégitime en science : » le hasard ne serait-il entre autre chose qu’un substitut laïc de la finalité divine ? » (la querelle du déterminisme, halte au hasard, silence au bruit, p63)
Pour lui, la science consiste à décrire, que ce soit en langue naturelle ou dans un formalisme mathématique. Il existe d’énormes blocs de phénomènes que l’on peut décrire de façon satisfaisante en langue naturelle et où une description mathématique rigoureuse serait non seulement difficile mais de plus non pertinente. Dans d’autre cas au contraire, le formalisme linguistique perd toute efficacité (c’est le cas par exemple de l’entropie de Kolmogorov-Sinaï). Dans ce cas, on doit abandonner une description fine du système pour se concentrer sur une conception grossière statistique. Ce que l’on appelle les » lois du hasard » sont en fait notre ignorance d’un ordre déterministe microscopique, trop petit pour être observé mais qui donne des conséquences observables. Dans ce cas, la langue naturelle perd du sens et nous devons utiliser les statistiques mathématiques pour décrire ces systèmes.
Pour sa part, Henri Atlan, dans » postulats métaphysiques et méthodes de recherche « indique que le hasard par ignorance et le déterminisme caché promu par René Thom est aussi gênant que le hasard essentiel.
Dans » le roi Olav lançant les dés « , Ivar Ekeland explique qu’il existe deux types de hasard véritable :
- Le hasard primitif, il est différent du hasard par ignorance (par exemple le hasard en mécanique quantique s’il n’existe pas de variables ou de dimensions cachées).
- Le hasard comme intersection de deux séries causales indépendantes (par exemple le bruit est une série causale secondaire trop petite pour être visible de la série causale principale).
Ainsi, si les lois sont déterministes, les conditions initiales sont-elles au contraire parfois indéterministes ?
Le marquis de Condorcet fait d’ailleurs la distinction entre la contingence des conditions initiales (le système du monde) et la nécessité des lois d’évolution (la mécanique) (lettres sur le système du Monde et sur le calcul intégral, 1768, pp 4-5). Le spinozisme, revu par Einstein considère que le déterminisme est concentré dans la Loi.
En dehors des lois (déterministes) et des conditions initiales (où la question se pose), il existe d’autres éléments à prendre en compte comme l’explique Edgar Morin dans » au-delà du déterminisme : le dialogue de l’ordre et du désordre » : » à l’idée de lois souveraines […] s’est substitué l’idée de lois d’interactions, c’est à dire dépendant des interactions entre corps physiques qui dépendent de ces lois « . L’ordre construit par ses interactions est plus riche que l’idée de lois souveraines car il s’y ajoute des contraintes, des invariances, des régularités dans notre univers qui dépendent de conditions singulières ou variables. Cet ordre s’auto-produit dans l’univers, il est à la fois le coproducteur mais aussi le produit de phénomènes organisationnels. C’est dans cet univers qui s’auto-produit non pas seulement à partir des lois mais aussi de contraintes et de régularités, que pourrait se découvrir le hasard.
Déterminisme global et déterminisme local
Stephan Amsterdamski dans » Halte aux espoirs, silence aux accusations « , distingue deux notions du déterminisme :
- Le détermine global : l’état de l’univers est déterminé à chaque instant par ses états précédents (il est non prouvable car aucune science ne peut traiter de l’univers sans définir son environnement). Dans ce cas le déterminisme est identique à la notion de prévisibilité. C’est le déterminisme de Laplace.
- Le déterminisme local : pour chaque classe du système, il existe un système ou l’état du système est déterminé par ses états précédents
Si le déterminisme global est vrai alors le déterminisme local est vrai également mais la réciproque n’est pas vraie
Pour cela, il donne deux visions de la place des lois dans la science :
- Les lois sont valables quelles que soient les conditions initiales (Karl Popper considère que les lois ne sont que des interdictions)
- Les lois déterminent les conditions initiales
Cela mène à deux façons de concevoir la science :
- Chaque ordre ne peut concerner qu’un fragment de l’univers (qui pousse à la vision locale du déterminisme)
- L’objectif de la science est de diminuer la dichotomie entre les lois et les conditions initiales
Une cause, plusieurs effets possibles
Des systèmes qui rétroagissent sur eux-mêmes
Une des façons de poser la question de l’indéterminisme est de rechercher des causes qui peuvent être suivies d’effets différents (qui ne respectent donc pas le principe de causalité). Cela semble être le cas des systèmes qui parlent d’eux même :
- Epiménide en philosophie qui parle de lui en disant » je suis un menteur « . Cette phrase ne peut être ni vraie, ni fausse. Mais de façon encore plus subtile on pourrait dire » je dis la vérité » : cette phrase peut être aussi bien vrai que fausse.
- Kurt Gödel en mathématique qui utilise l’arithmétique et les mathématiques formelles pour vérifier leur propre complétude et abouti à la conclusion qu’il existe toujours des hypothèses qui ne peuvent être ni infirmées ni confirmées : Ce sont les théorèmes d’incomplétude de Gödel ( » une théorie suffisante pour faire de l’arithmétique est nécessairement incomplète au sens où il existe forcément des énoncés qui ne sont pas démontrables et dont la négation n’est pas non plus démontrable » Wikipédia).
- Cela semble également vrai dans la plupart des Sciences Humaines et Sociales ou l’observateur influe sur ceux qu’il observe. Il faut donc étudier un système plus global incluant à la fois l’observateur et les observés.
- La question se pose également en Mécanique Quantique où l’observateur est indissociable de l’observé lors de la mesure (nous détaillerons cette question dans la dernière partie). Il faut renoncer soit au principe de localité soit au principe de causalité (voir aussi l’hypothèse many worlds ou many minds d’Everett qui considère qu’à chaque interaction se crée autant de monde que de choix possibles)
Mais la » querelle du déterminisme » n’aborde que très peu cette piste qui nous semble pourtant la plus prometteuse pour y rechercher de l’indéterminisme car la loi de causalité n’y est plus respectée (dans les mêmes conditions, la même cause est suivie de plusieurs effets tous fondamentalement » possibles « ).
Plusieurs possibles comment choisir ?
Antoine Danchin, dans » la permanence et le changement « , voit dans le hasard, en particulier les rencontres d’événements imprévus, la possibilité d’expression du patrimoine héréditaire et ainsi d’exprimer des virtualités autrement impossibles, alors que » dans un modèle déterministe convenablement pensé, une fois fixées les conditions initiales, il y a existence et unicité des solutions « . Ainsi, s’il existe plusieurs possibles virtuels, seul l’indéterminisme permet de les explorer.
Ilya Prigogine, dans » loi, histoire et désertion » considère la conception traditionnelle de lois immuables ne permet pas de faire une distinction entre le passé et l’avenir, alors que l’approche probabiliste est liée aux concepts d’irréversibilité et d’évolution. Dans un système où une cause peut avoir plusieurs effets, un seul de ses effets » possibles » sera finalement observé. Le passage des ces » réels possibles » décrit par la science au » réel actuel » observé par les hommes est un phénomène irréversible qui n’est pas décrit par les lois physiques.
Jean Largeault, dans » causes causalité, déterminisme « , précise : » la liberté consiste dans l’indépendance de l’acte relativement aux mobiles. Elle suppose la possibilité de commencement de séries étranger à tout enchaînement causal préexistant, caractère qu’elle partage avec le hasard et la création, lesquels représentent des ruptures ou des discontinuités « . Il présente ainsi les trois possibilités de sélection d’un effet actuel parmi plusieurs effets possibles pour une même cause (en contradiction avec le principe de causalité) : le hasard, la transcendance et le libre arbitre.
Pour lui, la distinction entre contingence et déterminisme dépend de la réponse à la question » faut-il ou non admettre des possibles exclus de la réalisation ? « . Mais » la science ne prouve ni le déterminisme, ni l’indéterminisme « (p197). Pour que le déterminisme acquière un contenu épistémique réel, il faut » plonger l’évolution réelle d’un système dans un ensemble d’évolutions virtuelles « , parmi lesquels sera choisie la solution observable d’une façon qui n’est pas décrite par la science. Pour Jean Largeault, c’est ce que Laplace a réalisé et que Leibniz avait préparé par son principe de raison suffisante (les différentes étapes de cette approche mathématique développée par Leibniz consistent, lorsque l’on a plusieurs chemins pour relier les mêmes extrémités, à rechercher le maximum ou le minimum d’une intégrale que l’on appelle » action « , mais à le faire lorsqu’on le peut, dans un espace de phase -un espace virtuel des possibles- plutôt que dans l’espace de configuration. Cela se fait mathématiquement en passant d’un Lagrangien, à une fonction hamiltonienne)
Ainsi, la science ne donne pas toutes les explications : » chaque fois que Laplace dans son » exposition du système du monde » aborde un problème d’ontologie, il rappelle au lecteur que certains types de connaissances échappent à la science « (R Hahn, Laplace and the vanishing role of God in the physical universe, 1975 (repr. In Hugo Woolf ed., the analytic Spirit, Cornell University press, 1981, p89).
Le cas de la mécanique quantique
La mécanique quantique et plus précisément les relations d’incertitude d’Heisenberg, sont juste effleurées dans la querelle du déterminisme mais sans prendre en compte les avancées récentes des sciences physiques (réduction du paquet d’onde, intrication, paradoxe EPR, inégalités de Bell, expérience de Alain Aspect réalisée entre 1980 et 1982 qui exclue l’intervention de variables cachées locales, non-localité…)
Pourtant, comme l’indique Ivar Ekeland, dans » le roi Olav lançant les dés « , l’équation de Schroëdinger qui fonde la mécanique quantique, est déterministe. Le hasard, s’il existe en mécanique quantique, intervient au moment de la mesure qui est décrit par les relations d’incertitude d’Heisenberg en mécanique quantique : pour une particule massive donnée, on ne peut pas connaître avec précision simultanément sa vitesse et sa position. Il n’est plus possible de connaître les deux données avec précisions, elles ne sont plus mesurables.
La question est de savoir si l’imprévisibilité des résultats obtenus vient du fait qu’il nous manque des variables qui sont » cachées » ou si elle vient d’un véritable indéterminisme. On sait depuis les expériences de Alain Aspect qu’il n’y a pas de variables cachées locales mais cela n’empêche pas d’avoir des variables cachées globales comme par exemple des dimensions que nous n’aurions pas vues.
René Thom dans » Halte au hasard, silence au bruit explique : » On a donc eu besoin pour instaurer le déterminisme classique, d’augmenter la dimension de l’espace par introduction de variables nouvelles initialement cachées (les moments, ou vitesse) » » On a besoin depuis Galilée d’un espace de dimension double (six, avec les moments cinétiques associés) «
Existe-t-il des dimensions cachées en physique des particules qui permettraient de rendre les équations de nouveau prévisibles et donc déterministes ? Il existe deux pistes pour cela :
- Les nouvelles dimensions » enroulées » de la théorie des cordes
- Les dimensions de rotation (qui se traduisent par les phases dans les équations d’onde) qui sont mathématiquement éliminées lorsque l’on calcule la probabilité de présence. Peut être faut-il réintroduire dans la mesure en mécanique quantique les mêmes trois dimensions que l’on a du introduire à l’époque de Galilée pour réintroduire la prévisibilité en mécanique ?
Mais le fait que l’observateur ne soit pas indépendant de l’observé n’introduit-il pas une rétroaction qui pourrait produire une indétermination (voir les causes avec plusieurs effets) ?
Entre la possibilité de réintroduire du déterminisme en physique des particules à l’aide de variables cachées non locales (par exemple de nouvelles dimensions) et le fait que tout comme dans d’autres systèmes non déterminés, l’observateur fait parti du système dont il parle, la question du déterminisme dans ce domaine reste encore ouverte et sujet à débat.
En guise de conclusion
Différentes tentatives ont été faites pour réintroduire une place à l’indéterminisme face aux lois de la physique qui elles semblent parfaitement déterminées : le monde sublunaire qui ne serait pas soumis aux lois du Ciel (Aristote), le libre arbitre de l’homme, que ce soit pour transgresser l’ordre de Dieu (St Augustin) ou pour le mettre en œuvre (St Thomas d’Aquin), la liberté (pour Dieu) de choisir parmi plusieurs monde possible conformément à la raison suffisante (Leibniz), le monde observable et connaissable (les systèmes dynamiques ou les systèmes complexes imprévisibles), les conditions initiales (les systèmes sensibles aux conditions initiales) ou encore les contraintes et les invariants de notre univers non déterminés par des lois…
Mais aucuns de ses exemples n’a pu être démontré comme indéterminé. Soit ils sont en dehors du champ de la connaissance scientifique, soit ils se sont révélés finalement déterministes (comme c’est le cas pour la complexité ou le chaos déterministe).
Pourtant, il existe un véritable candidat à une étude scientifique de l’indéterminisme : les systèmes qui ne respectent pas la seconde proposition du principe de causalité : » dans les mêmes conditions, la même cause est suivie du même effet « .
Les systèmes qui rétroagissent sur eux-mêmes (qui » parlent d’eux-mêmes « ) semblent avoir cette caractéristique : le paradoxe du philosophe qui parle de lui-même (Epiménide), la démonstration par les mathématiques de la validité des mathématiques (Gödel), l’ensemble des Sciences Humaines (qui ont pourtant cherchées à atteindre la prévisibilité des sciences mécanistes) ou encore peut être la mesure en physique des particules (qui ne peut faire abstraction de l’observateur dans l’obtention du résultat).
L’ensemble de notre démarche rationnelle est basé sur le principe de causalité. Si notre science et notre philosophie peuvent parfois aboutir à plusieurs résultats (réellement) possibles, alors il faut se poser la question de ce qui permet de passer de ces différents possibles à un seul résultat actuel observable :
- Le choix est-il déterminé par une » raison suffisante » ou bien les différents possibles continuent-ils de coexister au sein d’univers multiples ?
- Au contraire le choix est-il effectué par une transcendance, le hasard ou notre libre arbitre ?
Si cette réduction se révèle non déterministe, alors il reste peut-être une place pour notre liberté.
-
La fin cachée d’une légende hindoue
Pour illustrer le lien entre la complexité et la coopération ainsi que la difficulté à appréhender avec notre seul bon sens les règles qui régissent les groupes, j’aimerai vous raconter l’histoire complète d’une légende hindoue qui ne nous est parvenue qu’en partie :
Une vieille légende hindoue raconte qu’il y eut un temps où tous les hommes étaient des dieux. Mais ils abusèrent tellement de leur divinité que Brahma, le maître des dieux décida de leur ôter le pouvoir divin et de le cacher à un endroit où il leur serait impossible de le retrouver. Le grand problème fut donc de lui trouver une cachette. Lorsque les dieux mineurs furent convoqués à un conseil pour résoudre ce problème, ils proposèrent ceci : « Enterrons la divinité de l’homme dans la terre ». Mais Brahma répondit : « Non, cela ne suffit pas, car l’homme creusera et la trouvera ». Alors les dieux mineurs répliquèrent : « Dans ce cas, jetons la divinité dans le plus profond des océans ». Mais Brahma répondit à nouveau : « Non, car tôt ou tard, l’homme explorera les profondeurs de tous les océans, et il est certain qu’un jour, il la trouvera et la remontera à la surface ». Alors les dieux mineurs conclurent : « Nous ne savons pas où la cacher car il ne semble pas exister sur terre ou dans la mer d’endroit que l’homme ne puisse atteindre un jour ». Alors Brahma dit : « Voici ce que nous ferons de la divinité de l’homme : nous la cacherons au plus profond de lui-même, car c’est le seul endroit où il ne pensera jamais la chercher ». Depuis ce temps-là, conclut la légende, l’homme a fait le tour de la terre, il a exploré, escaladé, plongé et creusé, à la recherche de quelque chose qui se trouve en lui.
Mais récemment a été retrouvé un fragment de parchemin qui raconte la suite de l’histoire :
Si la part divine de l’homme n’agit que lorsqu’elle est visible, il en va différemment de sa part d’ombre qui elle, ne prend toute sa dimension qu’une fois cachée. Le maître des démons voulu mettre cela à profit et convoqua à son tour les démons mineurs en conseil pour savoir où cacher le coté maléfique de l’homme afin de le rendre actif.« Enterrons la part d’ombre de l’homme dans la terre ». dit l’un des démons qui voulait s’accorder les faveurs du maître. Il fut alors réduit en cendres : « Non, celle-là d’autres y ont déjà pensé », dit le maître des démons. « Cachons la au plus profond de lui-même». dit un autre. Le Maître répondit avec lassitude « La place est déjà bien remplie avec sa divinité », et il le fit se consumer sur place. Alors le maître des démons dit : « Voici ce que nous ferons : nous cacherons la part d’ombre dans les règles qui relient l’homme aux autres hommes». Depuis ce temps là, l’Homme qui cherche à redevenir un dieu, devient démon lorsqu’il rencontre d’autres hommes en oubliant d’être pleinement conscient
Les démons précautionneux, prirent soin de déchirer la fin du parchemin pour que l’homme reste inconscient de sa part d’ombre et qu’ainsi elle puisse continuer de prospérer…
-
Une série d’articles sur l’émergence
J’ai pris pas mal de notes sur un numéro hors série très intéressant de Sciences et Avenir sur « l’énigme de l’émergence » (n°143H de juillet/août 2005). J’en ai fait un ensemble de billets sur ce sujet pour enrichir la partie complexité de ce site et inspirer plusieurs chapitres du livre « demain(s), la science et le choix des possibles« .
- Notions de base
- Les trois facettes à prendre en compte : constituants, règles et systèmes
- Émergence, réductionnisme, vitalisme
- Les constituants : influence d’un niveau sur l’autre (L’émergence synchronique)
- Définir le macro à partir du micro
- Influences réciproques du micro et du macro
- L’intention dans les groupes humains
- Les règles : évolution des constituants vers un phénomène émergent (L’émergence diachronique)
- L’évolution des systèmes vers l’auto-organisation
- La classification des types d’automates et de réseau
- Quelques concepts : SDNL, Multistationnarité, structures dissipatives…
- Le système
-
La tragédie des 3 C
Notre monde est complexe. Cela ne veut pas dire qu’il est compliqué, mais plutôt que c’est un ensemble d’éléments qui interagissent ensemble. Que ceux-ci soient des citoyens, des consommateurs, des sociétés, des gouvernements ou n’importe quel autre organisme, le tout forme un réseau complexe de personnes et de groupes qui échangent entre eux.Les lois de la complexité ont une particularité, elles s’appliquent à tous les domaines. Que le système soit formé de personnes, de machines ou de molécules, certaines règles s’exercent de la même façon. Les sciences de la complexité sont jeunes, mais elles peuvent ainsi s’enrichir des travaux réalisés dans différents domaines scientifiques : économie, sociologie, biologie ou physique par exemple. L’une de ces règles a été découverte en 1931 par le mathématicien et logicien Kurt Gödel. Il souhaitait savoir si les mathématiques (un système complexe où des « postulats » de départ interagissent entre eux) sont complètes et cohérentes, ce qui est la moindre des choses apparemment. Pourtant il arriva au résultat exactement inverse ! Nous pourrions résumer les deux théorèmes d’incomplétude et de cohérence limitée de Gödel en langage commun de la façon suivante : quand un système dépasse un certain seuil de complexité, il ne peut être à la fois complet et cohérent. Ce résultat produisit une véritable onde de choc. Mais pour en prendre la mesure, nous devons admettre qu’il s’applique à n’importe quelle sorte de système complexe, y compris les réseaux humains utilisés en économie, sociologie, politique… Il n’est pas possible d’avoir à la fois de la complexité, de la cohérence et de la complétude. Les systèmes que nous mettons en place manqueront au moins un de ces trois objectifs. Si nous n’en sommes pas conscients, nous ne pourrons pas choisir celui auquel nous sommes prêt à renoncer. Nous pourrons même faillir sur deux d’entre eux ou sur la totalité.
- Nous risquons ainsi de transformer un réseau complexe en un système « simpliste ». Pour réguler, il suffirait d’établir des liens entre un pouvoir central et chacune des personnes concernées sans prendre en compte les liens ENTRE les personnes. Mais dans le même temps nous perdrons une des caractéristiques les plus importantes des systèmes complexes : sa capacité d’auto-adaptation. L’adaptation, et donc la survie du système, ne dépendent alors plus que de la personne ou de l’organisme qui se retrouve au centre de ce système en étoile. Un tel système n’est plus complexe car tous les échanges se font uniquement entre le point central et un des participants. Une telle organisation ne peut fonctionner correctement que si on élimine toute possibilité d’échange entre les membres. Supprimer la complexité dans notre « société en réseau » est cependant encore moins facile que dans n’importe quelle période précédente.
- Nous risquons également de mettre en place une régulation qui n’est pas complète. Comment s’appliquent les règles que détermine un comité décisionnel à ses propres membres ? Les représentants peuvent-ils se représenter eux-mêmes ? Ils font pourtant partie du « peuple » dont ils ont la représentation. Si nous souhaitons, pour être complet, que la régulation proposée s’applique à celui qui la met en œuvre, ce dernier se trouve alors face à une incohérence : son intérêt individuel peut se trouver en conflit avec l’intérêt général alors même qu’on lui a délégué la capacité de préserver cet intérêt général. Pour résoudre cette difficulté, nous présupposons que le décideur choisira systématiquement l’intérêt général. Pour en être plus sûr, nous mettrons en place une forme de surveillance du fonctionnement du système que nous espérerons… complète.
Fermer les yeux sur l’incohérence des intérêts, sur l’incomplétude de notre surveillance du système ou sur la tendance à supprimer les échanges entre membre pour réduire la complexité ne résout pas notre problème. Nous devons accepter que lois de la complexité interdisent aux systèmes que nous mettons en place d’être à la fois complexes, complets et cohérents. Un éclairage intéressant nous a été apporté par Michel Serres lors d’un échange que nous avions eu. Il expliquait, en tant qu’ancien marin gascon, que sur un bateau il y avait toujours deux chefs : un chef de quart et un chef de pont. L’un punit, l’autre récompense. Il existe des cas de figure où un membre de l’équipage doit faire quelque chose d’interdit pour sauver le bateau. Dans ce cas, il est important qu’il soit récompensé, sinon la prochaine fois il ne sauvera pas le bateau. Mais il est également important qu’il soit puni, sinon chacun risque de ne plus respecter les consignes et le bateau se retrouve également en danger. En perdant la cohérence, il devient possible de conserver la complexité (un bateau est un système complexe qui doit s’adapter à son environnement) mais aussi de prendre en compte tous les cas de figure, y compris ceux très particuliers qui nécessitent cette double réaction. Plutôt que de perdre totalement la cohérence, l’idée consiste à utiliser deux décideurs. Chacun d’eux a sa propre cohérence même si leurs actions conjuguées peuvent sembler incohérentes entre elles. Nous retrouvons cette tension entre deux objectifs apparemment incohérents dans de nombreux autres cas. Norbert Alter, par exemple, décrit le processus d’innovation comme une tension entre le « créateur » et les « conservateurs ». C’est grâce à cette tension qu’une création peut ensuite être acceptée par le groupe pour devenir une innovation, c’est-à-dire une création que la collectivité s’est appropriée. Le rôle du chef consiste alors non plus à trancher définitivement pour l’une ou l’autre des parties mais à faciliter ce double courant pour mettre en place un environnement favorable d’où les innovations pourront émerger. Dans toutes nos réflexions sur la gouvernance et les différents modes de régulation, nous devons prendre en compte que le monde dans lequel nous vivons est intrinsèquement complexe. Nous pouvons tenter de le simplifier pour qu’il puisse être concevable par un très petit nombre de ses membres. Nous pouvons également choisir de profiter de cette complexité et de sa capacité d’auto-adaptation. Dans ce cas, il nous appartient d’opter en toute conscience sur laquelle de ces notions, la cohérence ou la complétude, nous sommes prêts à faire des concessions.
Jean-Michel Cornu
-
La compréhension de la matière et le programme réductioniste
Un programme réductionniste pour la science
Galilée distingue deux types de « qualités » (on dirait aujourd’hui de propriétés) :
- Les qualités premières (solidité, forme, étendue, mouvement) qui ne sont cependant pas suffisantes pour passer à l’étape suivante ;
- Les qualités secondaires par lesquelles nous ressentons la matière (couleur, goût…)
Le XVIIème siècle va proposer un programme à la science : le réductionisme (le XVIIIème avec Newton sera celui de la mathématisation de la physique)
- Analyse : décomposition en éléments simples jusqu’à découvrir les éléments ultimes porteurs des qualités premières : au XIXème siècle on décompose la matière en atomes. Le XXème siècle passe plusieurs étapes suplémentaires (noyau + électrons, nucléons, quarks + gluons)
- Synthèse : montrer comment les interactions mutuelles entre les qualités premières expliquent les qualités secondes (on explique les propriétés d’un niveau comme conséquence des propriétés premières au niveau sous-jacent). Le succès pour cette partie est plus mitigé : on explique pas trop mal le passage noyau-atome, moyennement de l’atome à la matière (quelques grands principes, mais plutôt faible sur les aspects spécifiques et les prévisions numériques) et pas bien du nucléon au noyau et des quarks aux noyaux.
Une des difficulté est que lorsque l’on change d’échelle, les types de qualités (propriétés) à prendre en compte ne sont pas les mêmes. Par ailleurs, la complexité (interactions entre des éléments simples) permet mal de prévoir les phénomènes émergents.
La matière
Newton a une vision corpusculaire de la matière, alors que Descartes la voit comme un champ continu. La vision corpusculaire sera plus répandue mais les deux visions cohabitent jusqu’au XIXème siècle avant d’être réunifiée dans la nouvelle vision quantique a travers le « quanton », à la fois onde et corpuscule.La matière ne peut plus être décrite sous forme de seulement trois états pour plusieurs raisons :
- On peut passer en continu d’un état à l’autre (par exemple pour l’eau de l’état liquide à l’état gazeux lorsque l’on est à haute pression)
- Certains états se subdivisent : c’est le cas des liquides et des liquides superfluides (sans viscosité) mais également pour l’état supraconducteur de certains corps.
- De nouveaux états apparaissent : les plasmas (ionisés), les cristaux liquides, les quasi-cristaux (organisés sous forme cristaline au niveau microscopque mais de façon non ordonnée à plus grande échelle, découverts à la fin du XXème siècle)
Philosophie – Méthode expérimentaleD’après : Jean-Marc Levy-Leblond, « la matière », De vive voix 2003
-
Le calcul approximatif
On pourrait penser que le calcul approximatif (il y a en gros autant de cailloux dans les deux cas…) est une version non évoluée de notre notion de calcul précis. Pourtant il existe de nombreux cas où la valeur à évaluer n’est pas mesurable. Pour qu’une valeur soit mesurable, il faut qu’elle puisse avoir un étalon qui permette une comparaison précise. C’est le cas de la monnaie par exemple en économie classique, ce n’est pas le cas en contre partie dans « l’estime » utilisée en économie du don. Pourtant, d’une certaine manière, l’estime remplie le rôle de la monnaie en économie du don (bien qu’elle soit globale car pouvant être donnée par tout le groupe, et qu’elle ne soit qu’évaluable et non mesurable. Par contre, l’estime qui permet par la suite d’obtenir des contre parties n’est pas beaucoup plus virtuelle que la monnaie actuelle qui est basée sur la confiance). Il faut distinguer entre les deux modes de calculs et les succès de notre « calcul précis » ont éclipsé les intérêts dans le calcul approximatif. Les travaux de chercheurs du CNRS et de l’Inserm (Pierre Pica, Cathy Lemer, Véronique Izard et Stanislas Dahaene) ont permis de distinguer ces deux capacités de calcul chez les Mundurucus, des indiens d’Amazonie qui ne disposent de nom que pour les chiffres jusqu’à quatre ou cinq (revue Science du 15 octobre 2004). Les résultats montrent que les Mundurucus ont des difficultés pour des opérations élémentaires avec des quantités exactes mais disposent des mêmes capacités que nous pour le « calcul approximatif » (par exemple une vidéo montre une vingtaine de graines tombant dans une boite, puis s’y ajoutent une trentaine d’autres graines, et le participant doit juger si le total fait plus ou moins qu’un autre ensemble par exemple d’une quarantaine de graines).
Pierre Pica a réalisé une série de tests arithmétiques avec 55 indiens et 10 français en groupe test. Cez les indiens Mundurucu, le lexique des nombres s’arrête clairement à 5 et même en deçà de 5, les nombres sont utilisés de façon flous comme nos termes dizaine ou douzaine. Le mot 5 signifie également « main » et est utilisé lorsqu’il y a entre 4 et 10 objets… Par contre, les Mundurucus et les français obtiennent les mêmes résultats aux tests d’approximation. Cette limitation à cinq semble venir de la manière de compter des Mundurucus qui utilisent unetechnique rudimentaire basée sur les doigts de la main et les orteils.La conclusion de cette étude montre que la compétence d’approximation numérique est une compétence cognitive basique qui pourrait être indépendante du langage. Elle s’oppose aux conclusions des recherches de l’américain Peter Gordon réalisé sur les Pirahãs (une tribu d’à peine deux cents personnes), selon lesquelles les capacités des indiens sont incommensurablement différentes des nôtres. Les Pirahãs n’ont que trois mots pour désigner les nombres, et ne disposent pas de mots pour désigner les couleurs. Pour communiquer, ils utilisent aussi des chants et des sifflements et changent souvent de nom pour éviter que les esprits ne s’en emparent. Ils ignorent les récits historiques et mythologiques. les Pirahãs ne veulent rien faire comme les autres et rejettent toute oidée d’abstraction pour conserver farouchement leur identité (hypothèse de Daniel Everett qui, avec sa femme Kerren, a étudié les Pirahãs pendant vingt sept année, et qui s’oppose aux conclusions du linguiste Peter Gordon, de l’université de Columbia). Elle contredit également l’affirmation selon laquelle les compétences varient d’un peuple à l’autre en fonction de la capacité d’expression de leur langue (hypothèse de Spir/Whorf formulée au début du XXème siècle). Cette théorie du determinisme linguistique a depuis longtemps été délaissée, notamment après les travaux de Noam Chomsky; Au contraire, on pense aujourd’hui que toutes les langues du monde reposent sur les mêmes grands principes, une sorte de gramaire universelle, inscrite au fond du cerveau de chaque être humain. Voir
- Sur les Mundurucus : « Un, deux, trois, quatre, cinq… et après ? – http://www.techno-science.net/index.php?onglet=news&news=376
- Sur les Pirahãs : « le pays où l’on ne sait pas compter jusqu’à trois » – http://www.futura-sciences.com/sinformer/n/news4229.php
Voir également l’article sur « un deux beaucoup«
-
Le jeu « les Sims »
Les jeux de simulation du type « Les Sims » (http://www.lessims.ea.com/) permettent de simuler de façon plus ou moins réaliste le monde réel. Ils permettent surtout de tester des possibles. L’utilisation par les jeunes diffère de celle par les adultes qui n’osent pas s’écarter du comportement dans le réel (moi le premier…). Du coup l’utilisation par les jeunes peut semler totalement amorale (par exemple faire bruler ses Sims dans un incendie et vendre ensuite les tombes pour récupérer de l’argent !) pourtant la distinction est bien faite entre les mondes des possibles (où la règle est de tester tous les possibles…) et le monde réel (il n’y en a qu’un et donc les actes prêtent à conséquence). On peut donc voir les mondes des possibles comme des zones de test qui ne prêtent pas à conséquence (permettant d’accélerer les exemples mutant comme dirait Darwin) ou au contraire comme un danger de « prendre des réflexes » qui peuvent être dangereux dans le monde réel. Dans les deux cas, les incursions dans les mondes des possibles font tomber les barrières. Cela ouvre des portes mais nécessite de se fixer consciemment les barrières, de les choisirs car elles ne sont plus du domaine du reflexe conditionné. Les mondes virtuels donnent pouvoir important (en supprimant les barrières qui nous empêchaient crtains possibles) mais nécessitent comme tout outil qui donne du pouvoir, d’augmenter le niveau de conscience et de faire des choix conscients pour remplacer les barrières disparues) « Sciences sans conscience n’est que ruine de l’ame ». Voir également Pascal sur le peuple, les semi-habiles et les habiles (Pascal, Pensées VI « la raison des effets »)
-
Symbiose
La Symbiose s’oppose à la compétition (voir le darwinisme)
-
Le Darwinisme
Le Darwinisme proposé par Charles Darwin est basé sur 4 étapes :
- Réplication (voir aussi la mimétique de Girard)
- Mutation (qui est considérée dirigée par le hasard, sur plusieurs formes de mutation – comme par exemple la symbiose – voir livre Demains – Voir)
- Selection (en fonction de la capacité de survie, pour d’autres forme de sélection voir livre Demains – pièges
- Amplification
Le darwinisme n’est pas impitoyable en provoquant la mort des faibles car il favorise également leur mutation ou leur union afin de survivre.
Darwinisme et Culture
Plusieurs approches de la culture :
- La sociobiologie, fondée par Edward O. Wilson s’intéresse à l’influence des gènes sur les sociétés animales et humaines.
- Noam Chomsky a émis l’hypothèse de circuits nerveux innés par exemple pour le langage (les animaux peuvent-ils apprendred ainsi d’autres choses plus facilement que nous ? voir « la pensée animale … et la notre » de Lucien Romani
- L’Epigénétique montre ce qui s’ajoute à la génétique pour codéterminer l’évolution
- On retrouve les idées de la génétique et du darwinisme dans le monde des idées avec la mémétique.
Il y a une coévolution entre la nature et la culture
Dawinisme et sociétés humaines
Les sociétés avec sciences et technologies ont gagné un avantage de survie mais :
- danger du mega accident
- danger suicidaire des exclus
Pour améliorer les chances de survie il faudrait ajouter … Voir aussi l’approche de Howard Bloom dans « the lucifer principle » sur le Darwinisme du super organisme.
-
les théorèmes de Gödel
d’après Jean-Yves Girard, « L’idée d’incomplétude », in Sciences et Avenir numéro spécial : Les grandes idées du siècle, décembre 1999 / janvier 2000 Voir aussi Douglas Hofstadter « Esher Gëdel Bach; les brins d’une guirlande éternelle «
- Discours de la méthode de Descartes : positivisme
- Le logicien Alfred Tarski a un point de vue réaliste : le monde exter dont nous sommes parti et observateur est stable. Une formule est donc vrai ou fausse et seulement démontrable ou non démontrable.
- Leibniz : « Calculus combinatore » (?) dans « art combinatoire » : essai de résolution des imprécisions et ambiguités dues à l’autoréférencement
- Kurt Gödel (1906-1978) démontre en 1931 les deux théorèmes d’incomplétude
- Gödel dit qu’un système ne peut pas se justifier lui-même… même si on complète le système (si on corrige les bogues d’un programme le système reste toujours bogué…)
- Ces démonstrations ne s’appliquent pas simplement aux mathématiques mais à toute approche déductive pouvant se baser sur un processus formel
Les théorèmes d’incomplétude de Gödel
- L’incomplétude, l’impossibilité d’une autojustification, pour qu’elle fasse sens, requière la précision des systèmes formels
- Ces théorèmes ne sont vrais que si la précision est absolue – formelle (que si les systèmes sont suffisament complets comme se veut les mathématiques)
Premier théorème : non décidabilité (incomplétude)
Un énoncé peut être vrai mais non démontrable (c’est une forme développée du paradoxe du menteur d’Epimenide le crétois : « tous les crétois sont des menteurs). Il avait déjà été remarqué par Cantor au XIXème siècle. « comment savoir qaund une recherche de démonstration n’en finit plus qu’elle va donner une réponse plus tard, dans une heure ou dans un siècle ? »
Les « nombres de Gödel n’ont pas de signification contrairement à ce que disent les commentateurs. Leibniz à associé les nombres aux énoncés.Deuxième théorème : Cohérence limitée
la cohérence de la vérité et de la démontrabilité est limité car contradictoire : On ne peut construire une démonstration de la cohérence d’une théorie T dans cette théorie.
Définition
- cohérence : on ne peut déduire à la fois A et non A
- complétude : Pour tout système A de T on peut démontrer A ou non A
- Système formel : dispositif d’engendrer les théorèmes à partir des axiomes grâce à des règles opératoires spécifiées
Remarques
- C’est l’échec de l’absolutisme du formalisme. (mais par exemple en politique, la principale vertue est-elle d’être cohérent ?)On essaie d’éviter l’autoréférence en science – par exemle en ethnologie, en politique… – mais elle est partout
- C’est la fin du déterminisme où tous les états ultérieurs sont entièrement déterminés par les conditions initiales
Jean-Yves Girard : « loin de nous désoler que Gödel nous éloigne de la solution finale, réjouissons nous de l’espace qu’il laisse à la créativité » Attention le changement de paradigme n’est une abolition du rationnel et une porte ouverte à l’irrationnel : le non cartésianisme n’est pas l’anti-cartésianisme.
-
Le carré Sémiotique
Le carré sémiotique permet de distinguer la notion d’opposés avec celle d’inverses en y ajoutant une troisième notion : la gradation. L’ensemble (opposés, inverse, gradation) forme un groupe au sens mathématique du terme.Exemple :
Vie mort X non mort non vie ou encore :
réussir échouer X ne pas échouer ne pas réussir Ainsi, réussir et ne pas échouer ne sont pas la même chose et peuvent même conduire à des stratégies inverses… : Pour réussir il faut essayer jusqu’à ce qu’on y arrive quelque soit le nombre d’échecs nécessaires auparavant. Pour ne pas échouer, il vaut mieux… ne rien faire. Si réussir et échouer sont des opposés (tout comme « ne pas réussir » ou « ne pas échouer ») ; réussir et « ne pas réussir » sont des inverses (l’un exclus l’autre) Les notions de « ne pas échouer » et de réussir présentent une gradation tout comme les notions d’échouer et de « ne pas réussir ». On peut créer des carrés sémiotiques pour de nombreuses notions opposées, par exemple :
- Rareté et abondance
- prévisibilité, imprévisibilité
- etc.

