Catégorie : Internet

Internet : technos et usages

  • Copy CAD

    La machine Copy-CADLe projet Copy-CAD [Je cherche le lien pour le fabriquer] de Sean Follmer, David Carr et Emily Lowell au tangible Media group du MIT, a pour but d’apporter des objeets réels dans le processus de conception Assisté par Ordinateur. Nous en discutons au sein du projet Fablab squared : comment permettre à des novices d’utiliser des machines à commande numérique pour fabriquer ce qu’ils veulent, sans leur imposer de passer par la connaissance d’un logiciel de création en 3D ? le Copy CAD est une machine qui va dans ce sens en faisant trois choses :

    1. scanner en 2D un objet quelconque placé sur une plate-forme en dessous d’une caméra
    2. le modifier simplement grâce à une interface tactile multitouch sur cette plate-forme
    3. le fabriquer grâce à un système de découpe de bois qui s’installe sur le même bâti

    Il devient ainsi possible de « remixer » des objets matériels, de modifier leur taille, et même de les combiner entre eux…

    la pièce originale
    La pièce originale
    La même copiée en bois
    La même « copiée » en bois
    Et en plus elle tourne...
    Et en plus elle tourne…
    On peut aussi mixer des pièces
    On peut aussi mixer des pièces
  • Les accords de Peering ou comment le Sud finance le Nord

    Ce document est le compte rendu de Cécile Méadel de la présentation que j’ai faite le 24 décembre 2006 pour Vox Internet. Internet a été conçu comme une architecture en pair à pair, reliant directement les réseaux des utilisateurs en passant par les réseaux d’autres utilisateurs (le plus souvent des universités et des centres de recherche au début). L’innovation majeure a consistée à proposer des protocoles standards pour réaliser un  » réseau de réseaux  » Mais avec l’augmentation exponentielle du nombre d’utilisateurs, et tout particulièrement l’utilisation du réseau téléphonique préexistant comme extension de l’Internet, des sociétés se sont montées avec comme seul but de servir d’intermédiaire pour interconnecter les utilisateurs et interconnecter les réseaux

    1 La hiérarchisation de l’internet en trois niveaux

    Aujourd’hui, l’architecture de l’internet a des niveaux hiérarchisés différents

    1. au niveau le plus bas: l’utilisateur
    2. Puis un fournisseur d’accès internet (FAI ou ISP Internet Service Provider) qui offre un service d’accès et dispose souvent de son propre réseau
    3. Puis pour pouvoir échanger entre ces réseaux, des fournisseurs de dorsales internet (IBP Internet Backbone Provider)

    Il faut des accords pour permettre d’interconnecter les réseaux des fournisseurs d’accès et ainsi permettre à des utilisateurs étant sur différents ISP de communiquer entre eux.

    Il y a trois manières d’interconnecter des réseaux.

    1. Les fournisseurs d’accès s’interconnectent directement entre eux.
    2. Les différents fournisseurs d’accès font arriver leur réseau jusque dans un lieu partagé – Internet Exchange Point (IXP) – où tous les fournisseurs peuvent facilement s’interconnecter entre eux.
    3. Si les FAI sont éloignés géographiquement, alors il est nécessaire de disposer d’un réseau qui relie les réseaux de chacun des fournisseurs (par exemple entre deux fournisseurs de chaque coté de l’Atlantique). Il existe des Internet Backbone Provider (IBP) qui fournissent ce service.

    2 Les accords de peering

    Il ne suffit pas d’interconnecter techniquement les réseaux. Les FAI étant des sociétés commerciales, il est nécessaire de décider qui paye lorsqu’un utilisateur d’un FAI envoi des données vers un utilisateur d’un autre FAI. La question se pose également lorsqu’il faut passer  » en transit  » par un autre réseau d’un FAI ou d’un IBP. Les réseaux passent entre eux des  » accords de peering  » qui posent des problèmes de régulation.Pour le téléphone, il existait un accord qui faisait que le fournisseur du demandeur de communication payait le réseau destinataire de la communication (demi-circuit téléphonique). Dans ce système, c’est le client qui paye son fournisseur et celui-ci reverse une part aux autres réseaux qui acheminent la communication jusqu’au destinataire. Cela a été vrai principalement lorsque la téléphonie était régulée.

    Sur internet, il n’est pas facile de savoir quels réseaux payer car les données d’une même communication sont découpées en paquets qui peuvent très bien passer par des réseaux différents. De plus, dans les débuts du réseau, les spécialistes de l’internet se méfiaient énormément de ce qui se passait en téléphonie.

    Il y a trois manières de faire pour facturer ou non les échanges entre les réseaux :

    1. Au début, l’idée était de ne pas facturer les échanges. Chaque fournisseur garde l’argent de ses clients pour lui et on considère que les échanges s’équilibrent dans les deux sens (Sender Keep All). Cette approche pose deux problèmes : cela ne marche que si les échanges sont suffisamment symétriques et d’autre part, il peut exister des  » passager clandestin  » qui profitent du réseau sans jouer le jeu (ne pas fournir la qualité de service prévue, faire passer son trafic de transit sur les autres réseaux…)
    2. Tout cela n’est pas trop grave; mais vers 1997, on en est arrivé à une facturation les accords de peering quand il y avait une forte asymétrie. Avec cette organisation, c’est celui qui a le plus gros trafic qui est en position de force. Ce qui pousse à la concentration des fournisseurs d’accès (celui qui gagne est celui qui a le plus de trafic). Avec l’arrivée du haut débit, les asymétries deviennent encore plus importantes. On assiste ainsi à une disparition des petits fournisseurs d’accès.
    3. Cette approche pose un problème lorsque l’interconnexion n’est pas directe et qu’il faut passer par un réseau intermédiaire pour relier les réseaux de deux FAI. Les accords de peering ne prévoient pas d’engagement à router le trafic en transit, ils ne concernent que les échanges entre les utilisateurs directs des deux réseaux qui s’interconnectent. Lorsque les deux réseaux ne peuvent pas se relier physiquement dans un même lieu, ils doivent alors payer un IBP (fournisseur de dorsale) qui acheminera le trafic en transit entre les deux réseaux.

    Cette évolution vers la facturation se passe par contrat entre les parties mais est le plus souvent très peu transparente et non régulée. L’avantage est passé au plus gros.

    Les accords de peering sont régulés par le contrat entre deux parties et posent parfois des problèmes : il a quelques temps le trafic Wanadoo-Free a été interrompu pendant plusieurs heures… Pour un litige entre les deux fournisseurs.

    3 Les Points d’Interconnexion – IXP

    Pour faciliter l’échange direct entre FAI lorsqu’ils sont sur un même territoire, des points d’interconnexions ont été mis en place : les IXP (Internet Exchange Points).

    Les IXP sont de deux types

    • Les Network Acces Point (NAP) qui sont publics
    • Les Commercial Internet eXchange (CIX) qui sont privés

    Les points publics favorisent les petits réseaux. Elle offre une réduction des coûts avec un lieu partagé pour toutes les interconnexions. De plus, il existe la possibilité de mettre en place des points d’interconnexion régionaux, voire locaux (Metropolitan Internet eXchange : MIX) qui conservent le trafic au niveau local et évitent d’avoir à le réacheminer sur des points d’interconnexion nationaux (GIX) lorsque des utilisateurs d’un même territoire mais disposants de FAI différents souhaitent communiquer entre eux.

    Mais lorsque les trafics sont très importants, alors le point d’interconnexion risque de créer un engorgement. En fait, les limitations de l’internet tiennent peu aux  » tuyaux  » (les échanges internationaux et la collecte se font en très large majorité par des fibres optiques qui permettent des débits de plus en plus grands, souvent bien supérieur au trafic réel, seuls les réseaux d’accès jusqu’aux utilisateurs proposent une majorité d’autres technologies de réseau). Les problèmes d’engorgement se produisent plutôt aux nœuds, les  » routeurs « , qui orientent les paquets sur les bonnes routes (les IXP sont constitués de routeurs qui acheminent les paquets entre les fournisseurs). Une des solutions serait de multiplier les points d’interconnexion au niveau local et régional.

    Les limitations de l’internet

    Les routeurs doivent traiter des tables de routage toujours plus grandes au fur et à mesure que le réseau des réseaux dispose de plus d’utilisateurs. Cela rend plus sensible les lieux d’interconnexion. Aujourd’hui, on sait bien faire des routeurs électroniques mais ils ne traitent plus le débit assez rapidement (cela revient à avoir de grosses autoroutes avec des petits ronds points). Par la suite, des routeurs tout optiques devraient permettre de mieux passer à l’échelle.

    Pour éviter ces problèmes on fait du pré-routage des paquets. Chaque paquet est marqué avec un label qui indique le numéro de la route qu’il doit suivre à l’intérieur d’un réseau donné. Entre l’entrée et la sortie, il est orienté dans des  » commutateurs  » qui n’ont à connaître qu’un nombre limité de routes dans le  » cœur de réseau « , plutôt que l’ensemble des utilisateurs de l’internet. Quoi qu’il en soit, le problème de routage entre les réseaux des fournisseurs reste aujourd’hui critique avec la montée du trafic de l’internet et du nombre des utilisateurs.

    Au début, il n’y avait qu’un point d’interconnexion national à Paris. Mais désormais il en existe plusieurs en France. Ce sont les FAI (comme Renater par exemple) ou des sociétés spécialisées (comme Telehouse) qui mettent en place des IXP.

    4 Les fournisseurs de dorsale – IBP

    L’Internet Backbone Provider (IBP) fait juste transiter du trafic entre les réseaux de deux FAI. Ce sont les plus gros acteurs qui ont pu mettre en place des infrastructures internationales. Un petit nombre de sociétés se retrouvent en situation de quasi-monopole (10 IBP principalement américains ont en charge 90% du transit : par exemple MCI depuis sa fusion avec Worldcom, Sprint dont la fusion avec MCI a été refusée pour éviter d’avoir un opérateur qui dispose de 50% du marché, Cable & Wireless, GTE, etc.)

    Cette situation apporte des dysfonctionnements qui renforcent encore le pouvoir des plus gros IBP :

    • Les IBP fixent les prix de façon unilatérale (les liaisons par fibre optique ou par satellite se facturent au volume crête : le volume maximum que l’on peut envoyer) ;
    • Ils peuvent refuser d’acheminer le transit d’un FAI qui chercherait à les concurrencer en acceptant le transit sur son propre réseau (les IBP s’assurent ainsi un monopole sur le transit) ;
    • Ils font également de la discrimination en réduisant la qualité de service pour les concurrents ;
    • etc.

    Un IPB est avant tout un vendeur de bande passante. Il ne possède pas nécessairement la Fibre optique qu’il peut louer aux grands opérateurs de télécommunication.

    Le manque de transparence est tel qu’un opérateur de télécommunication peut très bien acheter de la bande passante à un IBP et que celle-ci passe par son propre réseau loué à bas coût par l’IBP.

    Les FAI doivent donc passer par les IBP pour leur trafic international (et parfois même dans certains pays pour le trafic national entre les FAI). Cependant, ceux qui disposent de leur propre réseau national disposent d’un avantage par rapport aux  » purs players  » qui ne maîtrisent pas leur propre réseau dans un environnement peu transparent. En France, il existe quatre FAI qui disposent de réseaux nationaux qui arrivent au moins jusqu’aux villes (ou aux répartiteurs téléphoniques, le dernier kilomètre étant alors la ligne de l’abonné téléphonique en ADSL) : Wanadoo, Free, Alice et Neuf. Club internet n’a pas de réseau.

    5 Que se passe-t-il dans les pays émergents ?

    Ce qui a été expliqué plus haut a des conséquences qui rendent les communications nationales et internationales bien plus chères pour les pays en développement et paradoxalement imposent au Sud de financer le Nord…

    Au début des télécommunications téléphoniques, l’approche par demi-circuit avait pour conséquence que les pays qui appelaient le plus payaient le plus. Cela se traduisait par un flux financier Nord Sud dans le cas des télécommunications téléphoniques, jusqu’à ce que la dérégulation change la donne.

    Dans le monde de l’internet, l’arrivée des IBP puis des accords de peering payant à partir de 1997, ont conduit à une situation radicalement inverse ou le Sud finance le Nord !

    5.1 Le trafic international et même une partie du trafic national est payé exclusivement au Nord par le Sud

    • Les IBP étant principalement américains, le transit Nord-Sud, par exemple entre l’Afrique et les Etats Unis est payé par les pays africains, que ce soit dans un sens ou dans l’autre.
    • La plupart du temps, le trafic entre les différents pays africains, même voisins, passe par des IBP qui le réacheminent par le Nord et font ainsi payer deux communications internationales.
    • Dans un certain nombre de cas, les réseaux des FAI sont reliés au reste du monde exclusivement par satellite. Lorsque les réseaux des grandes viles ne sont pas reliés entre eux par des fibres optiques, les FAI doivent alors utiliser leurs liaisons satellitaires achetées au Nord également pour les liaisons nationales.
    • De même lorsqu’il n’existe pas de point d’interconnexion les échanges entre FAI du même pays doivent utiliser un point d’interconnexion… du Nord. Chacun d’eux doit alors utiliser sa bande passante internationale et payer très cher un IBP.

    5.2 Le coût de la bande passante international n’est pas le même lorsque l’on est au Nord ou au Sud

    La situation est aggravée par un autre problème : du fait de la position quasi monopolistique des IBP et du rapport de force Nord sud dans les télécommunications, les tarifs sont non négociés. Les trafics des pays en développement sont trop faibles pour que les acteurs aient une capacité de négociation. Les prix pour les Africains sont plus élevés que ceux proposés pour le reste du monde.

    La situation est particulièrement cruciale dans le domaine des satellites, seule solution le plus souvent lorsqu’il n’existe pas d’infrastructure en fibre optique : ainsi, non seulement le matériel coûte plus cher du fait des taxations et la mise en place d’une connexion satellite spécifique pour l’Afrique est plus chère du fait du moindre trafic que sur des liaisons satellite au Nord ; mais de façon encore plus incroyable, les réseaux satellitaires mondiaux constitués de flotte de satellites et dont la bande passante devrait normalement coûter le même prix partout, reviennent environ quatre fois plus chère lorsque l’on est en Afrique.

    5.3 La fibre optique existe en Afrique mais n’est pas moins chère que le satellite

    Depuis avril 2002, une Fibre Optique a été posée autour de l’Afrique. Elle part du Portugal, fait le tour du continent et rejoint ensuite l’Asie (Sat3 WASC Sake). Elle permet aux pays proches de la Mer qui y sont connectés et à certains pays plus à l’intérieur (qui s’y sont reliés en posant une fibre optique qui traverse les pays côtiers), de ne pas avoir à utiliser le satellite pour leur transit international. Cependant, suivant une estimation faite par Laurent Gilles de l’ENST, le coût n’a pas baissé pour autant :

    • Le coût d’un Megabit/seconde pendant un mois sur cette Fibre Optique est 3000$ si on prend un amortissement sur 5 ans des 300M$ investis
    • De plus la passerelle qui permet de relier les différents FAI à la fibre optique est le plus souvent un monopole local.
    • Le prix du Megabit/seconde par satellite est sensiblement identique et même moins cher : entre 2000 $ à 3000 $ par Mbit/s
    • Cependant, une fois la fibre amortie (selon ce calcul en 2007) le coût devrait théoriquement être divisé par 3…

    5.4 Le coût pour l’Afrique

    Une estimation réalisée en 2003 donne un coût pour l’Afrique de 400 millions $ par an ! Même si le coût du transit baisse, les pays émergents doivent rationner leurs communications.

    Il est instructif de comparer sur cette base les coûts des fournisseurs du Nord et du Sud pour un service équivalent. Ceux-ci se répartissent en trois coûts : les opérations, les connexions nationales et les connexions internationales. En donnant une base 100 pour les coûts d’opération on obtient la comparaison suivante :

    • Pays de l’OCDE : opérations = 100 + connexions nationales = 12,5 + connexions internationales = 12,5
    • Pays en voie de développement : opérations = 100 + connexions nationales = 100 + connexions internationales = 200

    Du fait des distorsions de concurrence entre le Nord et le Sud, il revient plus de trois fois plus cher de se connecter à l’internet au Sud plutôt qu’au Nord

    5.5 Mettre en place des points d’interconnexion pour faire baisser les coûts

    S’il y avait plus de trafic, ou même une mutualisation des trafics, il y aurait plus de possibilité de négociation. Le pouvoir des IBP est lié à la rareté des points d’interconnexion.

    Comment baisser les coûts : l’exemple de la Mongolie

    En Mongolie, avant 2001, tous les FAI devaient utiliser une connexion satellite pour leur trafic international mais également pour échanger du trafic entre eux car il n’existait pas de point d’interconnexion. Outre le coût, le délai entre deux utilisateurs disposant de FAI différents était de plus d’une seconde du fait des deux  » sauts  » par satellite nécessaires pour que les FAI s’interconnectent dans un autre pays, empêchant certains usages.

    En janvier 2001, une réunion entre FAI a eu lieu à Oulan-Bator. Trois mois seulement après, en avril 2001, est né le MIX (Mongolian Internet eXchange). Trois premiers FAI ont commencé à échanger leur trafic. Les coûts d’interconnexion ont chuté et le délai a été ramené à 10 ms.

    En 2002, le MIX permettait l’échange des données entre les 6 principaux FAI du pays.

    En Asie, des points d’interconnexion existent à Séoul, Honk-Kong, Mongolie, Cambodge…

    Depuis 2004, il existe 10 points d’interconnexion sur le continent africain, mais beaucoup de réseaux sont reliés au reste de l’internet par satellite et donc pour l’instant passent par des IBP du Nord et s’interconnectent dans les pays de l’OCDE.

    Les prix baissent également lorsque le marché s’ouvre et que les opérateurs monopolistiques doivent accepter la concurrence. En Ouganda, avant l’ouverture du marché en 1997, il existait 5000 utilisateurs de l’internet. En 2003, ce nombre est passé à 125000. Mais l’ouverture du marché intérieur n’est pas suffisant et il est nécessaire que le marché du transit international s’ouvre plus également.

    6 Débats : agir sur l’architecture pour mutualiser et réguler

    Trouver des solutions pour ramener le coût des télécommunications des pays émergents au niveau des autres pays de la planète n’est pas tant un problème de financement qu’une question de diffuser l’information qui permet de mettre en place les bonnes solutions.

    Aujourd’hui, malgré une grande hétérogénéité d’acteurs, l’évolution des règles du jeu favorise très fortement les plus gros. Des pistes commencent à apparaître sur la régulation comme mettre en place une régulation sur les accords entre fournisseurs.

    Une meilleure compréhension des questions d’architecture permet également de trouver des solutions. Les échanges à la fin de la présentation entre les membres de Vox Internet ont permis d’illustrer l’importance d’une bonne compréhension des aspects architecturaux dans des cas très variés.

    6.1 Les réseaux neutres pour offrir plus pour moins cher : l’exemple de Tierp

    Même dans les pays développés, le haut débit a parfois du mal à arriver partout. C’était le cas par exemple de Tierp, une ville de 20000 habitants située à 150 Km au Nord de Stockholm, trop petite et trop éloignée pour intéresser les fournisseurs d’accès.

    A partir de 2000, la municipalité a construit un réseau haut débit reliant les différents établissements publics. Ce premier réseau a été amorti en seulement quelques années grâce au économies réalisées sur les télécommunications locales entre les services.

    Mais la ville à également étendu son réseau pour qu’il puisse couvrir l’ensemble de la population (la moitié du coût était nécessaire car ce réseau se mutualisait avec celui des services publics) et a également posé une fibre optique entre Tierp et Stockholm.

    La ville a alors décidé que l’opérateur de son réseau devrait rester  » neutre  » et ne pas offrir de services aux utilisateurs. Ainsi, il devenait possible de proposer aux FAI de bénéficier de clients à Tierp simplement en s’interconnectant depuis Stockholm où ils disposent déjà d’infrastructure. Les utilisateurs à Tierp bénéficient ainsi de services à très haut débit à un coût similaire à celui du simple haut débit à Stockholm et peuvent même choisir leurs fournisseurs grâce à l’architecture de réseau neutre décidée par la ville.

    Il existe également des réseaux neutres en France pour des villes (Pau) mais également au niveau de région (le réseau Dorsal en Limousin son réseau qui relie les différentes communes de la région à disposition de tous les FAI au même prix pour qu’ils y proposent leurs services plutôt que de confier son fonctionnement à un opérateur qui s’occuperait à la fois du réseau et des services)

    6.2 Mutualiser les réseaux des ministères en France

    En France, les ministères ont mis en place des réseaux différents pour relier les différents services qui dépendent d’eux sur le territoire : l’Intérieur ou la Défense par exemple ont leur propre réseau. La gendarmerie n’a pas son propre réseau, mais a un contrat avec France Telecom. L’éducation nationale utilise le réseau Renater, etc.

    Se pose le problème de l’interconnexion entre ces réseaux nationaux. Historiquement les différents ministères ne s’en occupaient pas.

    Un point d’interconnexion a été mis en place entre les réseaux des ministères : ADER (ADministration En Réseau). Une douzaine de réseaux publics y sont interconnectés, mais le trafic d’un ministère vers l’internet par exemple ne peut pas transiter par le réseau d’un autre ministère. Il est donc nécessaire de payer 10 réseaux sur tout le territoire là où un seul pourrait suffire.

    Ce choix a été fait pour des questions de sécurité. Pourtant, il est possible de séparer l’architecture des réseaux physiques (qui nécessitent du génie civil pour la pose de câbles) des réseaux  » logiques « . Ainsi, il est possible de construire des  » tunnels IP  » qui permettent de transmettre des données cryptées dans un réseau partagé.

    Le Royaume Uni a au contraire décidé de faire un contrat global pour les réseaux de l’Etat. Cela permet non seulement de mutualiser les infrastructures physiques mais également d’optimiser en permanence le trafic en fonction des besoins.

    6.3 Couverture du territoire en Haut débit : symétrique ou asymétrique

    Aujourd’hui, la France est en Avance sur la couverture en haut débit grâce à l’ADSL. Mais il s’agit d’une architecture asymétrique qui présuppose une logique de consommation (l’utilisateur envoie un peu pour demander et reçoit beaucoup avec les informations demandées).

    On observe depuis longtemps que dans les communications aussi bien téléphoniques et que de données, les échanges entre personnes sont bien plus importants que la distribution de contenus (voir Andrew Odlyko, content is not king : http://www.dtc.umn.edu/~odlyzko/doc/history.communications2.pdf )

    L’ADSL va de pair avec une logique hiérarchisée comme celle du réseau téléphonique. Si une solution plus symétrique avait été choisie (le SDSL par exemple) alors il aurait été plus naturel de développer des points d’interconnexion locaux.

    Il existe de nombreuses autres technologies (rassembles sous le terme de technologies alternatives) qui permettent d’apporter également le haut débit, en particulier dans les endroits où l’ADSL n’arrive pas ou lorsque l’on souhaite des débits supérieurs à ceux permis par l’ADSL. La plupart permettent des débits symétriques qui sont plus dans la logique de l’internet et des usages autres que le Web (mail, visiophonie, messagerie instantanée, téléphonie IP…) : c’est le cas des réseaux sans fils (.. .), de la fibre optique, etc.

    L’appel d’offre sur les technologies alternatives de la Diact a permis à de nombreuses collectivités territoriales de proposer des architectures intéressantes (Télémédecine sur l’Ile de Ré, Télévision participative pour recréer du lien social à Evry…)

    6.4 Y a-t-il un débat sur les architectures ?

    Quelle architecture ? comment a-t-on pensé le rapport au centralisme?

    Il s’agit d’un débat qui a eu lieu entre 1995 et 1998 et qui a disparu parce que le réseau en étoile a gagné. Mais le sujet est en train de se rouvrir.

    Il existe des réseaux qui proposent des approches alternatives comme Fon ou Ozone. Mais l’interconnexion des différents réseaux (Wi-Fi dans ces cas) utilisent le plus souvent l’ADSL. Il n’est pas toujours facile de coller du pair à pair dans un réseau en étoile

    Finalement, le réseau des réseaux internet qui a été conçu comme un véritable réseau décentralisé, a annexé le réseau téléphonique physique mais au passage à vu une grande part de son architecture passer en étoile hiérarchisée.

    Comment refaire du réseau sur du réseau? Cela bute assez vite sur le contrat que les individus ont avec leur FAI et sur la concentration de ce secteur qui est intervenue ces dernières années. La logique de dernier kilomètre des opérateurs peut faire place à une logique de  » premier kilomètre  » des collectivités ou d’associations (voir Jacques François Marchandise, libérer le premier kilomètre : http://www.internetactu.net/?p=3037 ). Si la pose de câbles coûte cher en génie civil, les réseaux sans fils permettent de trouver d’autres voies (y compris par l’interconnexion sans fil de réseaux sans fils : les  » réseaux mesh « ).

    7 Personnes et ressources sur les architectures alternatives

  • De la parole à l’internet en passant par l’écrit

    Ce texte est inspiré des présentations aux Rencontres Intelligence Collective 2006 à Nîmes de Bruno Bachimont  » Support de connaissance et Intelligence Collective « , de Evelyne Biausser  » le projet en environnement complexe comme émergence d’intelligence collective  » et de Pierre Levy  » IEML, finalité et structure fondamentale  » ainsi que diverses autres lectures et réflexions…

    Plutôt que de considérer les technologies de l’information et de la communication comme une interface entre l’homme et les mondes virtuels, nous pourrions considérer que l’homme avec sa capacité d’abstraction est lui-même une interface entre le monde matériel que nous observons et le monde des connaissances, des idées1. Nous sommes capables d’imaginer des choses et parfois ensuite de les réaliser, de les rendre concrètes. A l’inverse, l’observation du monde nous sert de support à imaginer des choses nouvelles.

    L’homme sans langage

    Mais sans aide, nous avons des capacités cognitives limitées. Sans le langage par exemple, l’homme comme les autres animaux ne peut distinguer et dénombrer facilement plus de cinq choses différentes car il ne dispose que de cinq groupes de neurones dans la zone frontale. Prenons un exemple :  » un corbeau causait du tort à un paysan, car il faisait fuir les oiseaux de son pigeonnier. Le fermier s’arma d’un fusil et prit position dans la tour. Le corbeau se tint à distance du toit, attendant que le fermier s’en aille. Le paysan revint alors avec un complice : le complice ressortirait, faisant croire à l’oiseau que le pigeonnier était vide. Le volatile, prudent, attendit que les deux hommes soient repartis. En fin de compte, il fallut cinq comparses pour berner l’oiseau « .

    L’homme unidimensionnel (le discours)

    Avec le langage, tout change. Nous pouvons nommer les choses, et même donner un nom pour un nombre quelle que soit sa grandeur. Mais si nous pouvons donner un nom aux choses et même aux concepts abstraits, nous pouvons aussi les placer selon une suite pour construire un discours. Le langage a permis de construire des argumentations, d’utiliser notre rationalité. Mais le langage oral est par nature linéaire car il s’enchaîne dans le temps.

    Il existe plusieurs types de langages et donc plusieurs types de pensée. Par exemple les Chinois, en dehors de leur écriture par idéogrammes prononcent chaque mot sous forme d’une seule syllabe. Le nombre de sons d’une syllabe étant limité, il existe de nombreux mots qui se prononcent de la même façon. Ainsi, le chinois est une langue qui joue sur les liens entre les mots et les ambiguïtés, par rapport à nos langues occidentales qui elles, tentent au contraire d’établir un discours apparemment le moins ambigu possible. Ces différences de discours et de pensée ont poussé l’helléniste François Jullien à  » passer par la Chine pour mieux lire le Grec « …

    L’homme bidimensionnel (la classification et le schéma)

    Avec l’écrit, certaines choses nouvelles deviennent également plus simples comme l’indique Bruno Bachimont : les catégories et les sous catégories se représentent bien plus facilement par des listes structurées (la question de savoir si par exemple la tomate est un fruit ou un légume ne se pose pas dans les sociétés uniquement orales qui ont beaucoup moins recours à la catégorisation…). De même, avec l’arrivée de l’écrit, les schémas, tableaux et formules permettent de présenter certains concepts complexes de façon plus aisément appréhendable qu’avec un discours linéaire. Il devient possible d’ajouter un  » supplément de sens  » par rapport à l’oral. L’anthropologue Jack Goody dans la raison graphique montre les conséquences de l’invention de l’écriture sur le processus cognitif humain.

    La lecture elle-même a évolué : lorsque l’on a ajouté des blancs entre les mots dans les textes (pratique qui s’est généralisée au VIIème siècle), il est devenu possible d’avoir une  » lecture silencieuse  » – c’est à dire une lecture qui ne nécessite pas de prononcer chaque mot dans sa tête. La lecture silencieuse permet de lire un texte au moins deux fois plus rapidement par rapport à un texte écouté… ou d’apprendre au moins deux fois plus dans le même temps. Les techniques de lecture rapide permettent d’ailleurs d’avoir une vue globale du texte pour en repérer les mots clés afin d’en comprendre plus rapidement le sens.

    L’homme multidimensionnel (avec le numérique)

    L’arrivée des documents numériques change-t-elle quelque chose ? Nous apporte-t-elle un support pour développer nos capacités cognitives ? Dans ce cas le document est à la fois spatial (éventuellement même en plusieurs dimension et pas simplement  » à plat « ), mais également il peut évoluer dans le temps et en fonction du profil de la personne qui le lit. Finalement, le numérique peut être vu comme de  » l’écrit manipulable « . Ce nouveau support, comme le langage ou l’écrit pourrait nous rendre plus faciles de nouveaux modes de pensée jusqu’à présent hors de notre portée.

    Parmi les éléments qui sont représentés plus simplement par les documents numériques, on peut citer :

    • le multimédia (possibilité de mixer non seulement du texte et des images mais aussi des sons, des vidéos, des odeurs, des interfaces haptiques…)
    • l’interconnexion (sous forme de réseaux de documents reliés par des hyperliens)
    • La personnalisation par des manipulations automatiques. Il est possible par exemple d’utiliser des couches diverses que l’on peut faire apparaître et superposer à loisir (comme c’est le cas avec les Mashup dans le Web 2.0 ainsi que dans la notion de  » calques  » proposée par Evelyne Biausser pour visualiser les compétences collectives dans les collectivités territoriales)

    Leibniz disait :  » Il y a deux labyrinthes fameux où notre raison s’égare bien souvent : l’un regarde la grande question du libre et du nécessaire, surtout dans la production et dans l’origine du mal ; l’autre consiste dans la discussion de la continuité et des indivisibles qui en paraissent les éléments, et où doit entrer la considération de l’infini.  » Les nouveaux supports de notre raison nous permettront-ils de sortir de ces labyrinthes ? Dans tous les cas, ils devraient mieux nous permettre d’appréhender la pensée complexe qui sous-tend les réseaux humains et techniques.

    Les documents numériques ont une autre particularité, ils s’échangent et se mixent facilement. Avec l’internet, nous passons à une autre étape : au lieu de lier entre eux un petit nombre de documents (par exemple au sein d’un CD ROM), c’est une grande partie des documents produits par l’humanité qui deviennent accessibles et liés en réseau. En plus des caractéristiques propres aux documents numériques, l’Internet nous apporte l’ubiquité.

    L’humanité multidimensionnelle

    Mais pour Pierre Levy, il reste trois problèmes pour aller plus loin et permettre que cette mise en réseau de la connaissance nous fasse passer de capacités cognitives individuelles à une véritable intelligence collective à la dimension de l’ensemble de notre civilisation (de l’hominisation à l’humanisation comme le dit Edgar Morin) :

    • La gestion des connaissances tout particulièrement dans les Sciences Humaines et Sociales (aujourd’hui fragmentées en disciplines et en théories)
    • L’adressage sémantique des données numériques pour construire un véritable système de coordonnées du cyberespace pour mettre en réseau l’ensemble des connaissances
    • Une fois que l’on a résolu ces deux premiers problèmes, on peut alors se poser la question de l’autogouvernance de l’intelligence collective et du développement humain.

    La construction d’un système symbolique capable de mettre en réseau au-delà des documents, les concepts qu’ils contiennent, permettrait de passer d’une vision individuelle à une intelligence collective globale. Après la parole, l’écrit et le numérique, ce quatrième outil de la cognition humaine, s’il aboutissait, représenterait une étape décisive pour le développement humain.

    Cependant, un tel langage symbolique adapté à l’échange entre les hommes et les machines, ne serait pas pour autant un langage pivot pour, par exemple, la traduction automatique. En effet, traduire un texte en une série de concepts symboliques nécessite une interprétation (comme nous l’avons vu, le chinois par exemple permet une infinité d’interprétations, mais c’est le cas également à notre corps défendant, des textes dans notre propre langue). La traduction d’un document dans un système uniquement symbolique, nécessiterait comme n’importe quelle traduction de qualité, une intervention humaine, de préférence celle d’un expert, afin d’en choisir une interprétation pertinente à défaut d’être complète. Le document traduit ne serait donc qu’une interprétation du document original, mais elle permettrait alors la mise en réseau automatique de ses concepts avec tous les autres documents. L’ensemble constituerait alors une couche symbolique au-dessus de l’internet qui permettrait d’exploiter le réseau humain et technique comme un véritable cerveau global.

    Le projet IEML (Information Economy Meta Language) lancé par Pierre Levy, poursuit cette ambition à partir de quelques primitives :

    • Un pôle pragmatique composé de deux éléments : le Virtuel et l’Actuel
    • Un pôle sémantique composé de trois éléments : le Signe, l’Etre et la Chose

    Le pari d’IEML est de retrouver, par une recombinaison de ces 5 primitives, les événements, les relations et même les idées. Cela impliquerait que le nombre d’idées, même immense, est fini (il les évalue à environ 240 millions). Cela est dans la droite ligne des approches des sciences de la complexité et d’une vision discontinue du monde, très différente de la vision mécaniste du XVIIème siècle… Le nombre de  » phrases  » permettant de combiner ces idées serait encore plus astronomique (1825 phrases possibles).

    Ces phrases pourraient ensuite être elles-mêmes combinées sous forme de différents types de graphes : linéaire dans le discours oral, ou bien sous forme d’arbres ou de matrices comme le permettent les documents écrits, ainsi que bien d’autres formes en réseau évolutif permis par les documents numériques.

    L’arrivée du langage et de l’écrit ont été de véritables accélérateurs du développement humain en rendant accessible aux capacités cognitives de l’homme des modes de pensée toujours plus élaborés. Le document numérique présente toutes les caractéristiques d’une nouvelle étape permettant à l’homme de franchir une nouvelle étape. En apportant l’ubiquité de ces documents numériques, l’internet pourrait permettre encore une autre étape : le passage de la cognition individuelle à l’intelligence collective à une échelle globale. Mais pour cela, ce ne sont pas simplement les documents qui doivent être interconnectés et manipulables, mais bien leurs concepts symboliques. Le traitement symbolique de l’ensemble des documents ne se ferait plus dans des cerveaux isolés. Le développement d’une couche symbolique à l’internet, si elle s’avère possible, rendrait accessible le passage de l’intelligence individuelle – augmentée par le langage, l’écrit et le numérique – à une véritable intelligence collective globale.

    [1] Dans une formulation moins  » dualiste  » nous pourrions dire que l’homme peut chercher à aborder la réalité utilisant différentes représentations, différents points de vue : par exemple par l’observation, par la raison… Le développement du lien entre ces différentes représentations permet d’obtenir une meilleure idée de la Réalité.

  • L’abondance comme moyen d’innovation

    J’ai mis cet extrait du livre « Internet – Tome 2 : services et usages de demain » (voir la partie sur ) directement en article car elle présente les relations entre les approches plannifiées, coopératives et économiques, et à ce titre, elle complète le livre « la coopération, nouvelles approches » présenté dans la section sur la .

    Le futur vu par le passé

    En 1968, Stanley Kubrick, dans son film culte « 2001 l’odyssée de l’espace [1] », imagine le futur en se projetant plus de trente ans en avant. Un ordinateur imposant, HAL 9000 [2], a des fonctionnalités de reconnaissance vocale très abouties et sait même lire sur les lèvres. Il dispose de capacités de réflexion avancées et aussi de sentiments tel que la peur de la mort.Aujourd’hui 2001 est derrière nous et le paysage est très différent. Si certaines technologies n’ont pas encore tenu leurs promesses (les ordinateurs ne lisent pas encore sur les lèvres…), les ordinateurs ont eu tendance à se multiplier et à devenir beaucoup plus petits, sans parler des téléphones mobiles qui ont envahi notre vie. Il ne s’agit pas de dire que le futur a été mal prévu, mais que dans certains cas il est réellement imprévisible. Qui aurait pu prévoir que les voitures volantes imaginées dans les années 60 seraient remplacées en 2001 par … les trottinettes des cadres ?

    Le monde est-il prévisible ou imprévisible ?

    Notre civilisation est peu habituée à prendre en compte l’imprévisible. Elle considère qu’une étude scientifique appropriée permet de prévoir le déroulement futur en fonction de ce que l’on connaît du passé et du présent. Au cours du XXème siècle pourtant, la science elle-même a subi par trois fois un véritable séisme en découvrant des phénomènes imprévisibles en mécanique quantique, dans les théorèmes de Goëdel et dans la théorie du chaos [3]. Aujourd’hui c’est au reste de la société de découvrir que le monde n’est pas toujours prévisible. Deux grands domaines doivent prendre en compte ce facteur nouveau :

    • L’innovation.
      • Le monde évolue de plus en plus vite, donnant une part plus grande à l’imprévisibilité. C’est le cas en particulier dans le domaine des nouvelles technologies de l’information et de la communication que nous avons traité dans le tome 1 de cet ouvrage. Ce domaine suit deux des trois lois de Kurzweil [4] : La loi de croissance exponentielle (la fameuse loi de Moore que nous avons déjà étudiée dans le tome 1) et la loi des retours accélérés qui montre que plus les sciences et technologies avancent et plus elles construisent les outils pour se développer rapidement ;
    • L’homme.
      • L’évolution des moyens de production a permis des économies d’échelle et a conduit à une saturation des marchés. Le consommateur prend une importance nouvelle ce qui rend les réactions du marché plus imprévisibles.

    L’imprévisibilité n’est donc pas une chose neuve, mais elle devient indispensable à prendre en compte dans les stratégies. L’équilibre entre ce qui est prévisible et ce qui ne l’est pas évolue dans le temps. Il devient aujourd’hui fondamental d’accepter cette imprévisibilité.

    Le monde est-il abondant ou rare ?

    Nous sommes habitués à vivre dans un monde où il nous faut gérer des biens rares. Pourtant, si les biens matériels ont tendance à devenir rares (nous parlerons plus précisément de « biens rivaux » dans le chapitre sur l’économie), il en va différemment des biens immatériels. La connaissance par exemple est conservée par celui qui la transmet. Elle s’enrichit même des multiples échanges. Les biens immatériels se transfèrent rarement, bien plus souvent ils se multiplient.Les nouvelles technologies poussent vers la numérisation qui favorise à son tour une plus grande abondance. L’information peut même devenir surabondante ! Les avantages et les inconvénients de chacune des situations sont différents sinon contraires. Les méthodes pour les aborder sont différentes.De nouveau, l’abondance n’est pas une idée neuve. Les histoires que l’on se raconte aux veillées depuis des temps reculés se propagent par recopies toujours plus nombreuses comme nos fichiers numériques actuels (bien que la copie pouvait être moins semblable à l’original) [5]. Mais l’équilibre entre la rareté et l’abondance évolue. Aujourd’hui les deux notions antagonistes cohabitent et il devient fondamental de prendre en compte en plus des concepts de rareté, ceux d’abondance.

    Quelques approches pour gérer cette diversité

    Nous avons donc à vivre dans un monde où la diversité est de plus en plus apparente. Le prévisible cohabite avec l’imprévisible et la rareté avec l’abondance. Ces deux couples sont apparemment distincts mais sont liés par une relation subtile.

    Souvent, la rareté et l’imprévisibilité sont vues comme des contraintes qui limitent les possibilités des hommes. Pour mieux gérer ces contraintes, ceux-ci ont imaginé plusieurs approches qui consistent à associer un des éléments de chacun de ces couples : prévoir pour gérer de façon efficace la rareté, utiliser l’abondance pour s’adapter à l’imprévisible ou encore prendre en compte à la fois la rareté et l’imprévisibilité à l’aide d’une régulation par la valeur.

    Comprendre ces différentes approches, leurs domaines d’application et leurs limites nous fournira des clés pour mieux interpréter les aspects économiques et juridiques de la société de l’information.

    Scénario : Le maître du jardin

    Sylvie Roussel-Gaucherand nous présente un conte d’Arménie qui montre combien il est difficile de créer de l’abondance (le nombre d’années à vivre) à partir de la rareté (la rose) sans être prévoyant.

    Il était un roi d’Arménie. Dans son jardin de fleurs et d’arbres rares poussaient un rosier chétif et pourtant précieux entre tous.

    Le nom de ce rosier était Anahakan. Jamais, de mémoire de roi, il n’avait pu fleurir. Mais s’il était choyé plus qu’une femme aimée, c’était qu’on espérait une rose de lui, l’Unique dont parlaient les vieux livres. Il était dit ceci : « Sur le rosier Anahakan, un jour viendra la rose généreuse, celle qui donnera au maître du jardin l’éternelle jeunesse. »

    Tous les matins, le roi venait donc se courber dévotement devant lui. Il chaussait ses lorgnons, examinait ses branches, cherchait un espoir de bourgeon parmi ses feuilles, n’en trouvait pas le moindre, se redressait enfin, la mine terrible, prenait au col son jardinier et lui disait :

    - Sais-tu ce qui t’attend, mauvais bougre, si ce rosier s’obstine à demeurer stérile ? La prison ! L’oubliette profonde !

    C’est ainsi que le roi, tous les printemps, changeait de jardinier. On menait au cachot celui qui n’avait pas pu faire fleurir la rose. Un autre venait, qui ne savait mieux faire, et finissait sa vie comme son malheureux confrère, entre quatre murs noirs.

    Douze printemps passèrent et douze jardiniers… Le treizième était un fier jeune homme . Son nom était Samvel, et il affirmait vouloir tenter sa chance.

    Le roi le toisa de sa superbe et lui dit : – Ceux qui t’ont précédé étaient de grands experts, des savants d’âge mûr. Ils ont tous échoué. Et toi, blanc-bec, tu oses !  – Je sens que quelque chose, en moi, me fera réussir, dit Samvel – Quoi donc, jeune fou ?  – Je ne sais pas, exactement, je ne sais pas … C’est rare d’éprouver ce sentiment, et c’est passionnant de vouloir maîtriser l’imprévisible … J’ai peut-être peur, seigneur, de mourir en prison !

    Samvel par les allées du jardin magnifique s’en fut à son rosier. Il lui parla lentement à voix basse. Puis il bêcha la terre autour de son pied maigre, l’arrosa, demeura près de lui nuit et jour, à le garder du vent, à caresser ses feuilles. Il enfouit ses racines dans du terreau moelleux. Aux premières gelées, il l’habilla de paille. Il se mit à l’aimer. Sous la neige, il resta comme au chevet d’un enfant, à chanter des berceuses.

    Le printemps vint. Samvel ne quitta plus des yeux son rosier droit et frêle, guettant ses moindres pousses, priant et respirant pour lui. Dans le jardin, partout les fleurs étaient en abondance, mais il ne les regardaient pas. Il ne voyait que la branche sans rose.

    Au premier jour de mai, comme l’aube naissait :  – Rosier, mon fils, où a tu mal ?

    A peine avait-il prononcé ces mots qu’il vit sortir de ses racines, un ver noir, long et terreux. Il voulut le saisir . Un oiseau se posa sur sa main, et les ailes battantes lui vola sa capture. A l’instant, un serpent surgit d’un buisson proche. Il avala le ver, avala l’oiseau. Puis, soudain, un aigle descendit du ciel, tua le serpent et s’envola.

    Et là, pour la première fois, un bourgeon apparut sur le rosier. Samvel le contempla, il se pencha sur lui, il l’effleura d’un souffle et lentement la rose généreuse s’ouvrit .  – Merci, dit-il, merci. Il s’en fut au palais, en criant la nouvelle …  – Seigneur, dit Samvel au roi, la rose Anahakan s’est ouverte. Vous voilà immortel, ô maître du jardin.

    Le roi qui s’éveillait en grognant, bondit hors de ces couvertures, ouvrit les bras et rugit :  – Merveille !

    En chemise pieds nus, il sortit en courant pour contempler, admirer l’Unique rose, qui lui accorderait la jeunesse éternelle, fait rare pour un tout puissant . Puis, il ordonna : – Qu’on poste cent gardes armées de pied en cap autour de ce rosier ! Je ne veux voir personne à dix lieues à la ronde. Samvel, jusqu’à ta mort, tu veilleras sur lui ! – Oui, jusqu’à ma mort, Seigneur, répondit Samvel . Le roi dans son palais régna dix ans encore puis un soir il quitta ce monde …  – Le maître du jardin meurt comme tout le monde. Tout n’était donc que mensonge , soupira le roi … – Non, dit le jardinier, à genoux près de lui. Le maître du jardin, ce ne fut jamais vous . La jeunesse éternelle est à celui qui veille, et j’ai veillé, Seigneur, et je veille toujours, de l’aube au crépuscule , et du crépuscule au jour.

    Il lui ferma les yeux, baisa son front pâle, puis sortit voir les étoiles. Il salua chacune d’entre elles. Il s’amusa à dire « bonsoir » à chacune d’entre elles … Elles étaient très très nombreuses à illuminer le ciel de la terre … Mais Samvel avait le temps, désormais. Tout le temps !

    Une première approche : la planification

    Notre civilisation s’est concentrée depuis plusieurs siècles sur un problème bien particulier : Comment gérer la rareté de la façon la plus efficace ? Comment éviter le gâchis ? L’une des solutions trouvées est de prévoir à l’avance lorsque cela est possible pour optimiser au mieux les actions menées. La science expérimentale, à partir de Newton, a cherché à modéliser les lois de la nature à l’aide d’équations mathématiques et à en vérifier expérimentalement la pertinence. La particularité de ces équations est qu’elles sont prédictives [6]. Il devient alors possible de faire des prévisions donnant ainsi naissance à toute une science de la planification. Cette approche se diffusa en deux siècles pour aboutir à l’organisation scientifique du travail par Frederic Winslow Taylor [7]. Le succès de cette approche donna même à penser pendant une période que tout dans le monde était prévisible.Aujourd’hui, certains modes d’organisation sont basés sur la planification. Les entreprises et plus encore les administrations s’en servent comme fondement. Elle reste particulièrement pertinente chaque fois qu’il s’agit de gérer de façon la plus efficace possible des biens rares dans un environnement qui reste prévisible. Elle est cependant mal adaptée à un environnement fondamentalement imprévisible.

    Une deuxième approche : la régulation par le marché

    Une autre approche de gestion de la rareté est apparue à partir du constat qu’il n’est pas possible de tout planifier. S’il n’est pas possible de savoir à l’avance avec certitude ce qui va se passer, peut-on mettre en place un mécanisme de régulation qui converge malgré tout vers un équilibre ? L’économie libérale propose ainsi un mécanisme d’équilibre entre l’offre et la demande qui régule la valeur des biens. Le marché et le système de prix s’adaptent en continue sans avoir besoin de connaître le futur. Si les prévisions des économistes servent avant tout à planifier au mieux la réponse industrielle ou financière des acteurs, le marché lui-même s’équilibre au jour le jour quelque soit ce qui arrivera [8].La régulation par le marché semble bien adaptée à un environnement à la fois rare et imprévisible. Mais rançon de son succès, elle ne fonctionne plus dans un environnement abondant ( Quelle est la valeur d’échange de l’air ou de l’eau qui coule en abondance ?) et dans une moindre mesure dans un monde entièrement prévisible (le marché peut être toujours là mais la réponse des acteurs peut alors être planifiée).Une des grandes nouveautés de l’approche par le marché par rapport à l’approche planifiée est qu’elle nous prépare à mieux accepter la part d’imprévisibilité qui prend sa place de façon plus visible dans notre monde actuel.

    Une troisième approche : favoriser une abondance de choix

    Il existe une deuxième façon de prendre en compte l’imprévisible qui, au lieu de gérer la rareté comme la régulation par l’économie de marché, utilise au contraire l’abondance. Il s’agit, lorsqu’il n’est pas possible de savoir à l’avance quel va être le meilleur choix, de favoriser l’émergence d’une abondance de choix pour sélectionner le plus judicieux « a posteriori ». Nous avons déjà rencontré cette approche dans le tome 1, et nous avions proposé une première clef de compréhension pour définir cette méthode : « Lorsque l’environnement est imprévisible, multipliez les possibilités et diminuez les éléments critiques pour faciliter l’adaptabilité ». Nous l’avions alors appliquée à l’innovation au sein de la démarche industrielle. Nous la retrouverons dans le développement de logiciels libres innovants sous le nom de la « méthode bazar » [9]. Nous retrouvons également cette même approche pour prendre en compte la dimension imprévisible de l’être humain dans les services et les usages. L’utilisation des technologies comporte une part d’imprévisibilité. Plus nous lui offrirons de possibilités, plus le produit aura de chance d’être adapté à l’usage qu’il désire en faire. A contrario, si l’abondance de choix est bénéfique, tout passage obligé par un chemin critique peut représenter un maillon faible [10]. Cette approche permet de comprendre comment nous adapter et saisir les opportunités dans un monde à la fois abondant et imprévisible. Elle est bien sûr mal adaptée à un environnement de rareté.Cette méthode nous pousse à prendre en compte une notion encore moins familière que l’imprévisibilité : l’abondance est une dimension de plus en plus visible dans notre monde, pas forcément toujours malheureusement dans les biens matériels mais de plus en plus souvent dans les biens immatériels et la connaissance.

    Choisir parmi les trois approches

    Nous avons présenté sommairement trois grandes stratégies : la planification, la régulation par l’économie de marché et le mode « bazar ». Ces approches se basent sur un des éléments de chacun de nos deux couples : prévisible / imprévisible ; abondance / rareté. Nous aurions pu pour être complet présenter une quatrième stratégie adaptée à un monde à la fois prévisible et abondant, mais un tel environnement semble apparemment plus facile à réguler. Chacune de ces approches a les avantages de ses inconvénients : elle n’est bien adaptée qu’à un certain cas de figure. Pour comprendre les différents débats qui animent la mise en place de la société de l’information, il nous faudra être conscient de l’ensemble des aspects antagonistes de l’environnement : les éléments prévisibles comme ceux qui ne le sont fondamentalement pas, les biens qui ont tendance à être rares et ceux qui ont un penchant vers l’abondance. Ceci nous permettra de mieux comprendre à la fois la pertinence et les limites des choix parfois opposés que font les acteurs.

    La clef : Choisir une approche

    Il faut être conscient des diverses facettes de l’environnement (prévisible et/ou imprévisible ; rare et/ou abondant) pour choisir l’approche la plus appropriée tout en en comprenant les limites.

    Pourtant, être conscient simultanément d’aspects aussi opposés que ceux qui ont été proposés est loin d’être évident. Certains concepts nous sont moins familiers que d’autres. Par exemple, notre civilisation a cherché à assurer la survie puis le confort des personnes (pas toujours hélas du plus grand nombre) dans un environnement où les biens sont rares. L’évolution de notre technologie est allée dans ce sens. Une autre notion enracinée dans notre culture est que ce qui va se produire est d’une manière ou d’une autre prévisible. Ces deux caractéristiques de l’environnement, la rareté et la prévisibilité, ont tendance à nous masquer les concepts opposés au fur et à mesure que nous développons une expertise sur la meilleure façon de les prendre en compte. Nous sommes devant un dilemme : plus nous apprenons à bien prendre en compte certains types d’environnements, moins les situations opposées nous apparaissent.L’approche par la régulation de marché a eu le mérite de montrer qu’il était possible de mettre en place un équilibre même lorsqu’il n’est pas possible de savoir ce qui va arriver. L’approche « bazar » qui a été analysée beaucoup plus récemment montre des formes de régulation basées sur l’abondance. Bien que ces concepts soient plus ou moins biens perçus suivant les personnes, il est important d’accepter la part d’imprévisible et la part d’abondance pour avoir une vision d’ensemble d’une situation.Nous pouvons représenter nos critères antagonistes par le schéma ci-dessous.

    Figure 1 – Les trois approches

    Ce simple diagramme récapitule les approches présentées et en résume tout le drame : Ces approches sont non seulement différentes mais fondamentalement incompatibles entre elles !

    Réconcilier l’inconciliable

    Que se passe-t-il lorsque certaines choses sont rares et d’autres abondantes ? Comment gérer des situations où certains aspects sont prévisibles et d’autres non ? Les différentes approches cohabitent mal tant les logiques en sont différentes, voire opposées. Cette antinomie est la base de la plupart des controverses qui agitent la société de l’information. Nous en verrons des exemples dans les aspects légaux, les droits de propriété intellectuelle, l’économie ou les stratégies d’adoption des produits par les utilisateurs.Le choix de l’approche appropriée n’est pas toujours simple. Les quelques questions suivantes, pourtant classiques, nous le montrent :

    • Peut-on planifier l’innovation, par nature imprévisible lorsqu’il faut gérer de la façon la plus efficace possible les ressources disponibles ?
    • L’économie de marché ne doit-elle pas éviter à tout prix d’apporter de l’abondance pour fonctionner ?
    • La méthode bazar est-elle adaptée à des projets critiques comme envoyer un homme sur la lune (ou plutôt en envoyer un grand nombre pour avoir une chance que l’un d’eux arrive…) ?

    Il existe plusieurs réponses possibles à ce dilemme.Il est possible de choisir de favoriser un aspect lorsque l’on estime qu’il prime sur son opposé. Par exemple si l’on considère que la rareté est le facteur le plus important, alors il faut réduire le nombre des possibilités pour mieux les maîtriser. C’est le cas des progiciels traditionnels avec lesquels n’est fourni que le code objet pour éviter que les utilisateurs ne puissent le modifier eux-mêmes. Cela permet de mieux garantir l’amortissement des sommes d’argent (par essence rares et précieuses) investies dans le développement du produit. Si on considère au contraire que l’on peut bénéficier des commentaires et des contributions du plus grand nombre d’utilisateurs et de développeurs à travers le monde, alors la priorité peut être donnée à l’abondance. C’est le cas du logiciel libre, pour lequel chacun est autorisé à modifier et redistribuer le logiciel. Cela permet à chacun de proposer des corrections ou des améliorations qui peuvent bénéficier à tous. Au passage, le nombre des contributeurs est passé de la quantité forcément limitée des développeurs d’une entreprise à la masse des utilisateurs prêts à s’investir pour bénéficier d’un produit amélioré [11]. La même situation, analysée avec des priorités différentes conduit à des stratégies très différentes.La situation est la même avec le couple « prévisible / imprévisible » où des priorités différentes peuvent conduire à réduire la marge de manœuvre des utilisateurs pour mieux prévoir l’avenir d’une nouvelle technologie ou bien en laissant les utilisateurs inventer leurs propres usages et proposer des utilisations de la technologie que leurs concepteurs n’avaient pas prévues. Dans certains cas, il sera possible d’adopter des stratégies différentes lorsqu’il est possible de séparer les environnements. Ainsi certaines organisations dédient les tâches critiques à une structure hiérarchique et lancent des projets innovants dans des réseaux inter-services ou même inter-entreprise. C’est une des façons de résoudre le vieux dilemme pour avoir le beurre et l’argent du beurre : la moitié du beurre et la moitié de l’argent du beurre ! Toute la subtilité consiste ensuite à faire dialoguer ces organisations très différentes.Il n’existe pas toujours de solution simple qui permette de donner la priorité à l’un ou l’autre des aspects ou de les séparer clairement. Cet ouvrage se limite à l’analyse de la compréhension des questions posées par la société de l’information sans forcément proposer de solutions. L’idéal serait de pouvoir bénéficier des deux approches antagonistes. Bien que cela semble impossible a priori, il existe quelques pistes de recherche pour « réconcilier les contraires ». Ils feront peut être l’objet d’un prochain ouvrage…

    En direct des labos Comment faire la mayonnaise ? [12]

    Il est impossible de mélanger certaines matières [13]. Pourtant, additionner deux substances incompatibles peut parfois, dans des conditions très particulières, donner naissance à une nouvelle matière. C’est le cas de la mayonnaise qui émerge de l’huile et de l’œuf qui ne peuvent pourtant pas se mélanger.« Le grand secret de la mayonnaise : l’œuf et l’huile doivent être exactement à la même température. L’idéal : 15°C. Ce qui liera en fait les deux ingrédients, ce seront les minuscules bulles d’air qu’on y aura introduites juste en les battant. 1+1=3. »Un tel mélange improbable existe également en peinture. La tempera consiste à mélanger de l’eau, du jaune d’œuf et des pigments colorés. Dans la peinture à l’huile au contraire, l’œuf est remplacé par de l’huile. Bien que l’on attribue souvent, à tort, cette innovation au peintre flamand Jan Van Eyck qui vécut au XVème siècle, celui-ci reste cependant un brillant expérimentateur. Pour la peinture sur bois, il eut l’idée de combiner l’huile avec un diluant plus fluide que l’eau, l’œuf. Ce mélange huile, blanc d’œuf et pigments colorés sera un des secrets de l’art des primitifs flamands [14].

    En résumé

    Notre environnement évolue et laisse apparaître de plus en plus certains aspects souvent négligés jusqu’à présent :

    • Nous devons prendre conscience non seulement des aspects prévisibles mais également des aspects imprévisibles
    • Nous devons également prendre conscience de la rareté de divers biens mais aussi de l’abondance de certains autres

    Cela conduit à diverses approches suivant les types d’environnement à gérer :

    • La planification utilise la prévision a priori pour gérer la rareté de façon la plus efficace possible
    • La régulation par le marché et les prix permet de gérer de façon la plus équilibrée possible les biens rares même dans un environnement imprévisible
    • L’approche « bazar » permet de s’adapter à des conditions imprévisibles en favorisant une abondance de possibilités pour effectuer les choix a posteriori

    Chacune de ces approches est adaptée à certains environnements et mal adapté à d’autres. La société de l’information repose sur des environnements complexes. Il faut être conscient des diverses facettes de l’environnement (prévisible et/ou imprévisible ; rare et/ou abondant) pour choisir l’approche la plus appropriée tout en en comprenant les limites.


    Notes

    [1] Stanley Kubrick (réal.), 2001 a space odyssey, 1968[2] Pour la petite histoire le nom HAL est constitué de lettres qui se trouvent juste avant les trois lettres … IBM dans l’alphabet[3] Voir le tome 1 : La science et l’imprévisible p18[4] Ray Kurzweil, The age of spiritual machines, Penguinb books, 1999 (Ray Kurzweil est un des principaux représentant du courant appelé intelligence artificielle forte : http://www.kurzweilai.net/ voir aussi la présentation en français dans Automates-intelligents : http://www.admiroutes.asso.fr/larevue/2002/34/kurzweil.htm[5] Voir dans le tome 1 l’encadré « le virtuel des troubadours » dans la partie 6.3 « Quand le réel et le virtuel fusionnent »[6] De nouvelles approches de modélisation utilisées en mécanique quantique, en théorie du chaos ou dans les automates programmables montrent que quelque soit l’avis que l’on peut avoir sur l’aspect déterministe ou non du monde, il existe des domaines fondamentalement imprévisibles.[7] Le Taylorisme peut être vue comme une solution la rareté des matières premières et des produits manufacturés ou à l’inverse pour gérer l’abondance de la demande (mais avec un produit standardisé).[8] Si le marché régule la valeur des biens, il ne régule pas la richesse. Le système économique fonctionne lorsqu’il reste proche de l’équilibre. Ainsi, le monopole par exemple empêche le libre fonctionnement des lois du marché.[9] Eric Raymond, La cathédrale et le Bazar, http://www.tuxedo.org/~esr/writings/cathedral-bazaar/, traduction française par Sébastien Blondeel : http://www.linux-france.org/article/these/cathedrale-bazar/cathedrale-bazar_monoblock.html[10] Une analyse de cette méthode adaptée à la gestion de projets coopératifs est présentée dans : Jean-Michel Cornu, la coopération nouvelles approches (Voir la partie sur la ) [11] Voir la partie 5.2.2 l’exemple du logiciel libre.[12] Cet encadré a déjà été publié dans le tome 1 page 65. Il illustre bien la problématique de réconcilier les contraires.[13] Bernard Werber, l’encyclopédie du savoir relatif et absolu, p18-19, Albin Michel, Paris 2000[14] Elodie Hanen, Les primitifs flamands, X-passion n°24 , 1999 http://www.polytechnique.fr/eleves/binets/xpassion/numeros/xpnumero24/xp24ind.htm

  • Realité virtuelle

    :

  • Interfaces Homme Machine

    Ecran Clavier Imprimante
    Les 5 sens
    Pensée
    Implants
    • Kevin Warwick implant dans le bras gauche en 1998 et 2002. Il prévoit un implant dans le cerveau pour 2015 pour faire de la transmission de pensée y compris par internet
    • Autorisation de la FDA pour ? pour l’implant sous cutané de microprocesseurs
    • L’artiste canadienne Nancy Nisbet s’est fait implanter une puce dans chaque main « afin de créer le doute sur [sa] propre identité » 2002
    • Implant dans le bras dans une boite de nuits
    • Rabots commandés à distance grâce à 3 implants (2 dans le cortex somatosensoriel pour buoger et tourner et 1 dans le faisceau median du télencéphale pour le récompenser en lui procurant du plaisir)…

    :

  • Objets communiquants

    • nombre d’objets : plus de mobiles invisibles que de terminaux classiques en 2005 (services de machine à machine pour administrer des distributeurs automatiques de véhicules) (01 réseaux 9/2002), voir aussi des exemples d’objets en « informatique transparente » (12/2003) publié par Asia Pacific Perspectives
    • nombre de robots : étude « World 2001 robotic » 750 000 en 2001 dont 100000 nouveaux en 2000 – prévision 975 600 robots en 2004, voir aussi quelques exemples de robots (5/2004) au ? organisé par Wired.
    • jeux : Ping Pong Plus : une mer digitale est projetée sur la table et réagit par des ondes et des poissons frétillants, Brain Ball : les 2 joueurs sont bardés de capteurs mesurant le signal électrique du cerveau. Entre les deux une petites balle aimantée qui se rapproche du joueur le plus stressé. GenieBottles (12/2003) permet d’associer des mouvements et des interactions avec des « génies » : Junar, Opo ou Seala qui peuvent aussi interagir entre eux. Une application future pourrait être l’apprentissage de l’histoire à un jeune public.
    • Leonardo (12/2003) est un robot sociable et sensible (61 degrés de liberté dont 32 d’expressions faciales)
    • Collaboration de robots : entomoptères volants de la Nasa pour explorer mars (deux ailes qui battent entraînées par un moteur chimique (proto 2003, opérationnel 2010). Voir quelques autres photos de robots biomimetics

    :

  • Architecture des réseaux metropolitains, départementaux ou régionaux

    D’autres articles devraient venir sur les architectures…

    :