Editorial CyberPouvoirs
Programme | Bibliographie | Liens |Textes et Interviews| Conférences | Mémoires| Documents | Technologies| Fracture Numérique|Procès Antitrust | Contact

 

COMBATTRE LA NOUVELLE GLACIATION DE L’INTERNET


Longtemps considéré comme le moteur de la croissance du secteur des technologies, l’Internet connaît une série de mutations qui pourraient rendre le développement des innovations plus incertain. Le verrouillage technologique de l’architecture de l’Internet pourrait avoir des conséquences au-delà du secteur des technologies.

De la loi de Moore…

Avec le PC, la puissance s’est rapprochée des utilisateurs mais elle est restée pour partie « invisible ». A mesure que les processeurs suivaient la loi de Moore, les systèmes d’exploitation et les applications devenaient plus exigeants en terme de puissance. Nous avons alors connu l’apogée du PC avec le duopole technologique mis en place autour du tandem « Wintel ». Mais après la généralisation de l’interface symbolique sur Windows, aucune avancée ne s’est produite jusqu’à l’irruption du web pour le grand public. Le web constituait alors une avancée majeure des « fondamentaux » de l’ergonomie. L’Internet et le web ont alors transformé un agrégat de machines « autistes » en une source d’informations et d’innovations technologiques. Le mythe d’une informatique aussi accessible que l’électronique grand public prenait forme.

….à la fin de celle de Metcalfe ?


De la loi de Moore nous sommes passés à celle de Metcalfe qui établit que la valeur du réseau croit avec le carré du nombre de ses utilisateurs. Cette loi qui définit l’attractivité du réseau semble se heurter à ses limites. En effet la complexité sous jacente des ordinateurs personnels représente désormais un frein à l’extension du PC vers les populations non-technophiles. La « massification » que d’aucuns imaginaient se heurte à des réalités à la fois économiques et technologiques. Les terminaux d’accès conservant des prix élevés (héritage de la montée en puissance régulière des PC à prix constant). Et l’industrie du PC connaît des signes de remise en question importants. Après de nombreuses tentatives infructueuses pour créer de nouveaux marchés, les terminaux dédiés redeviennent un objectif industriel au point que certains spécialistes décrivent la disparition prochaine des PC devenus trop complexes .
Parallèlement, dans l’ensemble des pays développés l’usage de l’Internet est en phase de stabilisation. Et l’on note en particulier une désaffection vis-à-vis de l’exploration sur Internet. Le temps réservé à la découverte diminue à mesure qu’une poignée de sites concentrent l’essentiel du temps passé par les internautes.

Diversification des terminaux ou éradication des machines universelles ?

Une autre conséquence de ce mouvement de concentration des sources d’informations sur l’Internet concerne les « majors » du disque et du film. A mesure que l’Internet se transforme en plateforme de diffusion, des pressions s’exercent pour éviter que les technologies de l’Internet et des PC ne deviennent le « triangle des Bermudes » des groupes de communication. L’architecture du PC cette « machine de Turing » capable d’exécuter des fonctions diverses est aussi l’objet des critiques des groupes de communication qui y voient le maillon faible dans la distribution des contenus numériques. En effet les risques de décryptage des informations sur les PC sont beaucoup plus grands que sur des plateformes propriétaires. Les « set-top boxes » dédiées permettent en effet un contrôle plus strict des flux d’informations.
L’interopérabilité devient l’un des points critiques de cette nouvelle économie de la protection des œuvres, en effet les systèmes de protection des œuvres (ou DRM ) rendent plus difficile voire impossible l’échange entre des plateformes différentes. Ainsi pour protéger les intérêts des détenteurs de droits, les lois américaines sur le copyright ont « criminalisé » les développements logiciels dans le secteur du cryptage ainsi que dans le domaine des applications de « pair à pair » comme Napster et ses héritiers. Ces technologies qui comptent parmi les plus prometteuses sont à la fois un objet et un vecteur des innovations pour l’ensemble des usagers de l’Internet et cela au dela de leur utilisation actuelle pour l’échange de fichiers musicaux. Les innovations de l’Internet sont prises dans un étau technologico-juridique dont les conséquences pourraient s’étendre à l’ensemble des secteurs industriels.


Tentations et paradoxes du contrôle :

Plus encore, c’est l’unicité et la neutralité des infrastructures de transport (aussi nommé principe du end to end) qui est remis en question. Ce principe qui a assuré le succès de l’Internet veut que l’intelligence (et donc la puissance de calcul) soit située à l’extrémité des mailles du réseau. Le réseau ayant pour seule fonction le transport des informations jusqu’aux utilisateurs situés à ses extrémités. Mais pour l’ensemble des acteurs des réseaux c’est le contrôle de cette infrastructure et sa « propriétarisation » qui permettra de mettre en place les sources de revenus les plus importante au risque de remettre en cause les fondements même de l’Internet. Pour mémoire les expériences menées jusqu'ici par les "majors" en matière de vidéo à la demande ont toutes été des échecs retentissants, comme celui "historique" de Time Warner en 1997 à Orlando. Les terminaux dédiés recréent les conditions d’une recentralisation avec des serveurs centraux puissants et des terminaux « stupides ».
Par ailleurs sur les réseaux à haut débit, les usagers deviennent des consommateurs/téléspectateurs et perdent progressivement leur capacité d’auto-édition. A terme, la conséquence de cette broadcastisation (ou télévisualisation) de l’Internet pourrait être l’appauvrissement des contenus et des services de l’Internet.

Quelle révolution technologique ?


A mesure que ce contrôle sur l’architecture des systèmes se met en place c’est aussi la fragmentation de l’Internet qui se dessine et avec elle, les risques déjà sensibles de désaffection du réseau. La question qui se pose désormais est de savoir si les prochaines vagues d’innovations pourront être liées aux réseaux ou s’il nous faudra attendre une hypothétique révolution technologique pour qu’elles puissent se diffuser. L’Internet a utilisé le réseau téléphonique comme support pour son extension, le « méta-réseau » qui utilisera l’Internet comme base n’en est encore qu’à ses balbutiements et s’il est orienté vers une distribution contrôlée des contenus il risque d’être un obstacle important aux innovations technologiques.
En ce sens, les arbitrages entre les différents acteurs (technologiques et non-technologiques) de l’Internet auront des conséquences durables sur l’ensemble de nos sociétés.


Bernard Benhamou (bernard@netgouvernance.org)
est maître de conférence pour la Société de l’Information à Sciences Po et membre du comité de rédaction de la lettre de Cyber-Pouvoirs

    Retour à la page d'accueil