par Gérard Montassier, Ministre plénipotentiaire, Président du Conseil de Fondation

«Je pense que ce colloque a été une excellente idée, et j’espère qu’on reproduira dans un livre les riches interventions qui ont été présentées ici et les questions qui ont été soulevées. Ce serait très bien en effet de faire ce livre pour donner à d’autres la possibilité de réfléchir sur tout ce que nous avons appris aujourd’hui.»

M. SoarÈs (conclusion du colloque)

Le colloque sur les «nouvelles technologies de la communication» a été décidé par le Conseil de Fondation et son Comité d’honneur pour tenter d’y voir clair sur un sujet très controversé, mais jugé par beaucoup comme le défi majeur du xxie siècle.

S’agit-il, en effet, d’une «nouvelle révolution»? Dans quels domaines fera-t-elle sentir ses répercussions? Peut-on évaluer ses avantages et ses inconvénients ? Quelle est la situation respective des Européens, des Américains, des Asiatiques et du tiers-monde face à cet avenir ? Voilà des questions fréquemment posées qui appellent des réponses sérieuses, compétentes, structurées.

En choisissant ce thème, la Fondation avait le sentiment de remplir sa tâche car elle s’est donnée pour mission d’explorer les grandes questions que la société européenne se pose à elle-même. Mais comme elle souhaite que ses colloques constituent une référence pour tous les Européens, elle n’a pas cru pouvoir atteindre cet objectif ambitieux par ses seuls moyens. Elle a estimé qu’elle devait partager la charge de la conception et de la réalisation de ce colloque avec un partenaire spécialement compétent dans ce domaine d’avant-garde. Elle s’est donc associée avec «Andersen Consulting» dans une coopération étroite et, pensons-nous, à la fois constructive et efficace. Association technique, intellectuelle et financière.

Pour traiter notre sujet, nous avons cru devoir mêler la réalité et la réflexion, le concret et l’idée qui s’en dégage. Nous avons donc commencé par présenter plusieurs démonstrations des capacités du multimédia, puis nous avons sollicité la réflexion de spécialistes de haut niveau, avec l’aide décisive d’un président du colloque dont l’autorité s’imposait à tous, Étienne Davignon, le président de la Société Générale de Belgique.

Les participants aux colloques ont donc assisté à la présentation d’un CD-Rom, d’une expérience d’entreprise virtuelle, d’une navigation sur Internet et d’une vidéo-conférence avec des membres éminents du CERN (Centre d’étude et de recherche nucléaires) qui ont inventé «Internet», avant que les Américains ne le reprennent à leur compte pour lui donner les développements que l’on connaît.

Cette partie du colloque a été animée par F. Charrière (F) senior-partner d’«Andersen Consulting» avec le concours de T. Baubin (A) et de C. Carlill (G.B).

Puis nous avons entendu les communications suivantes:

1. MM. L. Citti (F), Président directeur général d’Alcatel Alsthom Recherches;

– K. Weyrich (A), Membre du Managing board de Siemens Allemagne;

qui ont présenté l’état de la recherche scientifique et ses avancées possibles, communications complétées par celles de MM. Hoffmann (A) et Caillaud (F) hauts responsables scientifiques du CERN.

2. MM. Barre (F), Ancien premier ministre, maire de Lyon;

– Braga de Macedo (P), Ancien ministre des Finances du Portugal;

– Santini (F), Ancien ministre, maire d’Issy-les-Moulineaux;

– Noble (USA), Président directeur général de Phil Noble & Associates, Consultant politique américain;

qui ont analysé les incidences des nouvelles technologies sur la finance et la politique.

3. Les autres orateurs se sont plus particulièrement penchés sur un secteur particulier:

MM. Ellis (G.B.), Managing partner Europe, Middle-East, India, Africa d’Andersen Consulting, sur le multimédia et le monde des entreprises;

Cornelis (B), Administrateur délégué, Président de ­Pétrofina Levrat (S) Professeur à l’Université de Genève, sur l’éducation;

Prades (F), Directeur général de la Lyonnaise des Eaux, sur l’emploi;

Balsemao Pinto (P), Ancien premier ministre du Portugal, Président de Sojornal, sur la presse;

Teyssier (F), Président de l’Institut national de l’audiovisuel, sur la télé­vision.

4. MM. Bangemann (A), Commissaire européen;

– Eckert (B), conseiller auprès du directeur général DG XIII;

ont présenté le point de vue de l’Union européenne et la politique menée par la Commission en matière de réglementation du multimédia.

Enfin, M. Mario SoarÈs, ancien président de la République du Portugal, a présenté dans la conclusion du colloque, les réflexions que peuvent inspirer à un responsable politique majeur les débats qu’il venait d’entendre.

À tous, au nom du Conseil de Fondation, je tiens à exprimer notre très profonde gratitude. Selon la coutume de ces Cahiers, on trouvera ci-après une synthèse du colloque puis un certain nombre de documents qui intéresseront plus particulièrement les spécialistes.

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Un ordinateur, son écran et une ligne téléphonique, si possible à grand débit, quelques «modems» de raccordement et des logiciels adaptés: voilà le système de base qui permet de faire circuler images, sons et informations diverses, soit dans un échange personnel et direct, soit en puisant dans le stock des mémoires dépendant d’un ou de plusieurs ordinateurs en réseau.

D’autres systèmes ou appareils peuvent intervenir: disques, câbles, satellites, téléviseurs, caméras vidéo, projecteurs et grands écrans… Mais ils ne constituent que des variantes, des compléments ou des améliorations au dispositif de base du multimédia.

Le multimédia, qui met ensemble des techniques connues mais encore à perfectionner, possède une forte spécificité; toutefois, comme il n’en est encore qu’à ses débuts, certaines de ses caractéristiques actuelles sont certainement provisoires et doivent être évaluées avec prudence. Cette réserve faite, on ne peut mettre en doute l’importance de la révolution que constitue l’avènement du multimédia, à en juger par l’ampleur et la diversité de son champ d’intervention.

Le couplage ordinateur, écran, téléphone, possède des caractéristiques spécifiques très fortes qui le constituent en catégorie à part dans la sphère audiovisuelle.

a) Il annule l’espace et les distances, car il fonctionne en couvrant le monde entier (en tout cas l’espace du réseau téléphonique mondial), et par conséquent il ignore les frontières, les États et leurs gouvernements.

Il abolit également le temps, car il fonctionne en temps réel, c’est-à-dire dans l’instant.

Il est indépendant enfin de la nature du message, car il véhicule aussi bien l’image, le son que le texte, sous leurs diverses formes.

Les démonstrations initiales d’«Andersen Consulting» ont été sur ces points très éclairantes.

Le programme «Da Vinci» qui fut présenté concerne trois sociétés différentes. Le scénario est le suivant: une société minière américaine veut réaliser, en partenariat avec Sheraton, un grand hôtel en Indonésie où elle possède un vaste territoire. Pour décider de cet investissement, les deux sociétés souhaitent consulter un spécialiste du marketing touristique. Sheraton est à Boston, le spécialiste à Londres, les responsables de la société minière en Indonésie. Ils organisent entre eux une longue vidéo-conférence qui leur permet d’échanger informations statistiques tirées de banques de données, graphiques, cartes géographiques, plans d’hôtel, etc. Chacun est dans son bureau, consultant sa documentation selon les besoins, ignorant la distance, sans perdre le temps et l’argent du voyage. Ensemble, ils ont constitué une «société virtuelle». Au lieu d’acheter des billets d’avion et de se retrouver physiquement dans le même lieu, il a suffi d’acquérir un ordinateur, d’installer une caméra, une ligne téléphonique spéciale et de passer contrat avec une société de télédistribution.

Efficacité et économie: telle est la leçon de cette expérience réalisée dans les laboratoires d’Andersen Consulting pour illustrer les capacités des nouvelles technologies. Comme on le verra un peu plus loin, on a procédé à une démonstration de vidéo-conférence analogue, spécialement préparée pour le colloque, entre les savants du CERN, l’Université de Genève et les responsables du colloque à Divonne: la réalité rejoignait ainsi le scénario de laboratoire.

Une brève navigation sur Internet a présenté quelques services nouveaux rendus possibles par les nouvelles technologies. Le colloque a visité plusieurs sites: un journal anglais, France- Info, l’état de la circulation dans les rues de Paris, enfin une librairie américaine «Amazone». Qu’est-ce qu’Amazone?

Une «librairie virtuelle» fondée il y a trois ans par deux personnes: c’est-à-dire une librairie qui n’a ni murs ni rayons mais un énorme catalogue consultable sur Internet. On peut même y lire des extraits de livres, comme si on les feuilletait en magasin; mais on peut surtout commander le livre qu’on désire, le payer et le recevoir avec un rabais de 30%: «Amazone» est aujourd’hui la première librairie au monde par le chiffre d’affaires. Et comme le signalait Phil Noble, pour accéder à Internet, il suffit désormais de brancher sur son téléviseur un appareil à 330 dollars et à 200 dollars dans un an.

b) Le multimédia, comme cela ressort des descriptions précédentes, obéit à une logique très différente de celle de la télévision.

Les télévisions sont constituées en systèmes nationaux, liés aux États ou organisés selon leurs lois, soumis à des accords et des règlements internationaux.

les télévisions relèvent d’une technologie qui suppose une organisation centralisée, coûteuse, à la portée toujours limitée, verticale, puisqu’elle descend vers un spectateur qui reçoit passivement l’émission.

Le multimédia au contraire, part de l’individu qui est doublement actif:

il peut interroger d’autres individus équipés comme lui, des groupes ou des institutions, ainsi que des banques de données;

il a la faculté de faire passer, dans les mêmes conditions, son propre message.

Il s’agit donc d’une communication individuelle à double sens, d’un dialogue, d’une information réciproque, et par conséquent d’un système horizontal interactif, bien adapté au débat.

On vient d’en voir un exemple avec «Amazone» illustrant le commerce électronique. On en rencontrera plusieurs autres au fil des interventions ultérieures en politique, dans le domaine de l’éducation, etc.

L’évolution est si rapide que l’on ne peut, dans le domaine du multimédia, que donner une image instantanée d’une situation en constant bouleversement. On s’en convaincra en passant en revue les aspects scientifiques puis les aspects sociétaux. Toutefois, certaines lignes de force apparaissent dès à présent qui permettent d’anticiper quelque peu l’avenir.

a) Les aspects scientifiques

Ils ont été mis en relief très clairement par MM. Citti et Weyrich.

L’évolution déjà enregistrée et celle qui est prévisible dans trois secteurs, la micro-électronique, l’optique et les logiciels, est certainement la clé de l’avenir du multimédia. Cette évolution montre que les technologies nécessaires au plein épanouissement du multimédia existent déjà, mais sont inégalement distribuées dans le monde – l’Europe ayant quelque raison de s’inquiéter – sans que l’avenir soit pour autant déjà fixé.

Dans les trois secteurs, le progrès est tout aussi impressionnant par le rythme qui s’accélère que par les performances, qui s’accroissent, par les prix, qui diminuent, et par le marché, qui explose.

En 1971 le premier microprocesseur commercialisé comportait 2300 transistors. En 1975, sur une surface considérablement réduite, on logeait 50000 transistors. En l’an 2000, on en trouvera 100 millions. Aujourd’hui une mémoire de 256 mégabits peut stocker sur 3 centimètres carrés environ 16000 pages de texte. Voilà un premier éclairage sur les performances.

Les prix ont suivi la marche inverse. Le premier ordinateur entièrement électronique – l’ENIAC de 1946 – a coûté 2 milliards de dollars. Pour des performances cent mille fois supérieures, il en coûte aujourd’hui 2 dollars. On a ainsi calculé que le ratio prix-performance au cours des quarante dernières années a été multiplié par un facteur égal à 5×10 13. Ce chiffre ne parlant guère à l’imagination, les experts ont calculé qu’il représente la proportion équivalente à 1 cm par rapport à la distance de la terre au soleil, qui est de 150 millions de kilomètres.

De ces observations, on a tiré quelques constantes qui éclairent l’avenir: en micro-électronique, la complexité des composants est multipliée par 4 tous les 3 ans, ce qui permet d’accroître la capacité de stockage en bits de 50% par an tout en diminuant le prix par bit de 30% par an (le bit étant le signal le plus simple servant d’étalon). Cette évolution tout à fait exceptionnelle est un stimulant considérable de la demande et un facteur d’évolution très rapide des marchés.

En 1962, le premier laser semi-conducteur a été inventé.

En 1966, a paru le premier article suggérant l’application des fibres optiques aux télécommunications, ce qui a abouti aux premières installations en 1975. Depuis lors, on a évalué la performance des systèmes en calculant le nombre de bits transmis par seconde sur une distance d’un kilomètre.

En 1975, on transmettait 3 gigabits par seconde au kilomètre, soit 3 milliards de bits. En 1985, on était à 100 gigabits, en 1990 à 50000 gigabits et aujourd’hui les nouvelles technologies transmettent sur une fibre optique plusieurs longueurs d’onde simultanées permettant d’atteindre 100000 gigabits/ sec/km. En 2000-2005 on passera à l’ordre du million de gigabits et le milliard suivra à brève échéance. Que permet ce débit? De passer 40 millions de communications téléphoniques simultanées sur une seule fibre optique, de transmettre 120 minutes d’un film vidéo en 15 millièmes de seconde, ou un texte de l’ampleur de l’Encyclopédia Universalis en une milli seconde. A-t-on besoin de telles performances? Oui, pour deux raisons:

– s’il faut servir en produits très divers une vaste clientèle sans qu’elle attende;

– s’il faut transmettre simultanément des images vivantes, des textes, des données en plusieurs lieux pour constituer des «ensembles virtuels».

Il existe même des besoins exceptionnels qui stimulent la recherche. En voici un exemple. La communauté scientifique internationale s’est rassemblée autour du CERN pour réaliser en 2005 des expériences destinées à explorer les structures intimes des composants de l’atome. Ces expériences nécessitent de créer un système de calcul informatique – Atlas – exigeant un débit de transmission qui soit de l’ordre de 1016 bits/seconde. Or 316 bits par seconde permettraient d’écouler 200 milliards de communications téléphoniques, bien plus que toutes les communications de la planète au même instant. Certes il s’agit d’un instrument unique, qui ressemblera à un immeuble de six étages, mais le spécialiste chargé du projet Atlas au CERN, le professeur Hoffmann qui l’a présenté au colloque lors de la vidéo conférence avec le CERN, ne doutait pas un instant de sa faisabilité dans les délais. On n’a pas encore exploré toutes les possibilités qu’offre un instrument de cette puissance.

En matière de transmission, l’expérience a permis de constater que la capacité augmenterait en moyenne de 35% par an avec un coût décroissant de 40% par an. Ce progrès appelle naturellement le recours à des technologies nouvelles dans l’utilisation des câbles de cuivre et des fibres optiques déjà installés afin de mieux les rentabiliser en accroissant leur débit: il en résulte que pour des investissements nouveaux ou des investissements anciens mieux rentabilisés, il est indispensable d’accroître les dépenses de recherche-développement.

En 1960, celles-ci représentaient 3-4% du chiffre d’affaires des entreprises concernées, 16-18% en 1977 et elles seront sans doute de l’ordre de 22 à 25% en l’an 2000. C’est la rançon, acceptable, du progrès.

Reste le logiciel. En 1970, les systèmes de télécommunication n’avaient pratiquement pas de logiciel. Aujourd’hui le coût du logiciel peut atteindre de 75 à 85% du coût de développement.

En termes de marché, cette évolution générale aboutit aux résultats suivants: sur le marché des technologies de l’information et de la communication, les télécommunications repré­sentent 25% de ce marché, les produits grand public (TV, distribution par le câble, etc.) 10% et le reste se décompose, à 20% chaque fois, entre les ordinateurs et leurs logiciels, les services et les supports d’information. Ce dernier secteur augmente d’environ 8% par an, alors que les autres secteurs s’accroissent de 10% par an depuis vingt-cinq ans.

Ces résultats si spectaculaires ont un sens précis: les progrès dans la rapidité, le volume et l’organisation de la transmission nous conduisent vers des objectifs déjà fixés qui, une fois atteints dans les prochaines années, nous feront entrer dans la «société du savoir». C’est elle qui appelle cette course obstinée à la performance: il est donc indispensable de jeter au moins un regard sur ce qui constitue cette société de demain.

Elle repose essentiellement sur la capacité de communiquer sans restriction aucune: au travail, au repos, chez soi, à l’étranger, à communiquer n’importe quoi, n’importe quand, n’importe où, avec n’importe qui, dans n’importe quelle langue. Cet objectif est l’une des orientations à long terme qui gouverne la stratégie des réseaux, des composants, des moyens de transmission et des logiciels.

Entre autres instruments, ce projet implique la traduction automatique et simultanée. Les techniques existantes aujour­d’hui permettent de traduire de 2000 à 3000 mots, ce qui demande entre 5 et 10 secondes. Pour arriver à une traduction réellement simultanée, il faudrait descendre à moins d’une seconde. Cette ambition devrait être réalisée à la fin du siècle.

Autre impératif: simplifier la relation entre l’utilisateur et la machine, ce qui implique le remplacement progressif de la fameuse «souris» par la parole ou le geste habituel.

Il reste aussi à couvrir un vaste secteur, celui des systèmes de sécurité pour empêcher la fraude, la manipulation des données ou des réseaux: pour cela, il faut investir dans des techniques de cryptographie et d’authentification des destinataires de l’information.

C’est donc une toute nouvelle société qui s’offre peu à peu à nous, dont nous ne connaissons que les prémices. Une société mobile, où la distance est abolie, où la communication est sans restriction, où la décision est prise non pas d’un point central qui diffuse vers les extrémités – comme en matière de télévision – mais à chaque extrémité. Cela permet à des équipes légères de se constituer en «îlots de compétence» durables ou éphémères à tous les niveaux d’une chaîne de communication, et de façon très décentralisée dans l’entreprise ou l’administration. Un changement majeur.

Ce tableau présenté par les responsables d’Alcatel et de Siemens serait incomplet s’il ne faisait apparaître les différents partenaires en course dans la compétition avec leurs chances respectives.

Pour ce qui est de la micro-électronique, l’Asie du Sud-Est et le Japon représenteront en l’an 2000 50% du marché, les États-Unis 30% et l’Europe 20%. Le leader est américain – avec Intel – suivi des Japonais et d’un Sud-Coréen, Samsung. En tout cas, en produits finis l’Europe absorbe un tiers du marché, mais ne couvre qu’un tiers de ses besoins par ses propres moyens.

En matière de logiciel, le leader est américain et l’Europe assez faible, sauf dans le logiciel intégré à un système, où l’Europe est en bonne position, dans l’automobile, l’aéronautique, l’optique ou l’astronautique notamment.

De ce tableau, on peut tirer une double conclusion. L’avenir appartient aux services et aux applications systémiques plus qu’aux composants: il ne faut donc pas céder sur ce terrain. D’autre part, il est essentiel d’organiser un très fort marché intérieur en Europe: le secret majeur des Japonais, en effet, réside dans la puissance de leur marché national.

La technologie propose, la société dispose… Les freins de nature économique, administrative ou culturelle peuvent considérablement contrarier les évolutions. Il est donc indispensable de rechercher les informations disponibles sur les faits de société qui indiquent les évolutions attendues en matière d’utilisation des nouvelles technologies.

Le fait dominant, pour l’instant, réside dans l’avance américaine par rapport aux Européens dans l’utilisation des services fournis par les nouvelles technologies.

Aujourd’hui 60% des utilisateurs d’Internet sont américains et le reste du monde hors les États-Unis représente dont 40%. Aux États-Unis, le nombre de raccordements à Internet augmente de 15 à 20% par mois. Dès à présent le téléachat sur Internet a un chiffre d’affaires de 750 millions de dollars et l’on anticipe un triplement d’ici l’an 2000, toujours aux États-Unis. Autre indice significatif d’une évolution favorable au multi­média: en 1997, on a vendu aux États-Unis 90 millions d’ordinateurs personnels et 100 millions de postes de TV. En 1998, il est prévu que la proportion sera inversée, et dès à présent aux États-Unis, le temps passé chaque année devant l’écran de télévision diminue au profıt du temps passé devant l’écran de l’ordinateur. Enfin un indice supplémentaire combine l’évaluation quantitative et qualitative: sur les 100 sites les plus visités sur Internet, aucun n’est européen.

La conclusion s’impose d’elle-même tellement toutes ces données se recoupent: l’écart entre les États-Unis et l’Europe continue de se creuser, et l’on ne risque pas de se tromper en considérant que sur les 300 millions de personnes connectées à Internet en l’an 2000, selon les meilleures prévisions, la majorité restera américaine.

En Europe même, les inégalités sont flagrantes: en pourcentage de la population, les utilisateurs d’Internet sont plus nombreux en France qu’en Espagne ou en Italie, moins nombreux qu’en Belgique, en Allemagne et surtout en Grande-Bretagne et en Hollande. Les champions sont ici les Scandinaves, Norvégiens et surtout Finlandais, devant les Américains. Quant à la France, si son adhésion à Internet se fait lentement, c’est en partie dû, paradoxalement, au succès du Minitel, anticipation brillante, mais dépassée par les nouvelles technologies.

Quelles sont les raisons de cette divergence qui désigne l’Europe comme étant incapable, dans un bref délai, de redresser sa situation par rapport aux États-Unis?

Plusieurs hypothèses ont été avancées qui ne sont pas contradictoires.

Les lenteurs de la bureaucratie européenne, sa réglementation tatillonne, son esprit peu ouvert à l’innovation ont été très généralement incriminés. On relèvera sur ce point la remarque caustique du professeur Levrat de l’Université de Genève: «Il me semble qu’en Europe, Suisse comprise, les grandes idées en matière d’enseignement soient condamnées à combattre la bureaucratie mise en place pour leur venir en aide.»

Les obstacles culturels ont été également mis en avant. C’est le cas de M. Cornelis, président de Pétrofına qui souligne que l’Europe a les habitudes et les réflexes d’une société industrielle qui n’a pas encore, contrairement aux Américains, acquis les réflexes d’une société de services.

MM. Barre et Santini ont l’un et l’autre souligné l’inaptitude européenne, et plus particulièrement française, à l’adaptation sociale. Depuis le xviiie siècle, l’Europe a eu des réactions de repli et de rejet toutes les fois qu’il y a eu innovation technologique a noté M. Barre, qui conclut toutefois que la «capacité d’adaptation des êtres humains finit par l’emporter.»

M. Bangemann, enfin, a confirmé combien de fois il avait été confronté en Europe avec des réflexes d’anxiété et de rejet vis-à-vis des nouvelles technologies, réflexes inconnus aux États-Unis et en Asie.

Les savants du CERN ont observé de leur côté que l’évolution en Europe est freinée par la diversité des réglementations qui subsistent entre nos pays dans un marché unique incomplet, et ce point a été confirmé par M. Eckert lorsqu’il a décrit la lourde tâche de déréglementation, non encore achevée, que mène l’Union européenne.

C’est en Europe enfin que l’on observe dans certains secteurs politiques et chez un certain nombre d’intellectuels la volonté de mener un combat contre ces technologies au nom de la lutte contre la mondialisation qu’elles favorisent. Combats d’arrière-garde, sans aucun doute, mais qui n’aideront pas l’Europe à affronter son principal défi à la veille du siècle prochain: sera-t-elle capable de dominer ces nouvelles technologies, dont la vitalité a été démontrée? Quand, comment, entrera-t-elle dans la société de l’information et du savoir qui est inéluctable? Sera-ce selon le modèle américain ou selon un modèle propre? Une réponse au moins partielle à ces questions passe par un examen détaillé du champ d’application du multimédia.

Il serait sans doute plus facile de chercher un secteur qui ne soit pas touché par l’apparition du multimédia que de recenser le nombre de ceux qu’il fera évoluer. Et encore cette recherche serait-elle assez vaine car l’un des changements majeurs introduit par le multimédia réside dans la possibilité quasi illimitée de créer de nouveaux services et par conséquent de nouveaux métiers: comme le souligne V. Ellis, dont on reprendra ici les analyses, c’est une question d’imagination.

D’où la difficulté de trouver un fil conducteur pour explorer le champ d’action du multimédia. En tout cas, quel que soit le fil adopté, il faut garder en mémoire le fait que le multimédia introduit quatre changements majeurs soulignés par V. Ellis:

Des réseaux qui pénètrent partout. Il n’y a plus d’effets de taille. Petites et grandes sociétés ont des possibilités identiques; un secteur étroit et spécialisé de la société en a tout autant que la communauté politique d’un pays dans son ensemble.

Des matériels intelligents qui apparaissent de plus en plus fréquemment sur le marché. Du frigidaire qui commande automatiquement le renouvellement des stocks épuisés d’œufs ou de beurre, à la caméra de surveillance qui transmet son message à distance, ou même au gadget d’espionnage.

Une information désormais transmise sur une très vaste échelle. Elle ignorera les contraintes du temps, de l’espace, de la nature du message. Vaste opportunité dans les domaines de l’éducation, de l’organisation du travail, de la vie politique.

La montée en puissance d’une société de services. Les services nouveaux ne trouvent d’obstacles que dans les limites des capacités financières, sinon de l’imagination. Plutôt que de se perdre dans une exploration sans fin, il paraît plus judicieux de concentrer la réflexion sur les conséquences déjà perceptibles de ces changements. Dans trois domaines au moins, des innovations devraient se confirmer très vite:

–dans les modalités du travail;

–dans la structure des entreprises;

–dans la recherche et l’utilisation du savoir.

En matière des modalités du travail, on discute de savoir si le multimédia aura un effet centralisateur ou le contraire. Selon V. Ellis, ces deux effets se rencontreront: la décentralisation des responsabilités sera largement encouragée, jusqu’à créer des cellules locales proches de leur marché, de leurs clients et de la vie quotidienne de ceux-ci. Ce sera probablement l’effet dominant, qui développera le travail à domicile et l’entreprise sans bureaux fixes. Cette évolution va-t-elle affaiblir ou non la «culture d’entreprise»? créera-t-elle ou supprimera-t-elle plus de postes de travail? agira-t-elle en faveur du peuplement urbain ou du retour vers les campagnes? Il est trop tôt pour se prononcer formellement.

En revanche le multimédia peut avoir un effet centralisateur en regroupant dans une cellule unique les services largement partagés, fréquemment utilisés, qui seront plus ou moins accessibles selon le niveau occupé dans la hiérarchie.

La structure des entreprises quant à elle, sera affectée d’au moins deux manières:

La concentration sur les métiers de base constitue l’une des conséquences majeures du multimédia sur la structure des entreprises. Pourquoi en effet ne pas s’alléger en personnel, investissements, frais financiers, etc., que supposent les services secondaires alors qu’on peut les trouver ailleurs (outsourcing) sans pour autant ralentir les liaisons. L’expertise, la logistique, la diminution des coûts trouvés hors de l’entreprise justifient le recours aux spécialistes extérieurs, éventuellement délocalisés.

La relation avec la clientèle de l’entreprise sera elle aussi profondément modifiée: telle est la seconde conséquence majeure du multimédia. Banque, assurance, commerce à domiciles sont rendus faciles. Une connaissance de plus en plus affinée de la clientèle, consultée fréquemment, devient possible et multiplie les moyens de marketing – éventuellement jusqu’à assiéger le client. Ici le potentiel du multimédia présente aussi une menace, sinon un risque.

La meilleure connaissance de la clientèle fera évoluer les produits qui intégreront de plus en plus de services – et par conséquent, il faudra modifier le schéma de production. Ainsi un airbag avec téléphone et balise incorporés qui appelle au secours et signale l’emplacement de l’accident devient autant un service qu’un produit. Et l’on remarquera que dans tous les cas de figure évoqués la clé du succès réside dans la valeur ajoutée, que ce soit au service ou au produit, que permet le multimédia.

Enfin la compétition entre les entreprises risque elle aussi d’être profondément affectée: qui l’emportera en effet du fournisseur ou de l’utilisateur de l’information? La question n’est pas tranchée mais la lutte risque d’être chaude comme en témoigne la féroce compétition entre la grande distribution et l’industrie agro-alimentaire.

Restent enfin tous les problèmes liés au transfert massif et immédiat de la connaissance. Ces problèmes sont fort nombreux et parfois inattendus.

Pensons d’abord à tout ce qui concerne la confidentialité, personnelle ou commerciale des informations. Certes, le cryptage peut y pourvoir, quitte à poser d’autres problèmes: un message crypté est-il une information ou une transaction à vocation commerciale qui échappe à la TVA? Un marketing parfaitement ciblé relève-t-il du service sur mesure ou de l’in­cursion dans la vie privée? Autre problème voisin: comment assurer le respect de la propriété intellectuelle dans la masse des informations, dont certaines cryptées?

On peut aller plus loin dans la recherche et la transmission d’informations qui relèvent tantôt du service, tantôt de la nuisance. Ainsi une caméra jointe à un système de transmission permet de surveiller les enfants, chez soi ou à l’école, mais aussi… d’espionner toute forme de vie privée. On peut même dépasser les bornes comme ce bon spécialiste du multimédia, mais obsédé sexuel, qui, à Toronto, avait fixé une caméra miniature au bout de sa chaussure pour filmer incognito sous les jupes des femmes dans la rue… L’histoire peut paraître drôle, mais sera-ce aussi drôle de vivre avec des caméras partout – dans la rue, sur le lieu de travail, dans l’intimité?

Fort heureusement, à côté de quelques nuisances qui peuvent aller jusqu’à la calamité, le rôle du multimédia dans le transport de la connaissance sera également très bénéfique.

Dans l’entreprise, le capital intellectuel remplacera de plus en plus le capital physique. Dans l’enseignement – comme le soulignait le professeur Levrat – la priorité devrait être donnée à la constitution de bibliothèques digitales, cataloguant notamment l’acquis des connaissances en Europe, dont la richesse et la valeur culturelle sont essentielles pour assurer l’avenir de la civilisation de notre continent. C’est assez dire que l’un des usages majeurs du multimédia se retrouvera dans l’enseignement: travaux pratiques, simulations, démonstrations de spécialistes, banques de données, autant d’instruments mis à la disposition de la transmission du savoir. Ce point sera ultérieurement approfondi par M. Cornelis.

Cette diversité de points de vues parcourus par V. Ellis ramène toutefois à deux questions centrales, car elles se posent partout.

Il faudra veiller à ne pas constituer une fracture dangereuse dans la société entre ceux qui ont accès aux nouvelles tech­nologies et ceux qui en sont exclus, dans la jeunesse, dans l’entreprise, dans la vie publique, dans les loisirs. Il convient par conséquent de favoriser l’éclosion de nouvelles communautés liées par le multimédia, qui peut tout aussi bien engendrer l’exclusion que des solidarités nouvelles.

Enfin, tous ces changements impliquent, on le sait, des infrastructures et des investissements considérables. Qui les fournira? Qui les financera? Les sociétés de télécom?

À cette question cruciale, M. Bangemann, le commissaire européen, apportera la réponse conçue par la Commission de l’Union européenne. La voici.

Il paraissait évident que l’ampleur des investissements nécessaires ne pouvait être financée par les budgets publics. Il fallait donc recourir au financement privé. Mais les investisseurs privés n’auraient jamais accepté de risquer leurs capitaux s’ils avaient eu à faire face à un monopole public: la concurrence pouvait être faussée et compromettre le bénéfice de l’investissement. Il fallait donc d’abord mettre fin aux vieux monopoles, puis élaborer une législation susceptible de constituer un cadre juridique inspirant confiance. Ce furent – avec quelques expériences pilotes – les deux principes de base de la politique de l’Union. Les monopoles ont donc vécu et la législation a été élaborée de manière à favoriser la concurrence et à ouvrir des possibilités nouvelles.

M. Eckert a apporté les précisions nécessaires sur cette législation élaborée par la Commission.

Le multimédia fait converger quatre secteurs: les télécommu­nications, la technologie de l’information, l’audiovisuel, l’édition – ce dernier secteur étant particulièrement développé en Europe. On y trouve en effet 2200 quotidiens et 200 millions d’abonnés, ce qui représente par tête d’Européens plus de journaux qu’en Asie et en Amérique réunies. Et nous avons environ 100000 bibliothèques.

Or tous ces secteurs sont traditionnellement soumis à des législations fort différentes.

Peu de textes réglementent les technologies de la communication.

Ils sont un peu plus nombreux dans l’édition, surtout sur la propriété des organes de presse; en revanche, les télécommunications sont passées du monopole à la concurrence, ce qui implique un droit nouveau des licences, l’allocation de fréquences, des règles concernant l’interconnexion, l’accès aux réseaux, la protection des données. Ce processus est en voie d’achèvement au terme d’une période de 10 ans. Quant à l’audiovisuel, notamment dans le domaine de l’émission, il fait partout l’objet d’une réglementation lourde et rigoureuse, compte tenu de son influence sur l’opinion publique ou la vie culturelle.

À partir du moment où le multimédia établit une convergence entre ces quatre secteurs, maintenir des législations séparées devient de plus en plus impraticable. Il faut donc passer – quitte à respecter des transitions – à un système juridique unifié, ou, au moins, à un certain degré d’harmonisation entre les législations nationales si l’on veut créer un grand marché intérieur européen.

La technologie digitale qui domine de plus en plus télécommunication et audiovisuel y conduit tout naturellement, surtout si l’on veut faire sauter les verrous qui empêchent ou restreignent l’accès aux réseaux, de câbles notamment. Quel est ici l’objectif? Aboutir à multiplier les services peu coûteux et facilement accessibles, afin de développer une consommation de masse.

On est encore éloigné de cet objectif: la propriété cumulée d’organes de presse et de station de radio ou de télévision, est autorisée ici, interdite là. Le droit du copyright sera-t-il le même sur Internet que dans l’édition classique? C’est encore à étudier. Quant à la publicité sur les réseaux électroniques qui ignorent les frontières, elle atteint souvent plusieurs pays dont les législations ne sont pas identiques. Là encore, il faut rechercher une sorte de régulation commune. En tout cas le principe de base de toute cette politique reste le même: faciliter la concurrence dans un vaste marché unifié. Il reste encore beaucoup à faire.

Pour prolonger et préciser ce panorama général, il a paru nécessaire de se concentrer sur des secteurs plus spécialisés, afin d’examiner quelles lumières on pouvait en retirer. On a donc exploré successivement l’éducation, le marché du travail, la presse, et l’audiovisuel dans leurs relations futures avec le multimédia.

L’éducation et le multimédia: ce thème a été approfondi par un industriel, le président de Pétrofina, qui est à la fois le président d’une Université – Louvain – et l’animateur d’un groupe de travail sur l’éducation au sein de la Table ronde des industriels.

Partant du constat que la connaissance scientifique double tous les six ans, M. Cornelis estime qu’un industriel doit être rapide et flexible pour s’adapter à cette évolution. Un autre constat rend cette adaptation plus impérieuse encore: les taux de croissance annuels ont baissé en Europe pour se stabiliser aux environs de 2%, notre démographie est défavorable, nos gains de productivité faibles, et nous perdons par milliers chaque année des emplois industriels sans les remplacer par de nouveaux métiers – qui n’existeront que dans les services. Par conséquent, s’adapter à la société de services, créer des emplois et considérer l’éducation comme la priorité stratégique en Europe revient à traiter le même problème sous ses différents aspects.

Comme certains experts estiment que l’éducation sera le secteur qui, au cours des vingt prochaines années, subira les plus profondes transformations en raison de l’introduction des nouvelles technologies, il y a lieu de baliser cette évolution. D’où les questions suivantes:

– quelle culture transmettre?

– quelles technologies utiliser et pour quels avantages?

– quels obstacles maîtriser?

Sur le premier point, il apparaît nécessaire d’éviter toute spécialisation et de fonder l’effort pédagogique sur un triple objectif: transmettre à la fois la culture mathématique, la culture humaniste et la culture socio-économique. Que demande-t-on en effet à l’homme d’aujourd’hui? La capacité d’allouer des ressources, le sens de la recherche, de l’organisation et de l’utili­sation de l’information, l’ouverture à la technologie, l’esprit de partage et d’échange. Ces compétences ne relèvent ni d’une culture spécialisée, ni d’une pédagogie ex-cathedra, mais bien d’un apprentissage tout au long de la vie. C’est ainsi que l’on pourra s’adapter à une société de services, largement autonome et décentralisée.

Quant aux technologies à utiliser, il est évident qu’il faut recourir à la fois à la communication par fibres optiques, aux encyclopédies sur micro-ordinateur, au CR-Rom, à Internet, à la simulation sur vidéo-transmission. Quels avantages en attendre ou à rechercher?

La pédagogie active, dans une relation directe entre l’enseignant et chaque enseigné.

L’université virtuelle, à l’exemple de Barcelone. Une université a été créée, en effet, comprenant un terminal reliant chaque étudiant à des tuteurs, à des professeurs, à de grandes bibliothèques. À l’horizon 2000, cette université comprendra 11000 étudiants.

La mise en réseau des universités, des écoles, des bibliothèques pour un enseignement commun, tel celui d’U. Eco simultanément à Louvain, Coïmbre et Bologne, ou pour un programme spécifique de recherche. À terme, peut-être la mise en réseau des 320000 écoles européennes?

Le rapprochement entre le monde de l’école et celui du travail par l’apprentissage précoce de technologies indispensables la vie durant, par l’habitude de communiquer prise très tôt, par l’inclusion de tous les enfants – pauvres et riches – dans le même monde technologique.

Américains et Japonais ont déjà joué la carte de ce programme, avec le projet Clinton d’investir pour connecter les écoles américaines aux autoroutes de l’information 2 milliards de dollars en 5 ans jusqu’à l’an 2000, année où les Japonais achèveront d’équiper toutes leurs écoles en multimédia et de former leurs enseignants.

Reste à identifier les obstacles à l’utilisation pédagogique des nouvelles technologies, particulièrement en Europe. On recensera plus particulièrement:

L’insuffisance de la recherche: on voit encore trop mal ce que sera l’école de demain. Insuffisance particulièrement grave dans le domaine du software, coûteux et difficile à réaliser pour qu’il soit de qualité. Seule une harmonisation européenne devrait nous donner les économies d’échelle nécessaires, tout en assurant la qualité du produit.

La résistance du milieu enseignant, qui craint, pêle-mêle, la dévalorisation du métier, la perte d’emploi, la mainmise des industriels sur le financement du programme.

Un investissement considérable s’impose donc pour former les enseignants qui découvriront que s’ils perdent le monopole du savoir, s’ils sont soumis à des exigences de qualité plus hautes, ils gagneront en revanche un rôle de guide et d’assistance.

Le coût de l’investissement en hardware enfin. Il est estimé à 4 milliards d’écus pour équiper toutes les classes d’Europe en multimédia. Somme énorme en elle-même, mais qui pourtant ne représente que 1% des charges totales de l’enseignement en Europe.

Des industriels ont lancé quelques expériences prometteuses: IBM qui a dépensé 35 millions de dollars dans un programme «réinventer l’éducation», parfois en liaison avec Pétrofina, notamment sur des formules de rattrapage dans l’enseignement professionnel. Ou Andersen Consulting. Mais il ne faut pas se dissimuler l’ampleur de la difficulté: le fragment de programme présenté en démonstration devant le colloque par Andersen Consulting pour la formation de ses cadres à l’analyse de l’entreprise – programme qui dure en réalité 12 heures – a nécessité 18 mois de travail, mobilisé 10 informaticiens et un graphiste, et coûté près de 2 millions de dollars.

Il faut donc passer à une autre échelle: celle des pouvoirs publics décidant de câbler l’Europe, d’équiper les écoles, de créer des sites. On réglera ainsi à la fois un problème d’éducation et de citoyenneté tout en contribuant à créer un grand marché intérieur.

L’approche par B. Prades du monde du travail tel qu’il l’observe depuis la «Lyonnaise des eaux-Suez», recoupe très utilement les commentaires de V. Ellis sur les structures et ceux de F. Cornelis sur l’éducation, en les illustrant d’exemples concrets pleins d’enseignements.

Reprenant à son compte une idée qui court tout au long du colloque, selon laquelle nous sommes entrés dans une civilisation de services, car le service pénètre même le produit (les voitures comme les machines à laver deviennent intelligentes…), B. Prades aboutit à une conclusion pessimiste pour le présent, mais très optimiste pour l’avenir.

Pessimiste pour deux raisons: l’une qui relève de la psychose, l’autre qui est liée aux effets bien réels des nouvelles technologies.

Il est clair, en effet, que les nouvelles technologies détruiront des emplois. Si l’on prend l’exemple des cinq premières banques françaises, elles présentent un excédent de 40000 agents dans les emplois de «front office», selon une étude de Goldman-Sachs. Il faudra donc supprimer ces emplois. Mais en même temps, ces banques dépensent 25 milliards de francs par an pour s’équiper en matériels de communication et 10 milliards – avec une croissance de 20% par an – en services spécialisés. Il est évident que ces dépenses créeront à leur tour des emplois, mais ce ne seront pas les mêmes.

Dans le passé, un emploi supprimé dans l’agriculture se retrouvait dans l’industrie; mais aujourd’hui, lorsqu’un emploi est détruit dans le tertiaire, il n’y a plus d’exutoire. Tout le monde le sait, d’où la psychose de voir le chômage s’installer sans remède. Et pourtant, le tertiaire présente cette particularité d’avoir une capacité presque illimitée de créer des emplois. La psychose n’est donc nullement fondée à terme. Il n’en reste pas moins que la transition sera difficile à gérer. Ce qui n’incite pas à l’optimisme pour le présent.

Les effets constatés de l’introduction des nouvelles technologies dans l’entreprise, seront à un autre titre porteurs de troubles, en créant quelques fractures au sein de l’entreprise comme de la société en général. Deux exemples sont ici fort instructifs.

«La Lyonnaise des eaux» a développé un logiciel, «Atlas», banque de données fournissant les informations disponibles sur toutes les exploitations internationales de la société. Toutes ces informations sont évidemment fort utiles aux agents répartis dans le monde qui peuvent obtenir les renseignements dont ils ont besoin à tout instant. Mais naturellement, pour accéder à ces informations, il faut une clé spéciale, différente selon le niveau que l’on occupe dans la hiérarchie, qui détermine le degré de confidentialité. Et c’est cette différence de traitement qui introduit une fracture péniblement ressentie entre les niveaux de qualification.

Second exemple, lié à la formation. Divers logiciels ont regroupé tout le savoir-faire disponible sur tel ou tel secteur de la société, en emmagasinant l’expérience des meilleurs cadres. Ces logiciels constituent évidemment d’excellents moyens pour former rapidement les nouveaux et jeunes cadres. Mais les anciens se sentent alors dépossédés de ce savoir qu’ils ont communiqué au logiciel. On crée alors une fracture entre les générations.

Dans les deux cas, on a fragilisé l’entreprise et les répercussions se propagent bien au-delà, sinon même sur l’ensemble de la société s’il y a création de chômage et de frustrations sociales.

Les autres exemples proposés concernent plus particulièrement la structure des entreprises.

La méthode se généralise dans les entreprises de se recentrer sur le noyau dur des métiers de base et de sous-traiter – «d’externaliser» – les autres secteurs. C’est un trait qu’avait déjà souligné V. Ellis. Dans ces noyaux durs, on trouve des cadres extrêmement compétents et rompus à l’utilisation des nouvelles technologies de la communication. Ils savent parfaitement constituer autour d’eux le réseau d’autres compétences dont ils ont besoin pour exercer leur profession. De proche en proche, ils créent progressivement de petites sociétés très autonomes, des équipes réunies pour un temps et sur un objet précis, sur un projet, sur un produit, etc. Elles finissent par être si indépendantes que le contrat de travail s’en trouve menacé. Ces équipes ont été baptisées par un sociologue américain des «adhocraties», c’est-à-dire la réunion d’équipes «ad hoc» liées à un programme.

Ce phénomène est dangereux pour l’entreprise qui peut perdre du jour au lendemain une équipe performante qui trouve à s’employer ailleurs ou à son compte. Pour éviter ce risque, l’entreprise doit renouveler son système de management, le rendre beaucoup moins vertical, moins hiérarchique. Il s’agit désormais d’animer une équipe plutôt que de la commander.

Les fractures engendrées par la diversité des niveaux de qualification et par ces méthodes de travail risquent donc d’être durables, sauf à réformer les systèmes d’éducation. Car l’on assistera progressivement à une sorte «d’aristocratisation» de certaines fonctions, employant des personnels suroccupés, ayant besoin à ce titre d’une quantité de services – ne serait-ce que faire garder leurs enfants pendant qu’ils naviguent sur les réseaux. À côté d’eux il y aura les autres, le nouveau prolétariat des exclus de l’aristocratie. Avec les répercussions que l’on imagine dans l’entreprise comme dans la société.

Il ressort finalement une vérité simple et claire, lorsqu’on examine les effets de l’introduction dans l’entreprise des nouvelles technologies de la communication. On assiste à une révolution culturelle et sociale. Les dirigeants doivent inventer de nouvelles méthodes de management, les entreprises accepter de gérer des équipes autonomes et changeantes, où l’on constate simultanément des phénomènes de centralisation interne et de décentralisation externe. Et ce qui n’est pas le plus facile, l’entreprise devra faire cohabiter une aristocratie du travail, qui est aussi celle de la connaissance, avec ses habitudes et ses besoins, et ceux qui n’auront pas su ou pas pu s’initier à ces nouvelles pratiques. Sans doute, ce tableau n’aura qu’un temps – celui de l’adaptation. Mais ce temps risque d’être plus long qu’on ne l’imagine avant de déboucher sur tous les effets bénéfiques dus à l’efficacité des nouvelles technologies. On n’ignore pas en effet que les technologies évoluent plus vite que les institutions, et celles-ci à leur tour plus vite que les hommes.

Nous sommes entrés dans la troisième grande révolution, celle de l’information qu’il faut transformer en connaissance, après la révolution agricole, fixant l’homme à la terre, et la révolution industrielle développant la civilisation urbaine. Telle est la conviction de F. Balsemao.

À l’aube de cette nouvelle révolution, tous les procédés traditionnels de communication, tels la presse, l’audiovisuel, le câble, sont directement concernés. Il est certainement trop tôt pour anticiper le déroulement de la révolution des médias. Mais on peut dès à présent envisager trois axes de réflexion:

Une puissante industrie des médias est en train de se constituer sur des bases totalement différentes en Europe et aux États-Unis.

La presse écrite, apparemment menacée de mort, s’est bien adaptée, mais jusques à quand?

On ne peut éviter de se pencher sur les incidences sociales des nouvelles formes de communication: là encore quelques évolutions s’esquissent, difficiles à apprécier, mais qui incitent à la vigilance, notamment politique.

C’est sur ces trois thèmes que M. Balsemao a articulé sa communication.

Il faut partir, a-t-il remarqué, d’une première observation: les nouvelles technologies ont forcé les entreprises de presse classiques à s’engager dans le multimédia classique, la radio et les diverses formes de télévision. Il n’y a presque plus d’éditeurs produisant exclusivement des journaux sur papier.

L’option multimédia est donc inévitable, mais elle est coûteuse et risquée. D’où la nécessité pour les groupes de presse – même s’ils sont liés étroitement à une personne très puissante – de rechercher des alliances, et d’entrer en bourse: même Murdoch et Berlusconi n’ont pu l’éviter. Dès à présent, de ces alliances sont nés parfois des géants – tel celui qu’a engendré la fusion Time-Warner et Disney ABC aux États-Unis – et toujours des entreprises de grande dimension comme celle qui unit Bertelsmann et CLT dans la télévision, mais aussi Microsoft NBC, dont General Electric est le principal actionnaire. Aujourd’hui, l’industrie des médias est la deuxième industrie américaine, après l’aéronautique.

Cette évolution est profondément divergente entre les États-Unis et l’Europe.

Aux États-Unis, la législation encourage la concentration des entreprises de communication tout en veillant au respect de la concurrence. En Europe, la loi contrarie les concentrations au nom du pluralisme. Ce comportement est probablement l’héritage d’une tradition. Elle a créé des monopoles publics, eux-mêmes distincts pour les télécommunications, la radio, la télévision, à côté d’entreprises privées qui relèvent de règlements différents, la presse, le câble, etc. Cet éparpillement et cette absence de tradition libérale laisse des traces. Or, la directive en préparation auprès de la Commission européenne sur les concentrations semble aller plutôt dans le sens des restrictions, elle aussi, que dans celui de la globalisation à l’américaine. D’où la question fondamentale: l’Europe veut-elle une industrie multimédia puissante? Où sont les véritables risques? économiques, politiques, culturels?

Quant à la presse écrite, dont on avait plus ou moins programmé la disparition il y a quelques années, elle s’est finalement bien adaptée.

Elle a profité des nouvelles technologies en informatisant les rédactions, en recourant plus aisément aux archives et aux banques de données, en développant le télétravail. En outre, l’impression a connu d’immenses progrès, permettant d’adapter de plus en plus la presse à la diversité de ses clientèles. Tout cela a fait baisser les coûts.

D’autre part, les nouvelles technologies – Internet, services en ligne, etc. – ont rendu possible l’avènement de micromédias, petites entreprises d’édition, qui fabriquent leur périodique. En outre, dans l’audiovisuel actuel, si l’image reste toujours puissante, le texte a retrouvé un nouvel espace: il est essentiel sur les CD-Rom; sur Internet, les gens communiquent surtout par écrit, archivent par écrit. Par conséquent, les nouvelles technologies ont aussi aidé la formulation écrite, donc la presse comme l’une de ses branches essentielles. Enfin, la presse écrite garde sa chance dans la mesure où elle est enracinée dans une collectivité, nationale ou régionale, et dans sa langue, ce qui est particulièrement vrai en Europe, mais aussi partiellement aux États-Unis et au Japon.

Cette situation inattendue subsistera-t-elle? Le passé incite à la prudence dans le pronostic. Une double menace, en effet, pèse sur la presse: le coût du papier, le journal électronique.

Traditionnel ou recyclé, le papier est évidemment le support de la presse: celle-ci est très dépendante des coûts et de la qualité de sa matière première.

Quant au journal électronique, créé généralement par la presse elle-même, avec les éditions sur CD-Rom ou sur Internet, il risque de démontrer que le papier n’est plus nécessaire. La même évolution affecte le livre: tout ce qui est de nature encyclopédique tend à devenir électronique. Dès lors arrivera-t-on vers un journal très personnalisé, quasiment individuel en fonction des centres d’intérêt et des besoins de son client? Dans ce cas, le journal électronique aura gagné la partie.

Toutefois, la réflexion suggère qu’une longue cohabitation reste possible. À l’audiovisuel les nouvelles immédiates et directes. À la presse écrite, le journalisme d’investigation et le reportage détaillé: car là est la valeur ajoutée de la presse. En ce sens, la presse peut avoir un rôle stabilisateur de la démocratie en constituant un obstacle aux nouveaux pouvoirs organisés: les spéculateurs, les décideurs de fonds de pension etc., pour ne point parler d’une autre catégorie de pouvoirs, criminels ceux-ci, constitués en mafias, de la drogue ou de toutes sortes de trafics.

Quelles conclusions tirer de ce tableau? Il incite tout particulièrement à réfléchir sur la fonction des médias dans la société qui s’installe. Ils auront pour rôle majeur de transformer l’information en connaissance, donc de trier et de structurer le flot d’informations.

De là l’importance primordiale des «fournisseurs de contenu» par rapport aux supports. Peut-on espérer avoir en Europe des entreprises susceptibles d’utiliser les nouvelles technologies, pour créer leurs archives, et pour imaginer des produits nouveaux, dans le domaine de l’information ou des loisirs, en imposant des quotas de programmation européenne? une législation compliquée sur les droits d’auteur? ou sur la publicité? et en entravant la concentration des sociétés spécialisées dans les divers médias? Dès à présent, toutes les «majors» sont américaines. Que faisons-nous pour les concurrencer?

L’avènement de la société de la connaissance pose enfin en termes partiellement nouveaux le problème de la fonction des médias.

M. Balsemao leur attribue sept fonctions permanentes: être le messager, le gardien des valeurs démocratiques, le transformateur de l’information en connaissance, le véhicule des courants d’opinion qui traversent la société, le représentant des principaux intérêts qui l’animent, l’éveilleur de l’opinion sur les problèmes nouveaux, l’acteur majeur dans la construction d’un nouveau modèle culturel.

Cette fois encore, ce qui appartient au secteur particulier et ce qui relève de la politique générale s’entremêlent étroitement, d’autant plus que les médias ont une grande influence sur l’exercice du pouvoir, que la télévision a sacralisé et que les nouveaux médias peuvent plus librement contrôler ou contester. On débouche donc sur la nécessité d’une approche inédite de la démocratie. Cette conclusion s’est fréquemment rencontrée tout au long du colloque.

Le dernier volet de cette enquête sur le champ d’action du multimédia a été consacré aux relations avec la télévision.

J.-P. Teyssier, le président de l’INA, a tout d’abord rappelé que le lien si prometteur entre multimédia et audiovisuel a été créé par deux percées technologiques.

La généralisation du numérique, le langage binaire de l’ordinateur, au signal émettant l’image et le son, a unifié l’ordinateur, la télévision et les télécommunications. Cela remonte à une vingtaine d’années. Plus récemment, l’invention de la compression numérique a permis de décupler le rythme de transmission de l’image et du son: progrès indispensable pour satisfaire une clientèle nombreuse, dont la demande est très diversifiée, si on ne veut pas saturer les réseaux.

Cette évolution a engendré une série de conséquences, dont les effets ultimes sont encore loin de pouvoir être appréciés. On peut toutefois déjà regrouper ces conséquences sous trois rubriques:

– la nécessité de procéder à des alliances et regroupements dans l’industrie;

– l’avènement de nouveaux services et de nouveaux métiers;

– l’obligation d’accorder une priorité au contenu.

Les alliances et regroupements au sein de l’industrie audiovisuelle sont indispensables pour faire face à l’ampleur des investissements nécessaires: matériels de compression, de diffusion, décodeurs et systèmes d’accès, coûts des programmes et du marketing pour trouver la clientèle.

L’évolution technologique d’autre part talonne: il n’y aura bientôt dans une maison qu’un point d’entrée pour l’image, le son et la voix, c’est-à-dire pour le téléphone, la télévision et Internet. D’où l’incitation à maîtriser toute la chaîne: production du contenu, diffusion, lien avec le client. Telle est par exemple la stratégie de la «Générale des eaux», à l’origine de son absorption de Havas, telle est aussi la stratégie de Bertelsmann et de Murdoch.

Cette tendance est inéluctable. Elle devient internationale, ce qui l’amène à se heurter à la diversité des réglementations et donc à rechercher simplifications et harmonisation des législations. Mais il faudra aussi veiller à ne pas créer des situations d’oligopoles qui se réservent l’exclusivité de certains programmes, comme le veulent par exemple certains bouquets satellitaires en matière sportive.

L’arrivée sur le marché audiovisuel de nouveaux services est spectaculaire. Elle se caractérise par la richesse toute nouvelle de l’offre, bouquets satellitaires, ou Internet, mais aussi par l’individualisation du choix pay per view ou vidéo à la demande, qui s’obtiennent par télécommande; services en ligne – la diffusion des courses de chevaux s’accompagne de la possibilité de parier de chez soi – ; téléchargements à partir d’une banque de données; liaison Internet-audiovisuel à travers un logiciel qui permet de sélectionner les programmes, véritables chaînes automatiques. Et enfin, outre la richesse de l’offre et l’individualisation du choix apparaissent des fonctions nouvelles. Et notamment éducatives.

Tel est le sens de l’expérience menée entre l’INA et la Cinquième chaîne. Des émissions éducatives réalisées par l’INA sont stockées sur un serveur et leur menu est proposé sur Internet. Un étudiant ou un lycée équipé d’une parabole recevra l’émission commandée la veille et téléchargée par satellite dans la nuit pendant les heures creuses de son fonctionnement. On a là une forme d’interactivité.

À ces nouveaux services correspondent de nouveaux métiers dans la confection et la diffusion de programmes, ce qui montre que le secteur est à la fois dynamique et en pleine mutation. Vers quelle destinée? Une certitude: la qualité s’accroît. Une zone obscure: qui l’emportera de l’ordinateur intelligent ou du poste de télévision à large écran? Probablement verrons-nous un grand écran plat informatisé! Mais quand? Une nécessité enfin: stimuler la recherche dans le logiciel de navigation, sinon la masse d’informations et d’émissions disponibles sera très difficile d’accès.

L’augmentation de l’offre et l’individualisation du choix aboutissent à donner, là aussi, priorité au contenu sur le support. Dès lors il faut mettre en place une double politique: d’archives et de création.

En matière d’archives, l’Europe est en très bonne situation par rapport aux États-Unis. Un rapport officiel américain indiquait que 80% des films produits aux États-Unis avant 1920 avaient disparu, ainsi que 50% de ceux produits avant 1950. En Grande-Bretagne, en Italie, en Allemagne et en France, la situation est beaucoup plus favorable.

L’INA est détenteur de 800000 heures de radio et de télévision, depuis les années 20 pour la radio et les années 40 pour l’image animée. Et elle s’enrichit d’environ 20¤000 heures chaque année. Les autres sociétés de radios et de télévisions puisent abondamment pour leurs émissions dans ce stock.

L’archive prend ainsi une valeur économique nouvelle. D’où l’impérieuse nécessité de numériser ce patrimoine existant pour mieux le stocker, le conserver et le diffuser. Ce qui est également vrai des bibliothèques, d’où le souhait de voir se créer une puissante industrie de la numérisation en Europe qui puisse abaisser les coûts.

Et, naturellement, la création doit être stimulée. L’INA s’y emploie, avec la création d’un centre de recherche sur l’image et le son, d’un studio de production, notamment multimédia, et d’un centre de formation aux nouvelles techniques.

La création multimédia toutefois est encore balbutiante, bien qu’elle soit par elle-même beaucoup moins coûteuse à produire que le livre, l’émission télévisée ou le film. Dans ce domaine toutefois, l’Europe n’est pas distancée par les États-Unis: le festival «IMAGINA» organisé par l’INA à Monaco voit les prix assez largement partagés entre Europe et États-Unis pour la création d’images de synthèse.

Reste en Europe un frein à faire sauter: le régime des droits d’auteur, qui doit être simplifié et harmonisé afin de libérer rapidement les œuvres. Sinon, les sociétés audiovisuelles iront de plus en plus puiser dans le répertoire américain.

De tout cela résulte quelques recommandations simples et fortes:

– regrouper les entreprises européennes;

– favoriser la recherche et le développement de logiciels de navigation;

– numériser le patrimoine européen et mettre en ligne ce qui relève du domaine public;

– harmoniser les régimes juridiques;

– veiller à éviter que se recrée artificiellement des phénomènes de rareté par la rétention des œuvres ou la complexité des droits.

Révolution de l’information, révolution culturelle, bouleversement social: toutes ces expressions, synonymes les unes des autres, sont revenues fréquemment dans les communications présentées au colloque. Le multimédia – c’est le moins qu’on puisse dire – ressemble plus à une lame de fond dans la société qu’à un tourbillon passager. Par conséquent, la vie politique ne pouvait pas rester hors d’atteinte de la vague: trois communications différentes mais complémentaires ont clarifié cette question et permis d’évaluer le rôle du multimédia dans la sphère proprement politique. Phil Noble a ouvert des perspectives sur la vie politique américaine, les États-Unis préfigurant souvent avec quelques années d’avance ce qui se produit dans le reste du monde. A. Santini a présenté une expérience française d’utilisation à des fins politiques des nouvelles technologies dans sa commune d’Issy-les-Moulineaux, et J. Braga de Macedo a traité l’aspect financier de la vie politique, tel que le multimédia l’a bouleversé.

Phil Noble a d’abord brossé un tableau général de la place des nouvelles technologies dans la société américaine: on a repris cette partie de son exposé dans les aspects techniques et sociétaux relatifs aux États-Unis. On avait alors mesuré le progrès foudroyant d’Internet dans la société américaine dû au fait que les instruments nécessaires à son utilisation étaient simples, abondants et peu coûteux.

Abordant les aspects politiques, l’expert américain rappela quelques données de base. En 1994, Internet ne jouait aucun rôle dans la vie politique. En 1996, 85% des membres du Congrès avaient leur page. 30% des volontaires qui ont fait la campagne électorale de Bob Dole ont été recrutés par Internet. 11% des votants ont indiqué que les informations qu’ils ont obtenues sur Internet ont décidé leur vote.

En entrant dans les mœurs, Internet introduira deux différences fondamentales dans la communication politique par rapport aux autres modes de communication.

Tout d’abord, dans les modes traditionnels, dans la presse, la radio et la télévision, qui détient la technologie est maître du contenu. C’est une personne qui s’adresse à des millions de citoyens passifs. Avec Internet, chacun peut créer sa station d’émission pour une poignée de dollars: ce sont des millions de citoyens qui communiquent à des millions de citoyens. Voilà un changement radical.

L’autre conséquence réside dans un nouvel équilibre du pouvoir: les dirigeants ne peuvent plus imposer leur domination en même temps que leur vérité. Un groupe de citoyens peut contester leurs informations, les critiquer et les opposer à d’autres sources. Sans avoir à solliciter ni l’accord des dirigeants de médias ni celui des dirigeants politiques. Le pouvoir médiatique et le pouvoir politique se sont simultanément déplacés en direction des citoyens.

Les conséquences seront considérables.

Il est clair tout d’abord que l’influence appartiendra à ceux qui maîtriseront les outils d’Internet.

Il est probable que les dirigeants devront changer leur méthode et se soucier davantage des besoins et des aspirations exprimés par la société.

Les partis politiques devront s’adapter tout comme le commerce, la banque, ou l’assurance. Dans leur cas, il faudra prévoir une campagne permanente de communication, pour dire ce qu’ils pensent, ce qu’ils veulent, ce pourquoi ils luttent.

Enfin, la démocratie représentative devra être repensée. Elle repose sur l’idée que les politiciens disposent de plus d’informations que le citoyen, et qu’il en va de même de l’administration. Cette conception est désormais dépassée: un groupe de citoyens est susceptible d’être plus compétent qu’un politicien.

Amnesty International avait demandé de suspendre l’exécution de condamnés à mort pendant les Jeux olympiques. Cette demande fut noyée sous le flot des nouvelles que les médias répandaient à propos des Jeux olympiques eux-mêmes. En quinze jours, par Internet, 80000 pétitions furent adressées sur le E-Mail des politiciens de Georgie. Sans aucune autre forme de publicité, 80000 personnes prirent position. Les politiciens y furent extrêmement sensibles.

Le ministère australien de la Santé, de son côté, est en train de développer sur Internet un nouveau système d’information sur les droits des habitants du pays en matière de sécurité sociale.

En vérité, le potentiel politique d’Internet est sans limite.

Pour conclure, Phil Noble présenta une quadruple prédiction:

– En 2000, pense-t-il, les dictateurs s’efforceront de réduire Internet au silence, tant il sera déstabilisateur de leur régime. Ils échoueront.

– En 2005, le Président des États-Unis ou d’une démocratie industrialisée gagnera ou perdra son élection en raison d’Internet.

– En 2010, un parti politique d’un style nouveau utilisant Internet sera le plus puissant dans un pays industrialisé. Parce qu’il fournira à beaucoup de citoyens de nouvelles voies d’accès au processus politique.

– En 2015, il existera une nouvelle structure de décision politique grâce à Internet et à ceux qui y sont connectés.

Les quarante années qui s’écouleront entre 1980 et 2020 seront probablement l’une des périodes clé de l’histoire du monde, celle où une civilisation s’est remodelée grâce à de nouveaux instruments conduisant à de nouvelles idées, selon l’observation d’un sociologue américain cité par Phil Noble, et entre 1990 et 1998, «la société commencera à prendre conscience de l’ampleur de ce changement, et commencera à se réformer sur cette base». Eh bien! nous y sommes.

Avec A. Santini, maire d’Issy-les-Moulineaux, proche banlieue de Paris, c’est l’expérience concrète de l’installation du multimédia dans une commune moyenne qui nous a été décrite. Cette expérience a permis d’observer les réactions des entreprises, des écoliers et des citoyens face au multimédia utilisé dans la vie politique. Expérience d’autant plus intéressante qu’elle est rare dans un pays relativement frileux comme la France.

Comme toutes les municipalités françaises, Issy-les-Moulineaux a cherché à attirer sur son territoire des entreprises. Mais cette recherche était ciblée en direction des sociétés de communication, parce qu’elles sont flexibles et innovantes. Successivement l’Équipe, TDF, Compacq, la cinquième chaîne, etc., sont venus s’installer.

En 1995, a été lancé un serveur Internet. 150 entreprises locales se sont connectées et à côté de ce club des grands a été constitué un second club pour les PME-PMI. 25% de celles-ci utilisent désormais Internet pour leurs affaires. Et c’est à travers le web qu’elles interrogent les services municipaux. De même un cyber-site a été créé pour les demandeurs d’emplois.

L’autre volet de l’expérience était tourné vers la population pour la sensibiliser aux nouvelles technologies.

Un effort spécial a été engagé en direction de la jeunesse:

–  les écoles ont été connectées sur le multimédia et les quartiers les plus défavorisés ont été les premiers branchés. Les enfants se sont parfaitement adaptés;

–  une carte à puce a été remise aux enfants à partir de 4 ans pour régler leurs menues dépenses: les repas à l’école, les études du soir, la piscine, etc.

Pour l’ensemble de la population une médiathèque a été créée: elle reçoit 10000 visiteurs par semaine, et abrite déjà 700 CD-Rom à consulter sur place et des milliers de réservations ont été enregistrées pour utiliser un micro-ordinateur.

Enfin, l’hôtel de ville dispose d’une salle multimédia très bien équipée.

L’accueil de la population a non seulement, été très favorable, mais les habitants d’Issy se sont révélés fort actifs: grâce à l’E-Mail, ils interrogent sans cesse leur maire, ce qui donne 15¤000 messages enregistrés en quelques mois qui lui sont personnellement destinés. Et parmi eux beaucoup de jeunes.

De cette expérience, il se dégage une leçon: Internet est aussi un nouveau «service de proximité». Grâce à lui, les habitants accèdent plus facilement aux services locaux, sans tenir compte des heures d’ouverture et sans se déranger, puisqu’ils peuvent déposer leur message dans les boîtes électroniques.

Une nouvelle étape a été franchie avec le «conseil municipal interactif» en janvier 1997. Toutes les heures, la séance du conseil était suspendue pour répondre aux questions posées par les habitants. D’une enquête menée au lendemain de la séance, il ressort que 45% des foyers câblés ont suivi l’émission, soit environ 6000 personnes, et 216 appels ont été enregistrés. Là encore la leçon est claire: nous sommes dans un régime de démocratie représentative et nous passons progressivement à un régime de démocratie directe par le biais de la démocratie locale.

Cette expérience laisse l’administration perplexe et sourcilleuse, et les chercheurs s’interrogent. Par exemple, les droits de l’opposition sont-ils bien respectés? A. Santini a défini un critère: sa liste étant élue avec 60% des voix, il a estimé devoir laisser 40% du temps de parole à l’opposition, ce qui représente son poids politique dans la ville. Il en résulte que le citoyen d’Issy est bien informé et qu’il a déjà pris le pouvoir sur Internet: cela fait émerger de nouveaux comportements. Des citoyens informés et critiques obligent les majorités à être responsables, et l’opposition à offrir une autre image que la critique systématique.

Dans sa conclusion, A. Santini rejoint plusieurs de ses prédécesseurs en insistant sur l’importance d’une politique de raccordement des écoles au multimédia, mais en soulignant aussi la nécessité de multiplier les expériences au niveau local. Par conséquent il appartient à l’État de déléguer largement ses crédits aux municipalités. Pas de «plan multimédia pour tous» lancé par l’État: il risquerait trop de rejoindre dans la faillite les plans calcul, câbles ou informatique pour tous. Belle apologie fortement illustrée de la décentralisation.

La réflexion qu’a menée J. Braga de Macedo sur le multi­média et la finance s’est concentrée sur deux thèmes:

– à l’époque de la mondialisation, les marchés internationaux sont-ils propices ou néfastes à la «liberté financière» des citoyens?

– les marchés internationaux sont-ils bénéfiques ou non pour les villes et les entreprises, dans leur exigence de transparence envers elles?

Les nouvelles technologies en effet sont les principales responsables de la mondialisation et du rôle croissant joué par les marchés financiers: c’est ce qui conduit à étudier l’incidence des marchés financiers sur le citoyen, sur les municipalités et les entreprises.

La démonstration repose sur deux exemples.

Le ministre des Finances d’Afrique du Sud vient de décider l’élimination du contrôle des changes. Pourquoi? Pour donner de son pays une bonne image internationale qui fera baisser les taux d’intérêt et facilitera l’exécution de son budget.

Autre exemple: la Grèce. En 1994, la drachme a été attaquée. Le gouvernement grec a lui aussi supprimé le contrôle des changes. Que s’est-il passé? La spéculation s’est aussitôt arrêtée.

Quelle leçon retirer? Un pays qui s’ouvre au jugement des marchés financiers est un pays qui inspire confiance et il en perçoit le bénéfice.

Le citoyen n’y perd rien, bien au contraire. Il y gagne en effet sa «liberté financière», expression majeure de sa «liberté politique». Mais qu’est-ce que la liberté financière? «La capacité qu’a un citoyen d’échanger sa richesse monétaire dans quelle que monnaie que ce soit.» Selon la définition donnée par J. Braga. Cette liberté existait au temps de l’étalon or, elle sera garantie par le monnaie européenne unique: elle avait disparu avec le contrôle des changes.

Par conséquent, les marchés financiers internationaux et la mondialisation ne sont pas les ennemis de notre société de liberté: ils sont au contraire des auxiliaires de la démocratie. Grâce à la technologie qui a mis fin au monopole d’information, et qui contraint les États à libéraliser leur marché financier. Seule une pensée rétrograde défend encore ce contrôle de l’État, et parfois même la sortie du marché international, c’est-à-dire l’isolement économique.

On observe en effet que lorsque les villes et les régions empruntent sur les marchés internationaux, depuis un certain temps, la notation que leur applique les sociétés spécialisées (Moody’s ou Standard and Poors) est très proche de la notation accordée aux pays auxquels elles appartiennent. D’où l’avantage cette fois encore de l’Union économique monétaire européenne, qui jouira d’une excellente notation: villes et régions d’Europe en profiteront.

En revanche, lorsque des villes empruntent depuis peu, leur notation est plus incertaine et l’on constate des divergences entre les sociétés très spécialisées. Par conséquent, les finances municipales ont intérêt à adopter les disciplines que leur imposent les marchés financiers. Leur notation est meilleure et les taux de l’emprunt sont plus bas.

Restent les entreprises, qui ont parfois des liens suffisamment obscurs avec les pouvoirs publics que l’on se trouve en vérité face à des situations de corruption. Là encore le souci de transparence qui anime la mondialisation est bénéfique. Une société «Transparency International» dont le siège est en Allemagne joue sur ce terrain le même rôle que les agences de notation financière. Elle a créé un indice des pratiques de corruption, qui va de 0 à 10. À 10, l’agence constate l’absence totale de corruption: le champion est la Nouvelle Zélande, avec 9,43 et la lanterne rouge le Nigéria avec 0,69. Selon les chiffres de 1996, l’Irlande est à 8,45, la Belgique à 6,94, le Portugal à 6,53, la Grèce à 5,01, l’Espagne à 4,3 et l’Italie à 3,42. Voilà encore un instrument de nature à rendre plus rigoureuse l’éthique financière des entreprises corruptrices – et des autorités corrompues. Qui s’en plaindra?

Par conséquent, sur le plan financier aussi, les nouvelles technologies de la communication se sont montrées favorables à la liberté du citoyen, propices aux intérêts des villes et de leurs contribuables, efficaces contre les méthodes de corruption qu’elles dévoilent.

Des réflexions plus générales ont été présentées tout au long du colloque sur le multimédia et ses effets sur la vie politique. On les trouve essentiellement dans les interventions de R. Barre et de M. Bangemann ainsi que dans la conclusion de Mario Soarès.

Les trois orateurs ont été d’accord pour estimer que le multimédia introduisait plus de liberté, plus de participation dans la vie politique, et une ouverture des esprits vers le reste du monde, incitant le citoyen à se poser non plus seulement les problèmes de son village mais de la «world governance». Tous ont été profondément sensibles à cette novation fondamentale, à ce renversement des relations entre le citoyen et l’autorité qui le gouverne.

M. Bangemann a d’autre part dégagé l’idée que la liberté de s’informer était plus riche, plus prometteuse et plus démocratique que la liberté d’expression. Si la démocratie implique un large débat d’où doivent sortir des décisions et des mesures qui ont l’approbation de la majorité des citoyens, il n’est pas douteux qu’il vaut beaucoup mieux avoir des citoyens informés plutôt qu’une élite de journalistes et de politiciens qui ont seuls le droit de détenir l’information et de s’exprimer. D’autant plus que les médias ne sont pas toujours à la hauteur lorsqu’il s’agit de décrire une situation ou de faire connaître les différents points de vue des parties en présence, comme l’a souligné le commissaire européen.

De la même manière, l’unanimité s’est faite entre les trois orateurs pour constater l’anxiété de l’opinion européenne face à l’arrivée de ces nouvelles technologies. Ils ont estimé qu’il était urgent d’y répondre: par le dialogue, par l’innovation sociale susceptible d’atténuer le coût humain du changement. La mondialisation étant inévitable, il importe de s’y adapter dans les meilleures conditions.

L’accord s’est également dégagé sur le retard de l’Europe – qui possède de sérieux atouts, un vaste patrimoine, un niveau scientifique et technologique égal à celui des Américains –, parce qu’elle n’a pas su mettre en place la politique et le grand marché qui s’imposent à l’échelle du continent: achever l’Europe est le leit-motiv. Selon quelle stratégie? a toutefois insisté M. Soarès.

L’optimisme fondamental, à terme, a été toutefois nuancé par quelques sérieuses mises en garde.

Le danger d’une société créant de nouveaux exclus a été fortement souligné et les remèdes évoqués ont été l’introduction du multimédia à l’école et dans la vie locale, de manière à ne pas créer dès le départ dans la vie deux catégories de citoyens, et, plus tard, à éviter l’isolement des exclus en créant par le multimédia de nouvelles communautés. Mais il restera, non résolu, le même problème à l’échelle du monde: en Afrique, en Amérique Latine, dans une partie de l’Asie, se retrouveront les exclus du progrès. M. Soarès s’en est spécialement inquiété.

Autre effet pervers possible du multimédia: la démocratie directe sans régulation préalable.

M. Bangemann a dénoncé le «référendum électronique» lorsqu’il n’est pas précédé d’une période de débat et d’information. Ce serait la pire des manipulations. Et M. Soarès a repris le problème sous un autre angle. La démocratie, a-t-il souligné, est le régime de la loi, de la règle. Selon quelles règles interrogera-t-on un maire? un premier ministre? un président de la République? Comment parviendra-t-on à responsabiliser le citoyen qui interroge? Cette réflexion préalable est essentielle: elle reste à mener.

Enfin, R. Barre a évoqué la menace sur les identités culturelles. Les nouvelles communautés nées du multimédia auront- elles ou non conscience de leur appartenance à une communauté culturelle? Cette question renvoie au contenu des programmes multimédias.

R. Barre a développé l’idée que tout Européen relève d’une double identité, nationale et européenne, qui doivent être également approfondies et sauvegardées. D’où la nécessité d’avoir une politique des contenus, c’est-à-dire des programmes. Pour cela, toute stratégie de repli, de fermeture, de quotas ne fait qu’accroître les retards. Il faut au contraire réaliser des structures ouvertes, puissantes, de création européenne en concurrence avec le reste du monde.

Qu’il s’agisse d’encouragements ou d’avertissements, toutes ces remarques tendent à montrer l’importance que le multi­média est en train d’acquérir dans la vie politique: il formera le futur citoyen dès son enfance et confortera ou aliénera ses droits, selon l’usage qui en sera fait. On retrouve la problématique de toutes les technologies, avec toutefois plus d’urgence et d’ampleur.

Tout ne peut être dit dans un colloque, si riche soit-il.

Rendre compte des diverses interventions, avec fidélité espère-t-on, en mettant en relief les divergences, sources de réflexion, sans dissimuler les répétitions, marque d’un accord sur le fond, constitue l’essentiel de notre mission.

Il n’est pas interdit, pour conclure, de prendre quelque recul et de dégager quelques problèmes nouveaux que notre exploration a fait surgir. Inévitablement toute solution proposée n’est que la source de nouveaux problèmes.

Il y a l’acquis. Que le multimédia représente la troisième révolution de l’histoire est de cet ordre. De même que l’introduction de la machine a quasiment détruit le monde rural et artisanal de nos ancêtres, de même le multimédia est de nature à bouleverser les différents secteurs de notre vie économique, sociale et culturelle. Ce colloque emporte la conviction en la matière.

Le multimédia apparaît désormais comme le fondement principal de la société de services. On le trouve aussi efficace et novateur dans les finances, le business, l’éducation, la recherche, la culture. Entre des mains expertes, le multimédia est le plus puissant auxiliaire de l’invention.

À terme – mais quand? – cette nouvelle société créera un homme nouveau. À l’homme obéissant, diplômé, inscrit dans une hiérarchie et dans la même société sa vie durant, pourrait se substituer progressivement l’homme indépendant, maître de sa capacité à renouveler ses connaissances, adaptable, créatif et aventureux.

Celui qui sera en harmonie avec la société de demain. Mais les problèmes de transition risquent d’être socialement épineux.

Engluée probablement dans sa tradition, l’Europe apparaît hésitante dans deux domaines fondamentaux et relativement liés entre eux: celui de la réglementation, et celui de la concentration industrielle. Elle semble opter pour l’instant en faveur d’une réglementation restrictive, qui ne cherche pas l’unification des législations entre les secteurs et les pays. Le danger, souligné aussi bien par F. Cornelis que par P. Balsemao et J.-P. Teyssier, ainsi que par les savants du CERN, réside dans le fait que l’Europe s’interdit du même coup de créer des entreprises à la taille nécessaire pour concurrencer les majors américaines et pour réaliser un grand marché unifié. A-t-on mesuré le coût économique exorbitant de cette politique de contrôle, de pluralisme administré, de quotas qui paraît inspirer le modèle européen par rapport à l’exemple américain? Ne risquons-nous pas de cumuler les inconvénients de la stratégie américaine – qui sont inhérents à la nature profonde du multimédia – avec les faiblesses que nous impose la fidélité à un modèle dépassé? Là est la question fondamentale.

Soyons conscients, en effet, que même aux États-Unis, le multimédia ne nous introduira pas dans le jardin d’Eden. Car il connaît deux limites infranchissables: celle de la vie personnelle, celle de la vie sociale.

N’oublions jamais que le multimédia ne diffusera que de l’image ou du son enregistrés. Or ce n’est pas la même chose que de voir Louxor, Versailles ou Angkor sur un écran avec un CD-Rom et de les contempler sur les lieux mêmes. Pas davantage de regarder une cassette vidéo de Don Giovanni ou de le voir à la Scala, à Aix ou à Salzbourg. Pas la même chose un reportage, si bien fait soit-il, sur un bidonville, et la plongée dans son odeur, dans les matières qui le composent, dans les silences, les bruits, les cris qui le caractérisent à différents moments. Instrument remarquable pour ceux qui savent, le multimédia ne formera jamais le goût, la sensibilité, la personnalité comme la réalité.

À côté de l’école multimédiatique, reste donc l’école de la vie.

Prenons un seul exemple: celui de la culture.

Si l’on ne stimule pas en France et en Europe la création vivante en même temps que la formation aux arts, et la réflexion historique et sociale, de sérieux risques de sclérose, de conformisme, sont susceptibles d’entraver le renouvellement de la culture européenne.

Mais à l’inverse, si nous sommes capables d’apporter à la création vivante les moyens d’exister, à la réflexion sociale les conditions pour s’épanouir, grâce à l’immense potentiel créateur des pays européens, le multimédia nous permettra de forcer les barrières commerciales ou non commerciales des autres parties du monde, pour y faire passer nos messages et notre vision de la civilisation. Or que fait l’Union européenne? Où sont ses initiatives? Où voit-on ces problèmes évoqués dans le traité de Maastricht? Une lacune grave.

Sur le plan collectif, il faudra également retrouver le sens de la vie.

Le multimédia peut y contribuer, mais il sera insuffisant. En Europe, il poussera à la décentralisation et à la hiérarchisation des pouvoirs: Union européenne, États nations, régions et villes. Tout l’indique: le multimédia renforcera la vie locale, car il constitue un merveilleux média de proximité. Toutefois, ces unités décentralisées devront disposer d’une certaine taille critique pour mettre en œuvre les moyens humains et financiers propres à l’utilisation des nouvelles technologies. D’où le renforcement du rôle des villes, moyennes ou grandes, et de leur sphère d’influence.

Qu’en résultera-t-il?

La vie politique sera plus proche du citoyen et de la réalité, contraignant le responsable politique à se préoccuper autant de l’administration des choses que du gouvernement des hommes, à être plus concret, compétent, et moins idéologue. D’où, cette fois encore, la nécessité de coller à la réalité.

Quant au citoyen, il se trouvera, au fond, dans une situation assez paradoxale.

Il sera mieux informé, plus actif, plus souvent consulté et en même temps plus solitaire, sauf à s’intégrer dans des communautés virtuelles. Mais il sera peut-être aussi plus accessible aux techniques de manipulation, qui joueront sur l’imaginaire et ce monde virtuel si aisé à réaliser par le multimédia.

De là le besoin de recréer dans les villes de nouvelles occasions de rencontres, de débats, de participation concrète à la vie locale, ce qui souligne l’importance accrue de la vie culturelle, et la nécessité de repenser l’urbanisme pour retrouver des espaces de vie commune, aménagés de façon aussi esthétique que fonctionnelle.

Le multimédia offre donc un champ considérable à la liberté individuelle. On y retrouvera par conséquent les problèmes de l’organisation de cette liberté: empêcher les abus, mais sans entraves inutiles.

Le multimédia offre aussi une chance fantastique pour l’épanouissement personnel: information, nouvelles formes de groupes, échanges d’expériences, etc., à condition de ne pas s’aliéner dans la technologie, ce qui implique une source de culture et d’humanisme extérieure à la technique et qui la domine.

La société du multimédia connaîtra, soyons-en sûrs, deux risques majeurs:

Une société plus divisée que jamais, entre les inclus et les exclus de la société de la connaissance, mais aussi entre ceux qui ont une vision mondiale et européenne, et ceux qui n’ont que l’univers local, entre ceux qui se mobilisent pour l’avenir et ceux qui ne rêvent que de l’acquis, entre ceux qui ressentent profondément le devoir d’invention et ceux qui ne connaissent que le devoir de mémoire.

La solitude de l’homme dans la ville, d’où la nécessité de développer à la fois des modes de participation concrète et non plus virtuelle, et de stimuler des échanges entre toutes ces unités décentralisées.

À ce stade, se trouve reposé le problème de l’Europe, d’une Europe décentralisée, bien adaptée à l’ère du multimédia, dont il lui appartiendra de favoriser le développement. Ce qui veut dire que:

– l’Europe devra plus que jamais veiller à son rôle mondial;

– l’Europe devra plus que jamais découvrir l’importance de sa cohésion interne.

La décentralisation est un progrès, si elle ne débouche pas dans l’éparpillement, l’isolement et l’impuissance, mais dans la solidarité concrète et organisée. Seul modèle alternatif à celui des États-Unis et du Japon.