jeudi 27 mai 2010

Science et Guerre Froide

Une récente retrouvaille avec un collègue Chinois, devenus patron d'un grand laboratoire à Pékin m'a fait m'interroger sur le rôle de la science et les relations entre les scientifiques durant la guerre froide. En effet, ce collègue que j'ai bien connu vers 1985 au CERN était alors postdoc au MIT ! Étonnant n'est ce pas ? Ceci veut dire qu'en pleine guerre froide, les américains formaient de jeunes chinois dans les plus prestigieuses universités, ce n'était même pas du détournement de cerveaux ("brain drain") puisque la plupart de ces jeunes sont retournés en Chine où ils exercent de hautes fonctions. A l'inverse, cela veut dire qu'à cette époque la Chine acceptait que ces étudiants les plus prometteurs s'expatrient à l'ouest.

Ce n'est pas le seul exemple, il suffit de regarder les conditions dans lesquelles le CERN a été créé pour comprendre qu'il y avait une politique délibérée, calculée et très ambigüe de la part des États-Unis vis-à-vis de la recherche en physique nucléaire. Comme le rapporte François de Rose, c'est juste après la deuxième guerre mondiale que de grands physiciens tels que Robert Oppenheimer ont réalisé que la recherche fondamentale dans le domaine du nucléaire (la physique des particules n'étaient pas encore une discipline distincte) allait requérir des moyens considérables hors de porté de la plupart des pays. Parallèlement, il était indispensable de faire en sorte que l'Europe se relève rapidement de la guerre et fasse obstacle à l'avancée du communisme et bien sûr d'éviter que les esprits les plus brillants ne passent à l'est. C'est en 1951, lors d'une conférence de l'UNESCO que le Physicien prix Nobel américain Isidore Rabi défendit l'idée  de créer le Conseil Européen pour la Recherche Nucléaire. Cette idée plut beaucoup à Robert Schuman, alors ministre du gouvernement français et considéré comme l'un des pères de l'Europe.

Les américains ont fait très fort en poussant l'idée que le CERN devait travailler de la manière la plus ouverte possible, sans secret et avec pour règle de base de publier tous les résultats obtenus. Cet apparent humanisme peut peut-être s'expliquer plus cyniquement lorsque l'on sait qu'à la même époque, bon nombre de physiciens américains étaient mobilisés pour la mise au point de la bombe H et qu'il était nécessaire de maintenir malgré tout, la recherche fondamentale au plus haut niveau. C'est là, la thèse que soutien John Krige  et qui me semble pleine de bon sens.

Le CERN fut officiellement créé en 1954, son premier directeur fut Félix Bloch physicien, prix Nobel, d'origine Suisse et naturalisé américain.

La transparence du CERN vis-à-vis de ses recherches est un fait incontestable et cela reste aujourd'hui un grand principe de base. L'ouverture internationale a également toujours été une réalité. Lorsque je préparais ma thèse en 84-86 il m'arrivait fréquemment de passer les "shifts" dans la salle d'acquisition en compagnie de chinois, de russes et d'américains. Tout ce petit monde bossait ensemble et il n'y a avait aucune trace de défiance. J'ai même croisé une physicienne américaine qui tenait des discours teintés de communisme,  c'est dire !

Le CERN n'était pas le seul point singulier en cette période. De l'autre côté de l'Atlantique, le Stanford Linear Accelerator Center (SLAC) ouvre ses portes en 1962. SLAC est un très haut lieu de la physique des particules et s'est distingué avec plusieurs découvertes qui ont donné lieu à 3 prix Nobel. Le premier directeur de SLAC; Wolfgang K.H. Panofsky dit "Pief", fut un acteur du projet Manhattan. Réalisant l'horreur des bombardements sur Hiroshima et Nagasaki, il œuvra le reste de sa vie pour la paix et le désarmement.

Dès 1972 Panofsky recevait une délégation chinoise à SLAC , ces derniers souhaitant démarrer des activités de recherche fondamentale en physiques des particules.  Mais bien plus que la Chine, c'est avec des instituts soviétiques que des relations étroites se sont établies, Panofsky devenant même ami avec le physicien russe spécialiste des accélérateurs Gersh Itskovich Budker. Il y eu une très longue et très étroite collaboration entre SLAC et Akademgorodok, la ville scientifique située à côté de Novosibirsk. L'Institut de Physique Nucléaire, renommé plus tard Institut Budker mit au point en 1961 le premier collisionneur à électron: VEP-1. SLAC étant également spécialiste des accélérateurs d'électrons, on comprend qu'il y avait une vraie motivation scientifique pour ces collaborations.

Pief Panofsky a participé au projet Manhattan, a discuté plusieurs fois avec Eisenhower, est devenu conseiller de Kennedy, a rencontré Andrej Sakharov en 1972 à Moscou, a milité sans relâche pour la paix et le désarmement tout en étant directeur d'un des plus prestigieux centre de recherche des États-Unis. On voit bien que les relations entre la science et la politique sont complexes et que même durant les périodes les plus troubles de la guerre froide, le rideau de fer n'empêchait pas totalement les scientifiques de collaborer. 

Je conseille la lecture de l'interview de Panofsky ici. La photo ci dessous montre Panofsky en compagnie de son ami Budker à Novosibirsk en 1975. Elle est extraite du site suivant: http://www.slac.stanford.edu/history/images.shtml

samedi 22 mai 2010

Éducation Nouvelle ?

Paul Langevin (1872-1946) est un physicien de renom dont la vie est associée à celle des Curie, Einstein, Poincaré, Perrin, etc.  Il est célèbre pour la formulation, dans le contexte de la Relativité Restreinte, du paradoxe des jumeaux dont l'un reste sur Terre et l'autre voyage dans l'espace à une vitesse proche de celle de la lumière. Lors de leurs retrouvailles, celui resté sur Terre est bien plus vieux que son astronaute de frère. Langevin est également connu pour ses travaux en physique statistique ainsi que sur le mouvement brownien.

J'ai découvert récemment que Paul Langevin avait œuvré pour tenter d'améliorer le système éducatif. Fortement marqué par les horreurs de la  première guerre mondiale, il est convaincu qu'il est nécessaire d'élever les enfants selon des principes de paix, de tolérance et de respect de la personne humaine. Il n'est d'ailleurs pas le seul a œuvrer dans ce sens, on peut citer Célestin Freinet (père des écoles du même nom), Gustave Monod, et bien d'autres.

Il est Président de la ligue des Droits de l'Homme de 1944 à 1946 et Président du Groupe Français d'éducation nouvelle de 1936 à 1946. Ce groupe est  la branche française de la Ligue Internationale pour l'éducation nouvelle qui fut parait-il, très marquée par la personnalité de Maria Montessori  (mère des écoles du même nom). En 1946, accompagné d'Henri Wallon, il se voit confier la mission de proposer une réforme ambitieuse de l'enseignement. Au moment de la remise du projet de réforme en 1947 (après la mort  de Langevin), le gouvernement a changé de bord, les idées des militants communistes ne sont pas bien vues et la réforme est enterrée. Toutefois il semble que celle-ci a profondément marquée les esprits et que bon nombre d'idées ont été reprises et mises en œuvre dans les réformes successives de l'enseignement.

Les diverses expériences pédagogiques menées  après la première guerre mondiales n'ont pas toujours été de grands succès et étaient peut-être trop utopistes (voir l'école de Summerhill  en Grande Bretagne par exemple) , mais elles ont eu le mérite d'exister, d'innover et d'être pour la plupart basées sur des idées nobles où le jeune se trouvait au cœur du dispositif éducatif et était considéré comme une personne responsable. La volonté était également de rendre l'enseignement réellement accessible à tous et d'inculquer des valeurs de paix et de tolérance.

Quand je regarde le système éducatif actuel, j'ai l'impression que nous sommes bien loin de ces valeurs. Si les dangers d'une guerre sont bien sûr beaucoup moins présents maintenant qu'en 1920, il n'en reste pas moins que l'intolérance est de plus en plus présente et que malheureusement les valeurs éducatives ne tendent pas à inverser la tendance. Je suis toujours atterré quand mes enfants me rapportent les propos racistes qui s'échangent apparemment de plus en plus souvent entre les élèves sans que cela ne soulève la moindre indignation.

Le système actuel est hypocrite, l'école s'affiche comme donnant les mêmes chances à tous, alors que les différences entres les élèves favorisés et les autres n'ont jamais été aussi marquées. Comment, avec le système actuel, un élève des cités pourrait il avoir les mêmes chances qu'un jeune des beaux quartiers ? Tous les moyens sont bon pour créer des filières réservées à ceux que l'on a catalogué comme bons élèves  laissant par conséquent les autres tenter de s'extirper de voies de garage. On connait la recette: beaucoup de support de la part des parents pour "pousser" les élèves, choix de l'Allemand en première langue, option latin… si l'enfant est assez docile et malléable, il sera automatiquement dirigé vers une "bonne" classe, première étape vers un bon lycée et une grande école. Où est la justice pour un enfant issu d'une famille éclatée dont la mère se débat pour assurer la survie de la famille ? Comment peut-il s'en sortir si en plus il évolue dans milieu peu éduqué ou maitrisant mal la langue française ?

Le processus d'écrémage se base sur un gavage de connaissances, il faut apprendre bien plus que comprendre. L'enfant devrait découvrir, s'émerveiller, avancer petit à petit vers de nouvelles compréhensions et mettre en relation ses connaissances afin d'en faire émerger de nouvelles. Au lieu de cela on lui fait ingurgiter du savoir tout fait, il acquière des automatismes (combien de fois avons-nous entendu cela étant enfant ?) et n'est plus en situation de réfléchir. Le processus infernal continue tout au long des études et ne fait que s'emballer pour arriver à son paroxysme en classes préparatoires aux grandes écoles. Cela fonctionne parfois, et de très brillants esprits sortent des écoles prestigieuses, mais à quel prix? Combien d'enfances gâchées?   Combien d'élèves illettrés arrivant sur le marché du travail? 

Le commentaire suivant est extrait du site:
http://www.education.gouv.fr/cid3014/indicateurs-de-resultats-des-lycees.html 
qui publie des "indicateurs"de résultats pour les lycées : "Le taux de succès d'un lycée dépend fortement des caractéristiques de ses élèves, indépendamment de la qualité de l'enseignement qui y est dispensé". Quel constat d'échec ! Le site en question relavant directement du ministère de l'éducation nationale, il faut donc voir là une acceptation pure et simple de la catastrophe, voire une complicité. L'hypocrisie est à son comble, quand on publie des statistiques de "performance" des lycées afin que les parents qui le peuvent puissent faire en sorte que leurs enfants soient inscrits dans les "meilleurs" établissements, contribuant ainsi  à encore renforcer la discrimination sociale et éducative.

Monsieur Langevin, Madame Montessori et tout ceux de l'Éducation Nouvelle doivent se retourner dans leur tombe...

jeudi 6 mai 2010

Petite histoire de l'informatique scientifique

Quand j'ai démarré ma thèse en 1984 dans un laboratoire de physique des particules j'avais accès à deux types d'ordinateurs. Localement le laboratoire disposait d'un VAX 11/780 de la compagnie Digital Equipment Corporation (DEC qui fut plus tard racheté par COMPAQ qui lui-même fut racheté par HP). Le VAX avait été mis en place en même temps qu'un système de visualisation 3D: MEGATEK qui permettait d'analyser graphiquement les collisions protons-antiprotons les plus intéressantes enregistrés par le détecteur UA1 au CERN. (UA1 et UA2 sont les deux expériences où furent découverts les bosons W et Z, confirmant ainsi la théorie électrofaible).

Le VAX était une machine extraordinaire disposant d'un système d'exploitation (VMS) très performant et d'un éditeur pleine page, c'est-à-dire que l'on modifiait un fichier en se baladant dans l'ensemble de la page). Ces machines sont devenues très populaires dans les expériences du CERN car elle disposaient d'un système d'exploitation "temps réel" permettant de réaliser des systèmes d'acquisition de données.

L'autre système informatique était l'IBM 3081 du CERN à laquelle on accédait par un réseau à très bas débit (4800 bauds). Pour se connecter on disposait d'un terminal et d'un petite boîte bleu relié à un gros appareillage plein de petites lumières, appelé Gandalf. Le Gandalf était un équipement sacré dans la salle machine, personne n'aurait osé toucher au Gandalf , si "le Gandalf" était mort, le labo était isolé ! Pour se connecter on appuyait sur un bouton de la boîte bleu et le terminal affichait généralement qu'il n'y avait plus de connexions disponibles, il fallait alors faire la queue et attendre la libération d'un accès. Le jeu était ensuite de ne plus lâcher la connexion de la journée… Une fois connecté, on arrivait sur l'IBM et on se connectait avec un nom d'utilisateur à 3 lettres et un mot de passe de la même longueur (temps béni où la sécurité n'était pas nécessaire…).

Le système d'exploitation de l'IBM était MVS (Multiple Virtual Storage), plutôt rustique à côté du VAX, mais la machine était beaucoup plus puissante. L'interface utilisait un système développé au Stanford Linear Accelerator Center (SLAC) nommé WYLBUR. WYLBUR permettait d'éditer un fichier en mode ligne à ligne c'est-à-dire que le fichier était déroulé une ligne à la fois et lorsqu'on souhaitait modifier l'une d'elle il fallait déplacer le curseur sous celle-ci, se positionner au niveau de la portion de texte à modifier, taper un caractère de commande puis entrer la modification. Une fois le programme entièrement tapé de cette manière, on pouvait l'envoyer s'exécuter sur la machine. Il fallait ensuite attendre, parfois fort longtemps, que le programme soit exécuté, puis récupérer la sortie à l'aide de la commande "fetch" . La soumission d'un "job" nécessitait l'écriture de quelques lignes de commandes en "JCL" ou Job Description Language. Je pense qu'IBM n'a jamais fait pire dans le genre...

Si tu dominais le JCL ; au labo, l'égal des Dieux tu étais… voici un exemple de quelques incantations tirées de Wikipedia:

//IS198CPY JOB (IS198T30500),'COPY JOB',CLASS=L,MSGCLASS=X
//COPY01 EXEC PGM=IEBGENER
//SYSPRINT DD SYSOUT=*
//SYSUT1 DD DSN=OLDFILE,DISP=SHR
//SYSUT2 DD DSN=NEWFILE,
// DISP=(NEW,CATLG,DELETE),
// SPACE=(CYL,(40,5),RLSE),
// DCB=(LRECL=115,BLKSIZE=1150)
//SYSIN DD DUMMY

À partir de 1986 les grands centres de calcul de la physique des hautes énergies ont évolué vers des IBM 3090 multiprocesseurs (jusqu'à 6) fonctionnant sous le système d'exploitation VM (pour Virtual Machine). VM était vraiment un bon en avant par rapport à MVS, mais la souplesse du système était encore loin d'égaler les VAX. L'éditeur devenait presque pleine page et l'utilisateur disposait de tout un ensemble de périphériques virtuels: Imprimante virtuelle, perforateur de cartes virtuel ! Lecteur de carte virtuel, etc… faisant ainsi référence aux anciennes machines que l'on programmait avec des cartes perforées.

Le langage de commande de haut niveau de VM était le REXX qui permettait de réaliser assez simplement de petits utilitaires pour se simplifier la vie, voire pour automatiser certaines tâches avec le concept de machines de services.

À cette époque, point de graphique, ou si peu… nous disposions tout de même de quelques terminaux spéciaux de la marque Tektronix (les "Tektros" dans le langage courant) avec leur beaux écrans tout vert au phosphore (image ci-dessous). Un spot lumineux se déplaçait et traçait les motifs graphiques. Pas question ici d'afficher des images, juste des courbes, et des histogrammes . Le fait de laisser le même graphique affiché trop longtemps, brulait la couche sensible de l'écran et la trace de la courbe restait imprimée à jamais.
Dans les années 1987 - 1988 le CERN et plus particulièrement l'expérience L3 sur le LEP a commencé à s'équiper avec des stations de travail de la marque Apollo. Ce fut une petite révolution, il devenait vraiment aisé de faire tourner des applications graphiques, y compris en 3D sur les stations les plus puissantes. En 1989 je me suis chargé d'acquérir pour mon groupe d'expérience deux stations Apollo DN3500 et une station DN 10 000 (image ci-dessous), le tout pour la modique somme de 700 000 Francs. Les DN3500 disposaient chacune d'un disque de 350 MégaOctets et le DN 10 000 était équipé de la toute dernière génération de disques avec une capacité fantastique pour l'époque de 700 MégaOctets. Le DN 10 000 était une machine extraordinaire quoiqu'un peu fragile. Sa puissance était de 11 MIPS (millions d'instructions par seconde) à comparer au gros VAX 11/780 qui délivrait 1 MIPS. Les Apollo venaient avec le système d'exploitation AEGIS qui ressemblait pas mal à UNIX. Apollo proposait aussi un réseau spécial "Token Ring" plutôt performant pour l'époque. Le réseau était complètement intégré à l'architecture des machines ce qui faisait que le système de fichiers était distribué et accessible depuis n'importe quelle station. Le sommet de l'arborescence était symbolisé par le double slash "//". .. ça ne vous fait pas penser à quelque chose ??? 
Je me souviens également qu'Apollo offrait un debugger graphique ultra-moderne (DDE je crois….) il a fallut des années avant de retrouver aussi bien sur les autres stations de travail.

L'expérience L3 a basé toute une partie de son calcul sur une ferme de DN 10 000. Malheureusement, Apollo a été racheté par HP qui a maintenu la gamme quelques temps puis l'a abandonnée après avoir réintégré une partie de l'architecture dans sa propre gamme de processeurs. Le labo s'est alors tourné vers la gamme de stations HP 750 tout en investissant également dans des stations de travail Digital Alpha. L'expérience L3 a choisi un gros système Silicon Graphics, c'était encore là un choix d'avant-garde, mais vus les personnes qui s'occupaient du calcul dans cette expérience, le choix ne pouvait être que d'avant-garde :-)

L'arrivée des stations de travail puissantes correspondait à la mise sur le marché de processeurs à architecture RISC (Reduced Instruction Set Computer) qui permettaient d'obtenir d'excellentes performances. Dans le domaine de la physique des hautes énergie, ce fut la fin des gros calculateurs de type "mainframe" au profit de fermes de stations.

Après, ce fut la course au MHertz puis au GigaHertz et tout fut beaucoup moins passionnant...

samedi 1 mai 2010

Web brother is telling you...

Il y a souvent un mélange dans l'esprit du public entre Internet et Web, le second étant assimilé au premier, alors qu'il n'est qu'une  application  parmi d'autres qui utilise Internet. Internet est une évolution d'Arpanet, un réseau de communication mis au point dans les années 70  pour les besoins de l'armée américaine qui avait besoin d'un système de communication capable de résister à une attaque nucléaire (du moins l'idée a été "vendue" comme cela !). Un peu plus tard, le protocole TCP/IP a vu le jour, afin de normaliser le système  d'échanges de paquets d'informations sur le réseau.
Dans le monde de la recherche, dans les années 80-90, il existait d'autres réseaux: DECNET par exemple permettait d'interconnecter des machines de la marque DEC (comme les VAX ) et était déjà très performant. Il était possible dans les années 90 de copier très simplement des fichiers d'un ordinateur à un autre et d'échanger des e-mails.

À la fin des années 80, le réseau EARN/BITNET était également très populaire dans les universités et les centres de recherche. BITNET a été de mon point de vue, le premier système qui a rendu possible les échanges d'informations entre chercheurs à un niveau mondial . Par la suite TCP/IP associé aux systèmes d'exploitations UNIX a complètement supplanté les autres protocoles et s'est imposé, dans le monde de la recherche,  comme standard pour les échanges de fichiers et comme support pour le courrier électronique. Au même moment, on a commencé à voir fleurir toutes sortes de systèmes d'échanges d'informations: Listserv, Usenet,  Gopher, WAIS, Archie, etc. Tout ces système correspondaient à un besoin croissant d'échanger de l'information et de la structurer. Finalement, c'est en 1991 que le World Wide Web inventé au CERN à Genève, a été dévoilé.

Je pense que c'est  à partir des années 95-96 avec le développement de l'informatique familiale que le Web commence à apparaitre pour une utilisation grand public et c'est à peu près à la même époque que le courrier électronique commence à s'échanger en dehors du milieu strictement professionnel. Le Web a ensuite connu le développement que l'on sait avec des navigateurs de plus en plus performants, des contenus multimédia sophistiqués et une explosion du nombre de sites (plus de 200 millions début 2009, parait-il).

(ci-dessus, le logo original du World Wide Web proposé par Robert Cailliau - co-inventeur du Web avec Tim Berners-Lee).

Le Web est une mine d'informations ; dans peu de temps la quasi-totalité du savoir de l'humanité sera disponible en ligne. Les répercussions sont énormes puisque potentiellement tout être humain a la possibilité, d'accéder à la connaissance, du moment qu'il a accès à un terminal connecté à un réseau. Toute information, toute rumeur, est instantanément répercutée sur la toile, au risque de noyer les internautes sous un flot d'informations et de désinformations. Le terme de fracture numérique fait référence à l'exclusion de toute une partie de la société qui n'est pas assez riche pour disposer de cet accès aux technologies de l'information.

Le Web a considérablement évolué ces dernières années, bénéficiant de nouvelles technologies logicielles et matérielles ainsi que de l'augmentation de la capacité et des performances des réseaux. De temps en temps, de nouvelles applications apparaissent avec des répercussions sociétales majeures: Facebook, Twitter, Google, YouTube, MSN, Skype, etc. en sont des exemples.   L'Internet fait évoluer la société vers un monde hyper-connecté et d'ores et déjà les "smart phones" permettent à tout un chacun d'avoir accès en permanence à ses e-mails ou au Web.

Dans quelques années ce seront la plupart des objets qui interagiront  sur Internet, chaque élément devenant ainsi une source d'informations plus ou moins utiles. Cette explosion des sources de communication porte le nom "d'Internet des objets". À terme, voitures, objets domestiques, capteurs de toutes sortes seront connectés et déverseront des flots de données. La connexion des compteurs électriques des maisons et des entreprises permettra par exemple un suivi  en temps réel des consommations et un ajustement très fin des sources de production. De même, on peut imaginer que la connexion des voitures sur le réseau permettra d'anticiper les saturations des axes de communication. Bien entendu, ceci n'est que le bon côté de l'hyper-connexion, le mauvais réside dans toutes les dérives possibles au niveau de l'ingérence dans la vie privée ou de la manipulation des masses.

Une autre voie actuellement explorée s'appelle le Web sémantique. Cette appellation recouvre l'ensemble des technologies permettant d'accéder à l'information de manière naturelle et quasi-humaine. Avec le Web sémantique, les moteurs de recherche pourraient par exemple être consultés en formulant les questions en langage naturel, avec tout ce que cela implique au niveau des sens cachés et des imprécisions. Le Web sémantique suppose le développement d'ontologies c'est-à-dire de systèmes permettant de modéliser les connaissances, les concepts et  les relations qui les lient. C'est un domaine de recherche très complexe et  personnellement je ne suis pas convaincu que les approches actuelles mènent bien loin...

Quelques tentatives récentes visent à rendre le Web plus "intelligent", par exemple "Google Squared" permet de construire des tableaux d'informations à partir de mots clés. Si on tape les mots clés "nobel prize physics", Google Squared construit une table proposant les noms des Prix Nobels, leur photo, leur date de naissance, de décès, etc…  Rien d'extraordinaire direz-vous, sauf qu'en fonction des mots clés, le système est capable de "deviner" quelles sont les informations pertinentes. Il est également possible de demander l'ajout d'autres informations dans le tableau, par exemple le nom de l'époux ou épouse du Nobel ; Google Squared tente alors de trouver l'info et retourne celle-ci en lui associant un niveau de confiance… Ce ne sont que les premiers balbutiements, mais je pense qu'il y a là des idées intéressantes à creuser.

Pour finir, à mon avis, l'avenir du Web  sera ce que j'appelle le Web Cognitif, c'est-à-dire un système qui permettrait d'organiser automatiquement l'information en fonction de stimuli : un stimulus pourrait par exemple être une dépêche de l'AFP qui déclencherait automatiquement la mise en relation d'un ensemble d'informations pertinentes permettant de comprendre le contexte et les implications de la nouvelle. Le Web cognitif devrait être capable de trouver lui-même des corrélations entre des éléments très divers et dispersés. Un tel outil, opérant sur la totalité du savoir de l'Humanité aurait une puissance colossale et ferait à coup sûr progresser la connaissance.