Parcours professionnel

De Juillet 2013 à maintenant : Je suis le Directeur Général de de Strate Ecole de Design, que j’emmène dans une stratégie de développement à marche forcée, en vue d’en faire la plus belle école de design française, et une des plus belles du monde. Et les signes s’accumulent qui nous en annoncent l’avènement : reconnaissance de l’Etat, Visa du Ministère de l’Enseignement Supérieur, de la recherche et de l’Innovation, Double-diplôme avec SciencesPo Paris, création d’un MBA Management by Design, lancement d’une entité dédiée à l’executive education, 50 partenaires internationaux, partenariats académiques prestigieux (X, ESSEC,Telecom ParisTech, ENSTA, HEC, 42, Dauphine, IOGS, PSB Paris School of Business School, …), création d’une école à Singapour et d’une autre à Bangalore (Inde)…

Septembre 2012 : Je deviens le Directeur adjoint de Strate Ecole de Design, (alors Strate Collège) une des écoles majeures de design françaises, en vue d’en prendre la direction générale à la rentrée 2013. Je continue d’assurer la direction du Développement et de la Recherche. Je cède la direction du département « Systèmes et Objets Interactifs à mon ami Benoit DROUILLAT, fondateur de Designers Interactifs.
Membre de la commission de diplômes, je continue de faire le suivi de l’ensemble des diplômes, sur l’écrit du mémoire comme sur les projets.

Septembre 2010 : Je deviens Directeur du Développement et de la Recherche de Strate Ecole de design (Alors Strate Collège). Toujours en charge du département « Systèmes et Objets Interactifs » à l’école, j’intègre le board de direction de l’école  pour prendre en charge son développement national comme international, dans ses relations industrielles comme académiques. J’y crée aussi son entité de recherche. A partir de l’affirmation que la recherche en design sera définie par les designers, sera collaborative, et appliquée, il s’agit de lancer des projets associant partenaires industrielles et académiques.  Membre de la commission de diplômes, je continue de faire le suivi de l’ensemble des diplômes, sur l’écrit du mémoire comme sur les projets.

BC-14

De Septembre 2007 à Aout 2012 : Directeur du département « Systèmes et Objets Interactifs » de Strate Ecole de Design, que je crée et dont l’objet de ce département est de préparer les designers à une révolution qui s’avance : celle de l’intégration potentielle d’intelligence, de mémoire, de communication dans tout objet, tout lieu, toute situation.
Informatique ambiante, Ubimédia, Everyware, des dénominations différentes apparaissent pour un même phénomène.
Puces RFID, capteurs, actuateurs, WiMAX, Nanotechnologies, Intelligence artificielle : des technologies invasives, pervasives sont susceptibles de coloniser l’ensemble de l’environnement humain. Plus que des fonctionnalités, les objets, les systèmes qui nous entourent vont désormais avoir des comportements. Mieux, ils vont interagir avec nous, mais aussi entre eux.
Membre de la commission de diplômes, je continue de faire le suivi de l’ensemble des diplômes, sur l’écrit du mémoire comme sur les projets. J’assure jusqu’en 2008 les cours de communication de 1ère et de 5ème année.

BC-13

De septembre 1998 à Aout 2007 : Je crée et dirige le département « Multimedia » de Strate Collège, dont je pilote le cursus au sein de l’école.
J’assure à partir de 2001 les cours de communication des 5ème année, et à partir de 2002 les cours de communication de 1ère année.
Membre de la commission de diplômes, je continue de faire le suivi de l’ensemble des diplômes, sur l’écrit du mémoire comme sur les projets. J’assure jusqu’en 2008 les cours de communication de 1ère et de 5ème année.

BC-12


De 1999 à septembre 2008 : Je suis le concepteur et le développeur du logiciel REXPUBLISHER, CMS conçu à partir de mon expérience à la Tribune (voir plus bas !).
Rexpublisher a reçu en 2004 le soutien  de l’ANVAR en 2004, et il est est édité et distribué par la société Cervoni Conseil.

RexPublisher est un logiciel qui permet :
+ de Créer et de mettre à jour l’ensemble des informations liées aux Contenus d’un site :
+ de Générer, à partir de ce contenu mis à jour, l ’ensembles des pages du site.
+ De Publier, tout ou partie de ces pages sur le site lui-même, ou vers tout autre média (XML, PDF, WORD, BDD, …)

REXPUBLISHER est ou a été  utilisé par plus d’une trentaine d’entreprise dont : GFI, Autovalley, Arval PHH, CNP, Cegetel, Afrik.com, La Sorbonne Nouvelle, France Telecom, Ecole de Biologie Industrielle, FORCO, Pertinence, AFPEN ,…

De 1998 à 2007 : Consultant Nouveaux Média.
Que ce soit de manière indépendante ou au sein de la société CERVONI CONSEIL dont je suis fondateur et associé, j’assiste les entreprises dans la mise en oeuvre – de la stratégie à l’opérationnel) de leurs activités NTIC.

  • Assistance à Maîtrise d’ouvrage auprès de la Direction Européenne d’ARVAL PHH (Groupe BNP) : refonte de la stratégie Internet groupe,
  • Expert sur les NTIC auprès des Groupe Germe du MEDEF.
  • Conseiller auprès de la DG de Cegetel (passage An 2000 , convergence AOL-Compuserve)
  • Conseiller auprès de la DG de Vivendi Interactive (Etudes sur les Portails d’entreprises)
  • Conception et Direction éditoriale de sites web et intranet (Cegetel, CNP, ARVAL, Musée de la Poste, FORCO..)
  • Conception fonctionnelle/ergonomique du logiciel d’E-commerce Oligo Player (GENSET).

BC-11


De 1996 à 2007 : Auteur Plurimédia.
Le Multimédia se révèle le pont en tre mon expertise technologique et ma passion de la narration. Je me lance donc à partir de 1996 sur des activités d’auteur :

  • Coauteur avec la plasticienne Catherine Van De Steen et intervenant du projet pédagogique « Ma Ville, un réseau », sur le double thème de l’urbanisme et de l’Internet, piloté par « l’USINE EPHEMERE » auquel participent 10 classes
  • Conception ergonomique et fonctionnelle de l’encyclopédie Larousse/KLEIO éditée par Havas Interactive
  • Conception du pré-Game design du Jeu « Tintin » pour INFOGRAMES
  • Conception du jeu « Mega Box Conquest » pour téléphone mobile pour SAGEM
  • Conception d’un guide interactif sur la BD sur internet pour la société SURFVISION
  • Conception du Quizz interactif « La Poste » (Congrès de Maires de France )
  • Conception, direction artistique du CD-Rom « Vers l’euro et au-delà » avec la société ACTUFAX pour le compte du Conseil Supérieur de l’Ordre des Experts Comptable, Prix Spécial Festival de Biarritz 1998
  • Scénariste de la BD « La véritable histoire d’Alexandre Pierre Meilleur », éditée par l’Association pour le Progrès du Management (nominée à l’Alph’Art Communication du festival d’Angoulême 2000) avec l’ATELIER SANZOT
  • Scénariste de la BD « La Balade d’Espagnac », et de « Code Poitum » éditée par le groupe Schneider (dessinée par Eric DERAIN, et édité par l’ATELIER SANZOT)
  • Scénariste du CD-Rom « Valérian -le jeu » développé (mais jamais édité !) par Microfolies puis Virtual Studio
  • + Scénarisation du 1er BD-Rom Dargaud : « le Mystère XIII » – septembre 97
  • Co-auteur (avec J.C Mézières et P.Christin) d’un projet de dessin animé (« Les Enfants d’Eole ») qui a obtenu l’aide du programme Européen Cartoon (Media II)

BC-9


De Février 1996 à Février 1998 : Directeur des Editions Electronique de La TRIBUNE.
Suite à une belle rencontre avec Philippe MICOULAUD, alors directeur général de la Tribune, je rentre dans ce célèbre journal pour créer le poste, avec pour mission de définir et de mettre mise en œuvre de la stratégie Multimédia du titre (l’internet vient d’apparaître en France !).

  • Création et lancement du service La Tribune Online sur AOL.
    Portail contenant l »ensemble des articles duntitre, j’y expérimente aussi les services associées. J’ai aussi la fierté dy éditer un comic-strip hebdomadaire d’un jeune auteur qui monte : Lewis TRONDHEIM !
  • Création et lancement du Web de la Tribune, Grand Prix au Festival de Biarritz 97 :
    La Tribune est le seul journal au monde à mettre, et de manière automatique, l’intégralité de son édition en ligne tous les midis. Je développe pour l’occasion une moulinette, écrite en PROLOG (!), qui se sonnecte au système pré-presse du journal et qui en extrait les articles, construit et structure les pages HTML et la navigation dans les rubriques
  • Spécification et Lancement du CD-ROM d’archives « La Tribune 97 »
  • Signature de partenariats (Reuters, FT, Knight-Ridder, Maid, Lexis-Nexis).

BC-10


De 1995 à 1996 : Directeur Marketing « Multimédia et Inforoutes » chez EDS France
Le multimédia monte en puissance, et Internet surgit. La 1ère société de service décide de  se positionner. Je crée donc le poste en Création du poste avec pour mission de définir et et de mettre en place le support de l’offre Multimédia & Inforoutes. C’esune occasion unique de rentrer en contact avec l’ensemble des protagonistes de ce secteur qui monte (Canal +, France Telecom, CRYO, Lagradère, …).

BC-8

De février 1992 à décembre 1994 : Directeur du département « Problem Solving » – EDS France
Sur la base de mon parcours au sein du groupe BULL, et surtout de mon expérience Singapourienne, je monte une équipe de consultants à partir de l’équipe CHARME du CEDIAG/BULL (Yannick CRAS, Jean-Marc KERISIT, Thierry BANEL, puis Jérôme AUDURIER) dédiée à la résolution de problèmes dits « très complexes » à parti d’outils et de démarches issus de l’IA (programmation par contraintes), de la programmation linéaire (Simplex) ou d’autres approches mathématiques (Recuit Simulé) :

  •  Des succès nationaux : ELF, Atochem, Thomson, SNCM, Renault, Vachette
  • Des succès internationaux : Aéroport de Hong Kong, Continental Airlines :
    En partenariat avec Air Inter, nous montons une entité dédiée au développement de la plate-forme d’optimisation des trafics d’aeroport.

BC-7

`BC-6


De Septembre 1991 à Janvier 1992 : Consultant en Stratégie – BULL HQ.
Consultant au sein de la Direction Stratégie Groupe, je participe à la réalisation d’un Etude sur le marché de la convergence (Télécom-Média-Informatique).

BC-5

D’aout 1989 à Aout 1991 : Directeur du département « Intelligence Artificielle » – BULL SINGAPOUR.
Au sein de la filiale asiatique du Groupe Bull, je créé et dirige le département d’Intelligence Artificielle du Groupe à Singapour, qui a la responsabilité de toute la zone (Japon, chine, Hong-Kong, Malaisie, Taiwan, Australie, …)
Essentiellement centrée autour du logiciel de programmation par contraintes CHARME, j’ai vendu le logiciel et les services associés à des clients industriels ou universitaires :

  • Port de Singapour
  • Ministère de la Défense
  • Singapore Airlines
  • National Computer Board
  • ICI
  • Nanyang Polytechnic
  • Cathay Pacific

En parallèle, je suis aussi en charge du pilotage du Laboratoire I.A du French Singapore Institute, école conjointement créée par l’ESIEE (France) et l’Economic Developement Board de Singapour.

BC-4

De janvier 1988 à juillet 1989 : Directeur Marketing du Centre de Développement I.A du Groupe Bull (CEDIAG)
Au sein du CEDIAG (centre de développement de l’offre IA du Groupe), j’ai créé et piloté la politique marketing du Groupe en Ingelligence articielle, dans ses dimensions amont comme aval.
A ce titre, j’ai piloté la spécification d’offres telles que :

  • CHARME (1er environnement de programmatk
  • KOOL 4×4

En terme de communication, j’avais la responsabilité du plan de communication et d’annonces, de la création des outils associés, et de l’organisation de la participation aux salons spécialisés.

BC-3

de Janvier 1987 à Janvier 1988 : Chef du Service Programmation Logique du Centre de Développement I.A du Groupe Bull (CEDIAG)
Ma mission est de définir la stratégie Produits, et de mettre en œuvre les développements nécessaires.

  • Lancement du partenariat autour du logiciel XILOG,dont je suis l’auteur (Un des must Soft et Micros 1984)
  • Lancement du logiciel CHARME (1èr Outil Mondial de Programmation par Contraintes).

BC-2

De Janvier 1983 à Décembre 1986 : Chercheur – Centre de Recherche du Groupe Bull
Après avoir travaillé un an dans l’équipe de Claude RENVOISE sur la parallélisation de FORTRAN (Projet VESTA), je rejoins la toute jeune équipe dirigée par Jean ROHMER pour travailler sur le langage PROLOG.
Après avoir littéralement dépiauté l’environnement PROLOG II d’Alain Colmerauer, je spécifie, avec mon ami Javier SOLA, un environnement PROLOG pour le tout nouveau PC (sortie en 1981). Ce sera XILOG, interprète et compilateur mixte de prolog, premier produit d’IA commercialisé par le groupe BULL (classé un des Must 87 par « Soft & Micros », et Prix de l’Innovation Bull 1987).

BC-1

D’aout 1980 à décembre 1982 : Ingénieur d’étude – Division Gros Systèmes – Groupe BULL.
Intégré à l’équipe de Jacques TRAMU, je développe plusieurs logiciels dédiés au DPS7, famille de gros systèmes Mainframe du champion national.

  • Je conçois et développe un systèmes expert de configuration Firmware.
    Les règles sont des équations algébrique exprimées à l’extérieur du moteur. Je fais de l’iA sans le savoir à cette époque.
  • Je développe aussi un logiciel qui s’autoécrit. A l’aide d’éduteur texte programmable (Libmaint), je conçois un logiciel qui s’écrit lui-même en fonction des paramètres qui lui sont donnés à manger.

De septembre 1978 à Juin 1979 : Maître Auxiliaire en Mathématiques au LEP de Taverny.

L’Asie dans le rétro

(1991)

Si il y a un continent en passe d’accéder au statut de mythe dans le monde de l’informatique, c’est à coup sûr à l’Asie qu’il faut penser. Lointain, mystérieux, l’extrême orient est propice à tous les phantasmes d’un occident qui doute de lui. Main mise sur le marché des puces, clonage sauvage, offshore programming, tout semble donner raison à ces craintes. Et l’on s’interroge alors sur les raisons d’une telle montée en puissance et sur les leçons que l’Ouest peut tirer de l’observation et l’analyse de cet Est menaçant.

Il ne faudrait cependant pas que, pendant que nous nous interrogeons sur les capacités industrieuses de ces pays, nous laissions passer l’occasion, unique, rêvée, de voir en grandeur nature se dessiner rationnellement, là-bas et maintenant, l’organisation informatique de demain et ici. Car au delà de leur qualité de producteurs, ces pays et leurs entreprises sont aussi des utilisateurs, et assez différents de ceux que nous avons ici pour qu’on s’y intéresse de près.

En quarante ans d’informatisation, l’occident a certes été le pionnier des technologies de l’information, mais il en continue d’en essuyer les plâtres. Quatre (5?) générations de systèmes et de langages ont en effet suffit à stratifier organisations, cultures, comportements et investissements. De leur côté, les pays nouvellement industrialisés ont par contre commencé leur informatisation assez récemment, pendant les années 80, au moment même – et pour cause – de l’apparition du PC. De ce fait, les entreprises ont par définition investi dès le départ dans les standards, matériels comme logiciels. Leurs besoins comme leur culture sont donc aujourd’hui définitivement marqués par une pratique de l »ouverture.

Autre phénomène intéressant, les besoins de ces utilisateurs ont suivi l’évolution des PC (ou vice-versa). On voit là apparaître un mouvement typiquement asiatique (hors Japon), que je me risquerai à appeler l’UPSIZING, et qui, du petit PC-XT isolé au PC-486 musclé en réseau, amène tout droit au choix, inéluctable et naturel, de standards plus puissants tels qu’UNIX. Il faut tout particulièrement noter que cette évolution se fait là-bas sans avoir à agresser un parc de systèmes propriétaires, quasi inexistant.

A ce titre, l’Asie du sud-est est parfaitement représentative, voire emblématique, d’un marché qui se serait structuré rationnellement, et toujours à venir à l’Ouest. Mais, bien plus qu’un territoire commercial, le Far East est surtout une véritable étude du marché grandeur nature, où il y a au moins autant à apprendre qu’à vendre.

Il faut donc que tout ceux qui prétendent demain jouer un rôle majeur sur le marché mondial de l’informatique aillent impérativement jeter un regard de fond sur cette fenêtre ouverte sur leur futur que sont Singapour, Taiwan, Hong-Kong, la Malaisie ou la Thaïlande. Et qu’ils aillent chercher là-bas la confirmation, que décidément, oui, l’Asie est Unix.

 

IBM, Moi non plus …

(1er semestre 1992)

En signant un partenariat avec IBM,  Bull vient de prendre une décision historique. Impensable il y a peu, il représente d’abord une rupture brutale avec les motivations et analyses passées du constructeur. IBM avait  jusqu’ici toujours représenté à ses yeux l’anti-modèle par excellence.  Mais au-delà de son propre salut, que cette décision cherche à préserver, ce choix est surtout historique en ce qu’il va peser sur le paysage informatique des années α venir.

Rappelons nous. En 1981, avec le PC, nait un être nouveau: l’utilisateur.  Chose inconnue, celui-ci a des besoins ! Le PC et son vaste de catalogue de logiciels vont les combler et lui donner  un goût de liberté a laquelle il ne renoncera jamais plus. Cette liberté  est désormais en train d’envahir  l’ensemble du marché. Sur tous les systèmes, les standards sont inexorablement imposés aux constructeurs par des utilisateurs pour qui l’informatique devient un outil de compétitivité.

Longtemps sourds à ce phénomène, les gros constructeurs  ont compris qu’il fallait se plier aux lois du marché ou se voir condamner à disparaitre.  C’est pourquoi certain d’entre eux cherchent à être dès aujourd’hui  des fournisseurs incontournables en  imposant  leur architecture comme un standard de facto. Deux stratégies s’affrontent alors : celle des systèmes ouverts « propriétaires » et celle des systèmes ouverts clonables. Les constructeurs de machines ont intérêt à privilégier la première. En imposant leur technologie tout en en maîtrisant les composants capitaux, ils restent en position de contrôler le marché -c’est à dire les prix. Les purs fournisseurs de microprocesseurs et de logiciels ont eux intérêt à voir se  généraliser le phénomène du PC, qui favorisera une diffusion de masse de leurs produits. Une telle stratégie créerait un marché très concurrentiel et une inéluctable guerre des prix, mais aussi l’intérêt ultime de l’utilisateur.

En choisissant le camp d’IBM, Bull, frileuse, se range à la première approche. Une telle démarche, si elle se généralisait, retarderait l’avènement du marché hautement compétitif et dynamique dont notre société a besoin.  Car au-delà des destinées économiques des acteurs impliqués, le véritable enjeu de cette bataille de standard est de nature politique.  Plus que tout autre, la maîtrise de l’information va déterminer la capacité de notre société à contrôler sa complexité et à entrer de plain-pied dans un 21ème siècle post-industriel, celui de l’Intelligence. Un tel objectif nécessite la mise en place d’infrastructures hautement standardisées, économiques, ouvertes.

Ceci dit, notre champion fatigué pouvait-il faire un autre choix ? Peut-être pas. Mais cela signifierait alors qu’il ne relevait pas d’une démarche industrielle, mais simplement économique. En perdant α terme la maîtrise de son offre matérielle, Bull va donc errer à la recherche de sa valeur ajoutée. Cette errance sera peut-être son salut, qui le forcera à considérer enfin cet autre marché, autrement prometteur, que sont les services. Espérons.

Ne rebondit-on pas d’autant plus loin que l’on tombe de haut ?

IBM, Moi non plus…
(texte orginal)

(février 1992)

En signant avec IBM un partenariat technologique sur les puces RISC,  Bull vient de prendre une décision historique. Historique parce que ce partenariat, impensable il y a encore quelques mois, représente une rupture brutale avec les comportements, motivations et analyses passées du champion national.

IBM, de par sa taille, de par son arrogance commerciale, a  souvent représenté aux yeux de l’industriel comme à ceux de son actionnaire principal, le symbole d’un impérialisme méprisant, l’anti-modèle par excellence, contre qui il fallait se positionner. Historique, cette décision l’est aussi en ce qu’elle  va déterminer le futur du constructeur pour les dix années à venir. C’est à cette aune stratégique qu’il faut apprécier la longueur des négociations, qui ont vu s’opposer Hewlett Packard et IBM pour s’attribuer les charmes de Bull. ll faut croire que le second point était d’une importance capitale pour qu’il oblitère à ce point le premier.

Une brève analyse de l’évolution du marché de l’Informatique nous le montrera bien vite. Jusqu’au début des années 80, ce marché a été le domaine réservé d’une informatique lourde, largement dominée par le matériel. Les fournisseurs de gros ordinateurs, peu conviviaux mais sûrs, proposaient à leur clients des systèmes incompatibles entre eux, dont ils étaient immanquablement prisonniers.

En lançant le PC en 1981, IBM allait sans le savoir déclencher une révolution dont il serait la première victime. Avec le PC nait en effet un être nouveau : l’utilisateur. L’utilisateur est une personne, et chose inconnue, il a des besoins ! Le PC et le vaste de catalogue de logiciels développés par des sociétés de software autonome, vont le combler et lui donner  un goût de liberté et d’indépendance auquel qu’il ne renoncera jamais plus.

Cette liberté goutée au contact de la micro-informatique est en train d’envahir  l’ensemble du marché. Aujourd’hui sur les stations de travail, bientôt les mini-ordinateurs, et avant que n’y succombent les grands systèmes, les standards sont inexorablement imposés aux constructeurs par des utilisateurs pour qui l’informatique devient un outil de compétitivité sur un marché devenu mondial.

Les logiciels  d’exploitation standards comme Windows ou UNIX  sont aujourd’hui fournis par tous les fournisseurs. Plus important,  les machines elles-mêmes s’uniformisent et  sont  conçues avec  des composants du marché.

Longtemps sourds à ce phénomène, les gros constructeurs ont cherché à le contrôler voire à en empêcher la croissance, en vain. Tous ont compris aujourd’hui que la vache à lait  des systèmes incompatibles était morte et qu’il fallait se plier aux lois du marché ou se voir condamner à disparaitre.  Sur un marché de station de travail partagé entre plusieurs fournisseurs, ceux-ci cherchent à imposer via des partenariats leur architecture respective comme un standard de facto. Ceci, pour atteindre des économies d’echelle aptes à leur faire supporter les efforts de R&D croissant que le rythme technologique leur impose.

Ces architectures sont toutes basées sur des puces RISC, championnes du rapport performance/Prix. 4 fournisseurs RISC se partagent en 1992 le marché: SUN, le premier d’entre eux tente (en vain) depuis deux ans de reproduire autour de son architecture SPARC un phénomène identique au PC; HP, avec HP-PA, a mis sur le marché la technologie la plus puissante accessible à ce jour;  MIPS, soutenue par quelques 200 constructeurs (et Microsoft !) au sein du consortium ACE, cherche à imposer son très imposant R4000 comme base d’une station de travail clonable à merci dès 92; IBM enfin, pour l’occasion allié à son ennemi de toujours APPLE, cherche à faire de même avec son POWERchip.

4 architectures donc, pour un marché qui n’en élira à terme tout au plus que deux. Si l’on ajoute à cela la quasi certitude que les futures générations d’ordinateurs, du portable au très gros système, partageront cette architecture, on comprend la nécessité de choisir la bonne dès aujourd’hui. Ces deux offres se partageront demain le marché, comme le font aujourd’hui sur marché du micro le PC compatible et Apple, et dans des proportions que l’on peut imaginer identiques (80%, 20%). Sur ces deux élus, on peut à coup sûr parier qu’IBM fera partie du lot. Qui serait donc l’autre gagnant de ce couple ennemi ? HP ? SUN ? L’idée que nous voulons défendre ici est que cet autre champion devrait être MIPS, le partenaire même que Bull vient de singulièrement lâcher, et pour qui la logique voudrait (c’est à dire l’intérêt de l’utilisateur final) que son architecture représente les fameux 80% du gâteau des stations.

En effet, en licenciant largement son architecture sans pour autant avoir de position dominante vis-à-vis de ses partenaires, MIPS joue à fond le pari de l’ouverture totale, en espérant connaître sur ce marché, la fortune qu’INTEL a connu sur celui du PC.  Microsoft l’a bien compris qui fournira sur cette architecture, comme sur les systèmes INTEL, son nouveau et très attendu système d’exploitation Windows NT. Le très puissant japonais NEC aussi, qui est un des fondeur du R4000, et qui sera surtout co-développeur et unique fondeur de son successeur le R5000. Les mêmes causes engendrant les mêmes effets, un marché dominé par l’architecture MIPS impliquerait une concurrence sauvage, une baisse de prix, des marges fragiles pour les fournisseurs, mais l’intérêt ultime de l’utilisateur qui en serait l’évident bénéficiaire. Au contraire, IBM, SUN ou HP ne veulent pas d’une telle situation, préférant jouer le jeu de systèmes ouverts « propriétaires », en en restant les fournisseurs dominants, le gardant sous leur contrôle (matériel comme logiciel) plutôt que sous celui du marché. L’alliance IBM avec Apple, autre champion de la fermeture, tout comme l’arrogance d’un SUN vis-à-vis de ses cloneurs, viennent nourrir cette analyse.

En choisissant le camp d’IBM, Bull se range à cette approche frileuse et protectionniste, en prenant du coup le risque de se trouver du côté du challenger redouté plutôt que du champion idéal. Tout comme en retardant l’avènement par ailleurs inéluctable du marché hautement compétitif, ouvert et dynamique dont nos sociétés ont besoin. En abandonnant MIPS, Bull renonce de plus à élaborer sa propre offre ouverte et compétitive, Bull renonce surtout à être agressif.  Ne se met-il pas implicitement dans la position de renoncer à attaquer à une grosse part du marché, c’est à dire au parc IBM ?  Celui-ci sera toujours en effet  en position de force sur son parc, face à un partenaire à la valeur ajoutée hypothétique.

On nous rétorquera que l’accord prévoit que Bull fournira à IBM les serveurs multi-processeurs dont celui-ci ne dispose pas, ceci représentant pour Bull un débouché important. A cette remarque deux réponses s’imposent.

  1. Bull avait argué de l’incapacité de MIPS à fournir des systèmes Multi-processeurs à Bull pour briser son partenariat. Or IBM n’en dispose pas non plus.
  2. Pour que les systèmes conçus par Bull bénéficient des efforts d’IBM, encore faudrait-il que ce dernier accepte de voir ces machines venir cannibaliser son marché de systèmes propriétaires aux marges généreuses. Toute sa culture contredit une telle hypothèse.

Ceci étant dit, notre champion fatigué pouvait-il faire un autre choix ? Peut-être pas. Mais cela signifierait alors qu’il ne relevait pas d’une démarche industrielle, mais tout simplement économique. L’enjeu ne serait pas de faire le bon choix technologique pour la décennie à venir, mais seulement d’assurer la survie immédiate d’un groupe incapable d’être audacieux parce que confronté à l’asphyxie financière et à l’inadéquation croissante de son offre. En perdant à terme, tel un WANG, la maîtrise de toute son offre matérielle, Bull va donc errer à la recherche de sa valeur ajoutée. Cette errance sera peut-être son salut, qui le forcera à considérer enfin cet autre marché, autrement prometteur, que sont les services. Espérons.

Ne rebondit-on pas d’autant plus loin que l’on tombe de haut ?

De l’empathie à l’intelligence

Il existe dans le cerveau humain des neurones qui ont l’étrange propriété de réagir de la même manière quand leur propriétaire exécute une tâche ou quand il observe un congénère exécuter cette même tâche.  Ces neurones sont appelés « Neurones Miroirs » ou « Neurones de Gandhi ».

Le lieu même de notre pensée serait donc structurellement prompt à être en empathie avec notre prochain.

Le numérique, et sa puissante expression dans les nouveaux réseaux sociaux tous média confondus, permettent aujourd’hui aux multitudes d’individus connectés  d’être en relation et « d’observer » plus d’êtres humains qu’en aucun autre moment de l’histoire humaine.

La jonction de ces deux données peut donc nous amener à penser que nos neurones de Gandhi s’allument en une journée à des rythmes jamais atteints. Il y aurait ainsi un effet quasi mécanique d’empathie du fait des nouvelles pratiques sociales induites par le numérique.

Mais cette mécanique neuronale ne pourra suffire à nous rassurer sur la capacité des hommes à construire une société de l’empathie. Celle-ci ne pourra se bâtir que sur des nouvelles organisations d’interpellation et d’expression des intelligences.

Open Source logiciel et matériel, Crowd Sourcing, Co-création, DIY, FabLab, … sont autant des signes que le numérique induit surtout de nouvelles pratiques politiques, sociales et neo-industrielles, souvent, sinon systématiquement, partis du bas, et où le lien social, la confiance, la transparence, l’engagement, le partage sont  à la fois ce qui conditionnent ces démarches, comme ce qu’elles produisent.

(Octobre 2011)

Accéder au débat de la Revue ici !

Pour un vivre ensemble digital

De tous temps, l’homme a rêvé de sociétés idéales, de cités radieuses, de sérénités sociales et de bonheurs accomplis. Que ce soit l’Egypte, la Grèce, la Chine, Rome, l’Europe ou le Nouveau Monde, toutes ont espéré l’avènement d’utopies porteuses d’ordre simple, immanent et achevé. Ces sociétés rêvées étaient construite sur la croyance en une stabilité permanente, inscrite dans les infrastructures, les aménagements, les architectures, les espaces et jusqu’aux corps et les têtes de ceux qui y vivaient. Les utopistes voyaient tous les savoirs et les techniques du moment et leur instanciation matérielles comme les conditions et les outils de la construction de ces « vivre ensemble » parfaits. Ces sociétés rêvées étaient toutes de ce fait, et par définition, des sociétés de confiance : confiance en un environnement stable et inducteur de bonheur et de relation sociales forcément vertueuses.

Un même espoir semble s’attacher aujourd’hui au numérique et ses révolutions des savoirs, des pratiques et des relations sociales.

Las, l’histoire est là pour nous prouver l’invraisemblance de cet espoir. L’écriture portait en elle-même les mêmes promesses d’émancipation et de sociétés heureuses parce que bâties sur des savoirs créés et partagés comme jamais, et on peut pourtant mesurer chaque jour la distance entre ce rêve et la réalité.

Faut-il pour autant y renoncer ? Le paradoxe est qu’il faut renoncer à l’idée de stabilité et à la confiance immanente qu’elle induit pour espérer y accéder. Il faut acter que la complexité est là et pour toujours, que l’instabilité est et sera notre lot quotidien, que l’incertitude est le champ permanent de nos actions, et que les erreurs et les imperfections ne seront pas et jamais supprimées et qu’il faut même prendre le risque de leur existence.  Il est d’autant plus urgent de l’acter que le numérique nous offre la possibilité d’espérer non point de maîtriser ces effets mais de les dissoudre, non pas chacun de notre côté, mais ensemble.

Car si le numérique est sans conteste un levier d’émancipation individuelle, il est aussi un champ de force collectif, permettant aux intelligences associées d’avancer là où l’individu, réduit à lui même reste impuissant.

Mais l’existence de ce champ ne signifie pas sa victoire car celle-ci, ne cessons jamais de le répéter, n’est pas immanente ! Il faut tordre le cou à cette idée que le numérique ferait émerger naturellement une intelligence collective qui se suffirait à elle-même. Les contextes dans lesquels ces intelligences se déploient, comme les politiques qui les permettent ont autant d’importance. Une société d’intelligences en réseau se considérant comme des pairs,  c’est à dire une société de confiance, ne peut se résumer à ce réseau ni à ses flux digitaux. Elle dépend, et très largement, de l’organisation des pouvoirs, qu’ils soient institutionnels, politiques, académiques, industriels, économiques, professionnels et générationnels.

Si le numérique vient percuter de plein fouet les systèmes politiques, il ne peut se substituer à eux. Les conditions d’émergence d’une société de confiance résident donc dans l’abandon des vieilles catégories et des organisations associées, et les états-nations ne sont pas les moindres de celles-ci.

Pas plus que la « Main Invisible du Marché », il n’y a de « Main invisible numérique ». L’urgence est donc que les forces politiques se repensent pour se métamorphoser, et permettre l’émergence de ce « vivre ensemble » digital.

(Octobre 2012)

Accéder au débat ici !

L’échec est en nous ! (mais rien n’est perdu)

Echouer pour réussir ? Le paradoxe n’en est un que pour notre pays, recroquevillé qu’il est dans son refus d’une modernité qui s’est imposée ailleurs. Il ne faut pas s’y tromper, ce refus de l’échec vient de loin et ira tout aussi loin si l’on ne prend pas le problème à la racine. Nous sommes une société colbertiste, centralisée, pyramidale, qui aime les figures autoritaires, paternelles, despotiques même, qui la dédouanent de toute responsabilité, de toute prise de décision, de tout risque. « Là-Haut », quelqu’un veille sur nous et prend toutes les décisions. « Là-Haut », un Père sait, comprend, fait. Nous n’avons qu’à attendre, protégés de toutes vicissitudes, de tous dangers. Notre passivité est la condition de notre protection, sinon de notre bonheur. Essayer d’en sortir serait contre-nature, sinon péché.

Cette posture était parfaitement adaptée aux enjeux et organisations des deux premières révolutions industrielles, celles des mines de charbon, des hauts-fourneaux puis des objets massivement produits en séries, où l’objectif était de mettre en œuvre des plans quasi-militaires et où l’ordre a plus d’importance que l’initiative. Elle est par contre totalement inadaptée à une société de l’information déjà dépassée, d’une société de le connaissance aujourd’hui programmée, d’une société de l’intelligence demain inéluctable.

Et c’est bien là le problème, car nous tentons d’entrer de force dans cette société de l’intelligence avec le credo et les pratiques de celle du Charbon et de l’Acier. Nous feignons de croire qu’il suffit d’un Ministère du Redressement Productif et du volontarisme associé, là où c’est d’un profond changement d’organisation des pouvoirs, d’une redistribution de ceux-ci, de la responsabilisation à tous les étages ( c’est à dire d’une réinvention politique) dont nous avons besoin. La 5ème république, monarchie colbertiste et républicaine, est aujourd’hui le vrai carcan de nos initiatives nécessaires. Si échec il y a, c’est bien celui-là.

Passons vite en Sixième !

(Octobre 2012)

Lire le débat RSLN ici !

 

Back to the future

On vient d’inventer l’écriture.

Seuls quelques grands prêtres maitrisent la nouvelle invention, et quelques un d’entre eux seulement ont la vision des changements radicaux qu’elle porte.

Compter, transmettre, mémoriser, acter, mais aussi prier, conter, apprendre.

Les Archontes, les monarques, les ministres, les commerçants ont fini par apprendre la nouvelle et s’enquièrent de la chose, de sa nouveauté, de sa puissance et de sa difficulté.

Ils s’entourent d’experts, d’érudits, dont seuls certains connaissent les arcanes, et d’autres croient les connaître pour avoir maladroitement tracé quelques signes sur l’argile fraiche. Les érudits décident d’étudier le phénomène, et créent des comités, pour peser le pour et le contre, identifier les dangers et les opportunités, et proposer, peut-être, de faire quelque chose.

Que faire de l’écriture ? Doit-on écrire à l’école ? Est-ce dangereux pour les enfants ? Peut-on commercer et écrire ? N’est-ce point une perte de temps ?

De ces doctes cercles sort enfin une interrogation : « Et maintenant, quelles politiques scripturales ? »…

C’est exactement la situation dans laquelle nous sommes avec le numérique et avec la question de ce débat. Le jour où l’écriture est inventée, elle porte en elle la transformation totale de toutes les organisations humaines, politiques, commerciales, guerrières, culturelles. Et la question n’est donc pas de savoir quelles politiques mettre à son service, mais comment transformer la politique par l’écriture.

Ne demandez pas ce que vous pouvez faire pour le numérique ! Mais demandez plutôt ce que le numérique peut faire pour vous !

(Juillet 2012)

Lire le débat RSLN ici !

[Dé]Coder le Monde

Cela va bientôt finir par se savoir : le monde se numérise ! En tout temps, en tous lieux, des « objets » virtuels ou matériels  génèrent, exploitent, transforment, croisent des données (NOS données !) pour habiller et enrichir nos vies.

Le choix est alors simple : faut-il nonchalamment déléguer à d’autres le soin de dire lesquelles sont importantes, et comment les mettre en scène, et en fin de compte de programmer nos vies ? Ou ne faut-il pas plutôt faire le pas nécessaire pour comprendre que tout programme logiciel étant un biais, autant que celui-ci soit le nôtre ?
Car l’enjeu est bien là : prendre possession de nos vies, et donc de nos données !

Programmer ces objets et leurs comportements serait évidemment le plus sûr moyen de le faire. Au minimum, et à défaut d’être totalement les « programmeurs » de nos vie, il nous faut au moins comprendre comment d’autres les schématisent, modélisent, et éventuellement les instrumentalisent.

Ceci passe par une simple action : former dès le plus jeune âge TOUS les enfants à la programmation, quelles qu’en soient les formes. C’est le plus sûr moyen de donner à la génération qui en profitera la possibilité de (dé)coder son monde.

(Avril 2012)

Lire le débat RSLN ici !

Apprendre en créant !

Est-ce que l’on apprend mieux en jouant ? Oui et de tous temps ! Cette question évacuée, il reste donc à nous pencher sur la vraie question derrière la fausse : comment apprendre différemment au XXIème siècle ?

Car s’il est bien une activité humaine qui connaît une inertie fantastique, c’est bien celle de l’éducation, dans ses institutions, ses acteurs, ses objectifs, ses modalités. Le numérique ne nous offre pas seulement l’opportunité de remettre en cause ces inerties, mais aussi de changer les termes mêmes du rapport au savoir.

Là où l’enjeu était au pire de transmettre, au mieux de partager ce savoir avec une audience, il devient aujourd’hui de le faire créer par cette audience, qui cesse au même instant d’en être une.

Les conséquences n’en sont pas seulement productives, mais plus certainement politiques car ce sont les enjeux de pouvoir et d’autorité qui sont remis en cause. Plus d’estrades, de Magisters, de protocoles, de recettes « éprouvées », de discipline en silo ! Mais une effervescence créative sans frontières disciplinaires, des hiérarchies bousculées, des initiatives individuelles reliées, de nouvelles manières de produire des connaissances, de mesurer, d ‘évaluer, de partager.

Le jeu est bien à l’œuvre, certes, mais dans ce monde ci, débarrassé – enfin – des deux voiles du passé et de l’écran.

(Aout 2011)

Lire le débat RSLN ici !