Apprendre plutôt qu’enseigner

Après l’écriture, l’imprimerie, la scolarisation de masse, l’explosion du nombre d’étudiants dans les universités, le fait d’apprendre va connaître lui aussi sa transmutation numérique, qui est inéluctable.
Inscrite dans l’Histoire, la numérisation ne devrait pas moins en être une rupture, et même une double rupture.

Institutionnelle d’abord.
Si le XXème siècle a vu s’affirmer et  s’institutionnaliser des politiques d’éducation systématique des populations, celles-ci, se sont construites sur des modèles de pouvoirs et un rapport aux savoirs issus d’un XIXème siècle industriel. C’est la figure de l’autorité qui est alors centrale : celle de l’Etat, du patron, du cadre, de l’Université, du professeur, de l’instituteur, du père. Le numérique et les pratiques en réseau, associées sinon productrices de l’élévation du niveau d’éducation va remettre en cause cette organisation, et donc la transmission.
La figure de l’autorité va donc mourir, et avec elle une certaine idée de la transmission.

Méthodologique ensuite.
Parce que la figure de l’autorité va disparaître, ce sont donc de nouvelles méthodes d’enseignement qui vont devoir être INVENTEES. La nature de ce qui est transmis, voire ce qui est enseigné sera moins important que la manière et les conditions dans lesquelles les étudiants et les enseignants travailleront ensemble. Avec un savoir accessible de partout, commenté, illustré, critiqué comme jamais, le problème n’est plus de transmettre mais d’accéder, d’exploiter, de produire, d’inventer, de créer, ensemble (apprenant, enseignant), les contenus, les pratiques, les projets.

E-Maquillage ?
On aura noté qu’à aucun moment je n’ai évoqué ici de quelconques instanciations du E-Learning (encore un E-Machin de plus…). Car il y a un danger réel à voir les anciennes pratiques se vêtir d’habits nouveaux pour survivre. La E-Labelisation est de ce point de vue un danger mortel qui voit des acteurs et des modèles dépassés se remettre en selle en se numérisant en façade, en se contentant de mettre un nouveau nom sur un vieil objet.

E comme « Emplatre » sur une jambe de bois ?

Lire l’article ici !

Apprendre plutôt qu’enseigner

Après l’écriture, l’imprimerie, la scolarisation de masse, l’explosion du nombre d’étudiants dans les universités, le fait d’apprendre va connaître lui aussi sa transmutation numérique, qui est inéluctable.
Inscrite dans l’Histoire, la numérisation ne devrait pas moins en être une rupture, et même une double rupture.

Institutionnelle d’abord.
Si le XXème siècle a vu s’affirmer et  s’institutionnaliser des politiques d’éducation systématique des populations, celles-ci, se sont construites sur des modèles de pouvoirs et un rapport aux savoirs issus d’un XIXème siècle industriel. C’est la figure de l’autorité qui est alors centrale : celle de l’Etat, du patron, du cadre, de l’Université, du professeur, de l’instituteur, du père. Le numérique et les pratiques en réseau, associées sinon productrices de l’élévation du niveau d’éducation va remettre en cause cette organisation, et donc la transmission.
La figure de l’autorité va donc mourir, et avec elle une certaine idée de la transmission.

Méthodologique ensuite.
Parce que la figure de l’autorité va disparaître, ce sont donc de nouvelles méthodes d’enseignement qui vont devoir être INVENTEES. La nature de ce qui est transmis, voire ce qui est enseigné sera moins important que la manière et les conditions dans lesquelles les étudiants et les enseignants travailleront ensemble. Avec un savoir accessible de partout, commenté, illustré, critiqué comme jamais, le problème n’est plus de transmettre mais d’accéder, d’exploiter, de produire, d’inventer, de créer, ensemble (apprenant, enseignant), les contenus, les pratiques, les projets.

E-Maquillage ?
On aura noté qu’à aucun moment je n’ai évoqué ici de quelconques instanciations du E-Learning (encore un E-Machin de plus…). Car il y a un danger réel à voir les anciennes pratiques se vêtir d’habits nouveaux pour survivre. La E-Labelisation est de ce point de vue un danger mortel qui voit des acteurs et des modèles dépassés se remettre en selle en se numérisant en façade, en se contentant de mettre un nouveau nom sur un vieil objet.

E comme « Emplatre » sur une jambe de bois ?

Lire l’article en ligne ici !

L’Asie dans le rétro

(1991)

Si il y a un continent en passe d’accéder au statut de mythe dans le monde de l’informatique, c’est à coup sûr à l’Asie qu’il faut penser. Lointain, mystérieux, l’extrême orient est propice à tous les phantasmes d’un occident qui doute de lui. Main mise sur le marché des puces, clonage sauvage, offshore programming, tout semble donner raison à ces craintes. Et l’on s’interroge alors sur les raisons d’une telle montée en puissance et sur les leçons que l’Ouest peut tirer de l’observation et l’analyse de cet Est menaçant.

Il ne faudrait cependant pas que, pendant que nous nous interrogeons sur les capacités industrieuses de ces pays, nous laissions passer l’occasion, unique, rêvée, de voir en grandeur nature se dessiner rationnellement, là-bas et maintenant, l’organisation informatique de demain et ici. Car au delà de leur qualité de producteurs, ces pays et leurs entreprises sont aussi des utilisateurs, et assez différents de ceux que nous avons ici pour qu’on s’y intéresse de près.

En quarante ans d’informatisation, l’occident a certes été le pionnier des technologies de l’information, mais il en continue d’en essuyer les plâtres. Quatre (5?) générations de systèmes et de langages ont en effet suffit à stratifier organisations, cultures, comportements et investissements. De leur côté, les pays nouvellement industrialisés ont par contre commencé leur informatisation assez récemment, pendant les années 80, au moment même – et pour cause – de l’apparition du PC. De ce fait, les entreprises ont par définition investi dès le départ dans les standards, matériels comme logiciels. Leurs besoins comme leur culture sont donc aujourd’hui définitivement marqués par une pratique de l »ouverture.

Autre phénomène intéressant, les besoins de ces utilisateurs ont suivi l’évolution des PC (ou vice-versa). On voit là apparaître un mouvement typiquement asiatique (hors Japon), que je me risquerai à appeler l’UPSIZING, et qui, du petit PC-XT isolé au PC-486 musclé en réseau, amène tout droit au choix, inéluctable et naturel, de standards plus puissants tels qu’UNIX. Il faut tout particulièrement noter que cette évolution se fait là-bas sans avoir à agresser un parc de systèmes propriétaires, quasi inexistant.

A ce titre, l’Asie du sud-est est parfaitement représentative, voire emblématique, d’un marché qui se serait structuré rationnellement, et toujours à venir à l’Ouest. Mais, bien plus qu’un territoire commercial, le Far East est surtout une véritable étude du marché grandeur nature, où il y a au moins autant à apprendre qu’à vendre.

Il faut donc que tout ceux qui prétendent demain jouer un rôle majeur sur le marché mondial de l’informatique aillent impérativement jeter un regard de fond sur cette fenêtre ouverte sur leur futur que sont Singapour, Taiwan, Hong-Kong, la Malaisie ou la Thaïlande. Et qu’ils aillent chercher là-bas la confirmation, que décidément, oui, l’Asie est Unix.

 

IBM, Moi non plus …

(1er semestre 1992)

En signant un partenariat avec IBM,  Bull vient de prendre une décision historique. Impensable il y a peu, il représente d’abord une rupture brutale avec les motivations et analyses passées du constructeur. IBM avait  jusqu’ici toujours représenté à ses yeux l’anti-modèle par excellence.  Mais au-delà de son propre salut, que cette décision cherche à préserver, ce choix est surtout historique en ce qu’il va peser sur le paysage informatique des années α venir.

Rappelons nous. En 1981, avec le PC, nait un être nouveau: l’utilisateur.  Chose inconnue, celui-ci a des besoins ! Le PC et son vaste de catalogue de logiciels vont les combler et lui donner  un goût de liberté a laquelle il ne renoncera jamais plus. Cette liberté  est désormais en train d’envahir  l’ensemble du marché. Sur tous les systèmes, les standards sont inexorablement imposés aux constructeurs par des utilisateurs pour qui l’informatique devient un outil de compétitivité.

Longtemps sourds à ce phénomène, les gros constructeurs  ont compris qu’il fallait se plier aux lois du marché ou se voir condamner à disparaitre.  C’est pourquoi certain d’entre eux cherchent à être dès aujourd’hui  des fournisseurs incontournables en  imposant  leur architecture comme un standard de facto. Deux stratégies s’affrontent alors : celle des systèmes ouverts « propriétaires » et celle des systèmes ouverts clonables. Les constructeurs de machines ont intérêt à privilégier la première. En imposant leur technologie tout en en maîtrisant les composants capitaux, ils restent en position de contrôler le marché -c’est à dire les prix. Les purs fournisseurs de microprocesseurs et de logiciels ont eux intérêt à voir se  généraliser le phénomène du PC, qui favorisera une diffusion de masse de leurs produits. Une telle stratégie créerait un marché très concurrentiel et une inéluctable guerre des prix, mais aussi l’intérêt ultime de l’utilisateur.

En choisissant le camp d’IBM, Bull, frileuse, se range à la première approche. Une telle démarche, si elle se généralisait, retarderait l’avènement du marché hautement compétitif et dynamique dont notre société a besoin.  Car au-delà des destinées économiques des acteurs impliqués, le véritable enjeu de cette bataille de standard est de nature politique.  Plus que tout autre, la maîtrise de l’information va déterminer la capacité de notre société à contrôler sa complexité et à entrer de plain-pied dans un 21ème siècle post-industriel, celui de l’Intelligence. Un tel objectif nécessite la mise en place d’infrastructures hautement standardisées, économiques, ouvertes.

Ceci dit, notre champion fatigué pouvait-il faire un autre choix ? Peut-être pas. Mais cela signifierait alors qu’il ne relevait pas d’une démarche industrielle, mais simplement économique. En perdant α terme la maîtrise de son offre matérielle, Bull va donc errer à la recherche de sa valeur ajoutée. Cette errance sera peut-être son salut, qui le forcera à considérer enfin cet autre marché, autrement prometteur, que sont les services. Espérons.

Ne rebondit-on pas d’autant plus loin que l’on tombe de haut ?

IBM, Moi non plus…
(texte orginal)

(février 1992)

En signant avec IBM un partenariat technologique sur les puces RISC,  Bull vient de prendre une décision historique. Historique parce que ce partenariat, impensable il y a encore quelques mois, représente une rupture brutale avec les comportements, motivations et analyses passées du champion national.

IBM, de par sa taille, de par son arrogance commerciale, a  souvent représenté aux yeux de l’industriel comme à ceux de son actionnaire principal, le symbole d’un impérialisme méprisant, l’anti-modèle par excellence, contre qui il fallait se positionner. Historique, cette décision l’est aussi en ce qu’elle  va déterminer le futur du constructeur pour les dix années à venir. C’est à cette aune stratégique qu’il faut apprécier la longueur des négociations, qui ont vu s’opposer Hewlett Packard et IBM pour s’attribuer les charmes de Bull. ll faut croire que le second point était d’une importance capitale pour qu’il oblitère à ce point le premier.

Une brève analyse de l’évolution du marché de l’Informatique nous le montrera bien vite. Jusqu’au début des années 80, ce marché a été le domaine réservé d’une informatique lourde, largement dominée par le matériel. Les fournisseurs de gros ordinateurs, peu conviviaux mais sûrs, proposaient à leur clients des systèmes incompatibles entre eux, dont ils étaient immanquablement prisonniers.

En lançant le PC en 1981, IBM allait sans le savoir déclencher une révolution dont il serait la première victime. Avec le PC nait en effet un être nouveau : l’utilisateur. L’utilisateur est une personne, et chose inconnue, il a des besoins ! Le PC et le vaste de catalogue de logiciels développés par des sociétés de software autonome, vont le combler et lui donner  un goût de liberté et d’indépendance auquel qu’il ne renoncera jamais plus.

Cette liberté goutée au contact de la micro-informatique est en train d’envahir  l’ensemble du marché. Aujourd’hui sur les stations de travail, bientôt les mini-ordinateurs, et avant que n’y succombent les grands systèmes, les standards sont inexorablement imposés aux constructeurs par des utilisateurs pour qui l’informatique devient un outil de compétitivité sur un marché devenu mondial.

Les logiciels  d’exploitation standards comme Windows ou UNIX  sont aujourd’hui fournis par tous les fournisseurs. Plus important,  les machines elles-mêmes s’uniformisent et  sont  conçues avec  des composants du marché.

Longtemps sourds à ce phénomène, les gros constructeurs ont cherché à le contrôler voire à en empêcher la croissance, en vain. Tous ont compris aujourd’hui que la vache à lait  des systèmes incompatibles était morte et qu’il fallait se plier aux lois du marché ou se voir condamner à disparaitre.  Sur un marché de station de travail partagé entre plusieurs fournisseurs, ceux-ci cherchent à imposer via des partenariats leur architecture respective comme un standard de facto. Ceci, pour atteindre des économies d’echelle aptes à leur faire supporter les efforts de R&D croissant que le rythme technologique leur impose.

Ces architectures sont toutes basées sur des puces RISC, championnes du rapport performance/Prix. 4 fournisseurs RISC se partagent en 1992 le marché: SUN, le premier d’entre eux tente (en vain) depuis deux ans de reproduire autour de son architecture SPARC un phénomène identique au PC; HP, avec HP-PA, a mis sur le marché la technologie la plus puissante accessible à ce jour;  MIPS, soutenue par quelques 200 constructeurs (et Microsoft !) au sein du consortium ACE, cherche à imposer son très imposant R4000 comme base d’une station de travail clonable à merci dès 92; IBM enfin, pour l’occasion allié à son ennemi de toujours APPLE, cherche à faire de même avec son POWERchip.

4 architectures donc, pour un marché qui n’en élira à terme tout au plus que deux. Si l’on ajoute à cela la quasi certitude que les futures générations d’ordinateurs, du portable au très gros système, partageront cette architecture, on comprend la nécessité de choisir la bonne dès aujourd’hui. Ces deux offres se partageront demain le marché, comme le font aujourd’hui sur marché du micro le PC compatible et Apple, et dans des proportions que l’on peut imaginer identiques (80%, 20%). Sur ces deux élus, on peut à coup sûr parier qu’IBM fera partie du lot. Qui serait donc l’autre gagnant de ce couple ennemi ? HP ? SUN ? L’idée que nous voulons défendre ici est que cet autre champion devrait être MIPS, le partenaire même que Bull vient de singulièrement lâcher, et pour qui la logique voudrait (c’est à dire l’intérêt de l’utilisateur final) que son architecture représente les fameux 80% du gâteau des stations.

En effet, en licenciant largement son architecture sans pour autant avoir de position dominante vis-à-vis de ses partenaires, MIPS joue à fond le pari de l’ouverture totale, en espérant connaître sur ce marché, la fortune qu’INTEL a connu sur celui du PC.  Microsoft l’a bien compris qui fournira sur cette architecture, comme sur les systèmes INTEL, son nouveau et très attendu système d’exploitation Windows NT. Le très puissant japonais NEC aussi, qui est un des fondeur du R4000, et qui sera surtout co-développeur et unique fondeur de son successeur le R5000. Les mêmes causes engendrant les mêmes effets, un marché dominé par l’architecture MIPS impliquerait une concurrence sauvage, une baisse de prix, des marges fragiles pour les fournisseurs, mais l’intérêt ultime de l’utilisateur qui en serait l’évident bénéficiaire. Au contraire, IBM, SUN ou HP ne veulent pas d’une telle situation, préférant jouer le jeu de systèmes ouverts « propriétaires », en en restant les fournisseurs dominants, le gardant sous leur contrôle (matériel comme logiciel) plutôt que sous celui du marché. L’alliance IBM avec Apple, autre champion de la fermeture, tout comme l’arrogance d’un SUN vis-à-vis de ses cloneurs, viennent nourrir cette analyse.

En choisissant le camp d’IBM, Bull se range à cette approche frileuse et protectionniste, en prenant du coup le risque de se trouver du côté du challenger redouté plutôt que du champion idéal. Tout comme en retardant l’avènement par ailleurs inéluctable du marché hautement compétitif, ouvert et dynamique dont nos sociétés ont besoin. En abandonnant MIPS, Bull renonce de plus à élaborer sa propre offre ouverte et compétitive, Bull renonce surtout à être agressif.  Ne se met-il pas implicitement dans la position de renoncer à attaquer à une grosse part du marché, c’est à dire au parc IBM ?  Celui-ci sera toujours en effet  en position de force sur son parc, face à un partenaire à la valeur ajoutée hypothétique.

On nous rétorquera que l’accord prévoit que Bull fournira à IBM les serveurs multi-processeurs dont celui-ci ne dispose pas, ceci représentant pour Bull un débouché important. A cette remarque deux réponses s’imposent.

  1. Bull avait argué de l’incapacité de MIPS à fournir des systèmes Multi-processeurs à Bull pour briser son partenariat. Or IBM n’en dispose pas non plus.
  2. Pour que les systèmes conçus par Bull bénéficient des efforts d’IBM, encore faudrait-il que ce dernier accepte de voir ces machines venir cannibaliser son marché de systèmes propriétaires aux marges généreuses. Toute sa culture contredit une telle hypothèse.

Ceci étant dit, notre champion fatigué pouvait-il faire un autre choix ? Peut-être pas. Mais cela signifierait alors qu’il ne relevait pas d’une démarche industrielle, mais tout simplement économique. L’enjeu ne serait pas de faire le bon choix technologique pour la décennie à venir, mais seulement d’assurer la survie immédiate d’un groupe incapable d’être audacieux parce que confronté à l’asphyxie financière et à l’inadéquation croissante de son offre. En perdant à terme, tel un WANG, la maîtrise de toute son offre matérielle, Bull va donc errer à la recherche de sa valeur ajoutée. Cette errance sera peut-être son salut, qui le forcera à considérer enfin cet autre marché, autrement prometteur, que sont les services. Espérons.

Ne rebondit-on pas d’autant plus loin que l’on tombe de haut ?

De l’empathie à l’intelligence

Il existe dans le cerveau humain des neurones qui ont l’étrange propriété de réagir de la même manière quand leur propriétaire exécute une tâche ou quand il observe un congénère exécuter cette même tâche.  Ces neurones sont appelés « Neurones Miroirs » ou « Neurones de Gandhi ».

Le lieu même de notre pensée serait donc structurellement prompt à être en empathie avec notre prochain.

Le numérique, et sa puissante expression dans les nouveaux réseaux sociaux tous média confondus, permettent aujourd’hui aux multitudes d’individus connectés  d’être en relation et « d’observer » plus d’êtres humains qu’en aucun autre moment de l’histoire humaine.

La jonction de ces deux données peut donc nous amener à penser que nos neurones de Gandhi s’allument en une journée à des rythmes jamais atteints. Il y aurait ainsi un effet quasi mécanique d’empathie du fait des nouvelles pratiques sociales induites par le numérique.

Mais cette mécanique neuronale ne pourra suffire à nous rassurer sur la capacité des hommes à construire une société de l’empathie. Celle-ci ne pourra se bâtir que sur des nouvelles organisations d’interpellation et d’expression des intelligences.

Open Source logiciel et matériel, Crowd Sourcing, Co-création, DIY, FabLab, … sont autant des signes que le numérique induit surtout de nouvelles pratiques politiques, sociales et neo-industrielles, souvent, sinon systématiquement, partis du bas, et où le lien social, la confiance, la transparence, l’engagement, le partage sont  à la fois ce qui conditionnent ces démarches, comme ce qu’elles produisent.

(Octobre 2011)

Accéder au débat de la Revue ici !

Pour un vivre ensemble digital

De tous temps, l’homme a rêvé de sociétés idéales, de cités radieuses, de sérénités sociales et de bonheurs accomplis. Que ce soit l’Egypte, la Grèce, la Chine, Rome, l’Europe ou le Nouveau Monde, toutes ont espéré l’avènement d’utopies porteuses d’ordre simple, immanent et achevé. Ces sociétés rêvées étaient construite sur la croyance en une stabilité permanente, inscrite dans les infrastructures, les aménagements, les architectures, les espaces et jusqu’aux corps et les têtes de ceux qui y vivaient. Les utopistes voyaient tous les savoirs et les techniques du moment et leur instanciation matérielles comme les conditions et les outils de la construction de ces « vivre ensemble » parfaits. Ces sociétés rêvées étaient toutes de ce fait, et par définition, des sociétés de confiance : confiance en un environnement stable et inducteur de bonheur et de relation sociales forcément vertueuses.

Un même espoir semble s’attacher aujourd’hui au numérique et ses révolutions des savoirs, des pratiques et des relations sociales.

Las, l’histoire est là pour nous prouver l’invraisemblance de cet espoir. L’écriture portait en elle-même les mêmes promesses d’émancipation et de sociétés heureuses parce que bâties sur des savoirs créés et partagés comme jamais, et on peut pourtant mesurer chaque jour la distance entre ce rêve et la réalité.

Faut-il pour autant y renoncer ? Le paradoxe est qu’il faut renoncer à l’idée de stabilité et à la confiance immanente qu’elle induit pour espérer y accéder. Il faut acter que la complexité est là et pour toujours, que l’instabilité est et sera notre lot quotidien, que l’incertitude est le champ permanent de nos actions, et que les erreurs et les imperfections ne seront pas et jamais supprimées et qu’il faut même prendre le risque de leur existence.  Il est d’autant plus urgent de l’acter que le numérique nous offre la possibilité d’espérer non point de maîtriser ces effets mais de les dissoudre, non pas chacun de notre côté, mais ensemble.

Car si le numérique est sans conteste un levier d’émancipation individuelle, il est aussi un champ de force collectif, permettant aux intelligences associées d’avancer là où l’individu, réduit à lui même reste impuissant.

Mais l’existence de ce champ ne signifie pas sa victoire car celle-ci, ne cessons jamais de le répéter, n’est pas immanente ! Il faut tordre le cou à cette idée que le numérique ferait émerger naturellement une intelligence collective qui se suffirait à elle-même. Les contextes dans lesquels ces intelligences se déploient, comme les politiques qui les permettent ont autant d’importance. Une société d’intelligences en réseau se considérant comme des pairs,  c’est à dire une société de confiance, ne peut se résumer à ce réseau ni à ses flux digitaux. Elle dépend, et très largement, de l’organisation des pouvoirs, qu’ils soient institutionnels, politiques, académiques, industriels, économiques, professionnels et générationnels.

Si le numérique vient percuter de plein fouet les systèmes politiques, il ne peut se substituer à eux. Les conditions d’émergence d’une société de confiance résident donc dans l’abandon des vieilles catégories et des organisations associées, et les états-nations ne sont pas les moindres de celles-ci.

Pas plus que la « Main Invisible du Marché », il n’y a de « Main invisible numérique ». L’urgence est donc que les forces politiques se repensent pour se métamorphoser, et permettre l’émergence de ce « vivre ensemble » digital.

(Octobre 2012)

Accéder au débat ici !

L’échec est en nous ! (mais rien n’est perdu)

Echouer pour réussir ? Le paradoxe n’en est un que pour notre pays, recroquevillé qu’il est dans son refus d’une modernité qui s’est imposée ailleurs. Il ne faut pas s’y tromper, ce refus de l’échec vient de loin et ira tout aussi loin si l’on ne prend pas le problème à la racine. Nous sommes une société colbertiste, centralisée, pyramidale, qui aime les figures autoritaires, paternelles, despotiques même, qui la dédouanent de toute responsabilité, de toute prise de décision, de tout risque. « Là-Haut », quelqu’un veille sur nous et prend toutes les décisions. « Là-Haut », un Père sait, comprend, fait. Nous n’avons qu’à attendre, protégés de toutes vicissitudes, de tous dangers. Notre passivité est la condition de notre protection, sinon de notre bonheur. Essayer d’en sortir serait contre-nature, sinon péché.

Cette posture était parfaitement adaptée aux enjeux et organisations des deux premières révolutions industrielles, celles des mines de charbon, des hauts-fourneaux puis des objets massivement produits en séries, où l’objectif était de mettre en œuvre des plans quasi-militaires et où l’ordre a plus d’importance que l’initiative. Elle est par contre totalement inadaptée à une société de l’information déjà dépassée, d’une société de le connaissance aujourd’hui programmée, d’une société de l’intelligence demain inéluctable.

Et c’est bien là le problème, car nous tentons d’entrer de force dans cette société de l’intelligence avec le credo et les pratiques de celle du Charbon et de l’Acier. Nous feignons de croire qu’il suffit d’un Ministère du Redressement Productif et du volontarisme associé, là où c’est d’un profond changement d’organisation des pouvoirs, d’une redistribution de ceux-ci, de la responsabilisation à tous les étages ( c’est à dire d’une réinvention politique) dont nous avons besoin. La 5ème république, monarchie colbertiste et républicaine, est aujourd’hui le vrai carcan de nos initiatives nécessaires. Si échec il y a, c’est bien celui-là.

Passons vite en Sixième !

(Octobre 2012)

Lire le débat RSLN ici !

 

Back to the future

On vient d’inventer l’écriture.

Seuls quelques grands prêtres maitrisent la nouvelle invention, et quelques un d’entre eux seulement ont la vision des changements radicaux qu’elle porte.

Compter, transmettre, mémoriser, acter, mais aussi prier, conter, apprendre.

Les Archontes, les monarques, les ministres, les commerçants ont fini par apprendre la nouvelle et s’enquièrent de la chose, de sa nouveauté, de sa puissance et de sa difficulté.

Ils s’entourent d’experts, d’érudits, dont seuls certains connaissent les arcanes, et d’autres croient les connaître pour avoir maladroitement tracé quelques signes sur l’argile fraiche. Les érudits décident d’étudier le phénomène, et créent des comités, pour peser le pour et le contre, identifier les dangers et les opportunités, et proposer, peut-être, de faire quelque chose.

Que faire de l’écriture ? Doit-on écrire à l’école ? Est-ce dangereux pour les enfants ? Peut-on commercer et écrire ? N’est-ce point une perte de temps ?

De ces doctes cercles sort enfin une interrogation : « Et maintenant, quelles politiques scripturales ? »…

C’est exactement la situation dans laquelle nous sommes avec le numérique et avec la question de ce débat. Le jour où l’écriture est inventée, elle porte en elle la transformation totale de toutes les organisations humaines, politiques, commerciales, guerrières, culturelles. Et la question n’est donc pas de savoir quelles politiques mettre à son service, mais comment transformer la politique par l’écriture.

Ne demandez pas ce que vous pouvez faire pour le numérique ! Mais demandez plutôt ce que le numérique peut faire pour vous !

(Juillet 2012)

Lire le débat RSLN ici !

[Dé]Coder le Monde

Cela va bientôt finir par se savoir : le monde se numérise ! En tout temps, en tous lieux, des « objets » virtuels ou matériels  génèrent, exploitent, transforment, croisent des données (NOS données !) pour habiller et enrichir nos vies.

Le choix est alors simple : faut-il nonchalamment déléguer à d’autres le soin de dire lesquelles sont importantes, et comment les mettre en scène, et en fin de compte de programmer nos vies ? Ou ne faut-il pas plutôt faire le pas nécessaire pour comprendre que tout programme logiciel étant un biais, autant que celui-ci soit le nôtre ?
Car l’enjeu est bien là : prendre possession de nos vies, et donc de nos données !

Programmer ces objets et leurs comportements serait évidemment le plus sûr moyen de le faire. Au minimum, et à défaut d’être totalement les « programmeurs » de nos vie, il nous faut au moins comprendre comment d’autres les schématisent, modélisent, et éventuellement les instrumentalisent.

Ceci passe par une simple action : former dès le plus jeune âge TOUS les enfants à la programmation, quelles qu’en soient les formes. C’est le plus sûr moyen de donner à la génération qui en profitera la possibilité de (dé)coder son monde.

(Avril 2012)

Lire le débat RSLN ici !