De l’ordinateur comme objet mythique à l’ordinateur comme objet pratique: une chronologie sélective en deux phases

Big Brother is all of us… [Big Brother, c’est nous tous…]
Nouveau dicton populaire

.
.
.

YSENGRIMUS — L’ordinateur fut l’un des objets les plus mal anticipés qui soit. Le voyant pourtant venir de fort loin, on a passé presque un siècle à fantasmer l’impact qu’il était voué à avoir sur nos vies et, dans cette immense futurologie ratée, on n’a à peu près rien vu de ce qui venait vraiment. C’est parfaitement atterrant. J’aimerais ici vous convoquer à une petite chronologie sélective en deux phases. Elle est, certes, marquée au coin d’une trajectoire culturelle et technologique toute personnelle (surtout lors de la première phase, où je picore un peu au hasard dans le gargantuesque cloaque de la culture sci-fi du temps, en matière d’ordinateurs et de computation – c’est quand même pas tout le monde qui a lu et relu pieusement Les bulles de l’Ombre Jaune). Mais il s’agit ici indubitablement d’une sélection de faits significatifs en ce qui concerne les dimensions mythique (première phase) et pratique (seconde phase) de l’ordinateur dans notre vie collective. Matez-moi un peu ça. Le contraste entre les deux dimensions de la bécane (la mythique et la pratique) est hurlant.

Des ordinateurs, circa 1970

Des ordinateurs, circa 1970

.
.
.

PHASE 1: L’ORDINATEUR COMME OBJET MYTHIQUE

1818: le roman Frankenstein, or the modern Prometheus de Mary Shelley, présente une version scientiste du vieux mythe du Golem (un perso fabriqué de main d’homme qui devient potentiellement dangereux). L’impact de ce roman, et de ses sous-produits littéraires et cinématographiques, sur l’imaginaire de masse du siècle suivant sera tonitruant.

1928: la compagnie IBM (International Business Machines) fait breveter la fameuse carte perforée à quatre-vingt colonnes, devenue depuis l’archétype du genre. J’ai vu de mes yeux, dans ma jeunesse (circa 1978, cinquante ans plus tard donc), un gros ordi de bureau aspirer une pile de ces cartes. On savait pas exactement ce que ça foutait mais qu’est-ce que c’était impressionnant à voir aller.

1936: introduction, dans un article scientifique, de la machine de Turing. C’est une réflexion sur la proto-computation (ladite machine n’exista jamais que sur papier).

1947: des mathématiciens américains, britanniques et français réunis en congrès à Nancy (France) commencent à conceptualiser le programme de travail de la cybernétique, pour le moment une affaire de matheux pas trop claire. Apparition de la notion de bug. La légende veut qu’un insecte se serait coincé dans le dispositif d’un grand ordinateur expérimental, causant des avaries. Marginale dans la période mythique (cette dernière étant hautement réfractaire à l’idée du moindre pépin amenant l’ordinateur à «se tromper»), la notion de bug est devenue courante (voire galvaudée) avec la banalisation de l’ordi comme instrument ordinaire.

1949: le roman 1984 de George Orwell popularise l’idée d’une dictature omnisciente, centralisée, hautement scrutatrice (Big Brother is watching you) et surtout, reposant largement sur un support technologique, machinal, et parfaitement nuisible à la liberté de conscience et d’action.

1950: le recueil de nouvelles I, Robot, d’Isaac Asimov popularise l’idée du robot anthropomorphe, serviteur puissant, toujours potentiellement menaçant, et susceptible de prendre intempestivement les commandes de la vie sociale, au risque de la rendre machinale et insensible. L’idée de robotique (et les fameuses trois lois fondamentales de la robotique) remonte à ces textes de science-fiction.

1954: la compagnie IBM lance son premier grand ordinateur commercial. Ce n’est évidemment pas un objet destiné au grand public.

1955: invention du premier langage informatique par IBM, le FORTRAN.

1956: fondation officielle d’une discipline de recherche vouée à un essor durable (et à un bonheur variable): l’intelligence artificielle.

1957: apparition, dans des publications scientifiques (d’abord en allemand puis en français), du mot informatique (construit sur mot-valise à partir des mots information et automatique). Si le mot est désormais formulé, ça doit être que la chose s’en vient…

1961: mise en marché, par le conglomérat Coca-Cola, de la boisson gazeuse citronnée Sprite. «Quel rapport?» me direz vous. Tout un rapport. De fait, on fera longtemps croire au consommateur que le nom Sprite fut généré aléatoirement, une lettre après l’autre, par un ordinateur. Cette foutaise, présentant le ci-devant «cerveau électronique» comme une sorte de marmite de sorcier semi-magique, se joindra à une longue et tortueuse série de procédés rhétoriques mythifiant ouvertement le rôle calculatoire voire «intellectuel» de l’ordinateur. «Après avoir mis tous ces chiffres dans les ordinateurs du ministère des finances, ils nous ont transmis les résultats suivants…» C’est aussi à cette époque que se met à circuler l’idée voulant que l’ordinateur ne fasse jamais d’erreur, que ce soit l’humain qui le programme qui soit le seul à se tromper. Inutile de dire qu’il ne reste plus grand-chose de cette culture canulardière computationnelle depuis que l’ordi est devenu un objet de tous les jours.

1962-1963: le dessin animé The Jetsons met en vedette une famille futuriste de 2062, se déplaçant en voiture-aéronef et vivant dans une maison technologique (c’est le pendant futuriste des Flinstones). Au nombre des personnages, on retrouve Rosie, un robot bonne d’enfant qui fait la bise aux gamins, en les mettant au lit, avec sa bouche fixe laissant sur la joue la sensation d’un petit aspirateur.

1963: la compagnie Honeywell lance son premier grand ordinateur commercial. Dans ces années là, un ordinateur (computer), dans la vision qu’on en a, c’est un gros appareil mural avec des bobines tournant aléatoirement, des types en sarreau blanc ou des dames très sérieuses se tenant devant, et on est dans les bureaux souterrains secrets du Pentagone, de la NASA ou de General Electric.

1965: début de l’hégémonisme intellectuel de la Grammaire Générative Transformationnelle de Noam Chomsky. Elle imposera la chape de plomb d’une mythologie machiniste qui pèsera de tout son poids sur les sciences humaines universitaires pendant au moins trente ans. Inutile de dire que la grammaire-machine chomskyenne ne fut jamais réalisée.

1965-1968: la série télévisée à succès Lost in space raconte les pérégrinations de la famille Robinson perdue dans l’espace dans son vaisseau-soucoupe, le Jupiter II. Le robot serviteur de la famille signale les dangers en criant Danger! Danger! Mais il peut parfois aussi être déprogrammé par un traître et se retourner contre la famille. Il frappe alors le gros ordinateur de bord scintillant de ses larges pinces et tout pète dans un flot décourageant de flammèches et de boucane.

1966: l’épisode de Star Trek intitulé What are little girls made of? introduit, pour la toute première fois, la notion d’androïde (android), qui sera amplement reprise, notamment, au sein de ladite saga Star Trek, avec les personnages des androïdes Data et Lore (dans Star Trek: the next generation). Ici (en 1966) l’androïde, fabriquée de main d’homme, s’appelle Andrea et elle est pleinement opérationnelle pour la réalisation de l’intégralité des fonctions biologiques humaines (le mythe de Pygmalion s’enchevêtre dans l’affaire — je vous passe les détails)… On rencontre aussi l’androïde Ruk, gaillard frankensteinesque, baraqué, costaud et peu amène. Véritable ordi pleinement anthropomorphe, surhumain mais aspirant tendanciellement à l’humanité (I am not a computer! s’exclamera un de ces personnages), l’androïde apparaît comme un dangereux serviteur qui, si on en perd le contrôle, peut faire des ravages. Lors de telles crises, il faut finaudement éberluer l’androïde en le tirant vers ses tendances humaines et/ou en lui instillant des émotions non machinales sur fond inquiétant de paradoxes insolubles.

1967: le compositeur de musique électroacoustique Pierre Henry crée la bande musicale du ballet Messe pour le temps présent du chorégraphe Maurice Béjart. L’étrange pétarade électronique de Psyché Rock et de Jéricho Jerk change radicalement notre perception du son musical qui jouera désormais dans le petit radio de la cuisine. Un an plus tard (1968), l’album Switched-On Bach de Walter/Wendy Carlos nous donne à entendre, pour la toute première fois, du Jean-Sébastien Bach joué sur cette nouvelle invention d’un certain Robert Arthur Moog, le clavier synthétiseur. Deux ans plus tard (1969), l’album Moog plays the Beatles de Marty Gold fera avancer cette sonorité nouvelle d’un cran plus profond au sein des âmes mélomanes. Dans les deux décennies qui suivront, des instruments de musique programmables de plus en plus sophistiqués vont faire leur apparition. Le piano électrique, le mellotron et le ci-devant synthétiseur de Moog (pour s’en tenir ici aux plus vénérables — les tous premiers n’étaient pas spécialement computarisés. On avait, ici encore une fois, largement affaire à de l’informatique fantasmée) vont imposer leurs sonorités pimpantes et machinales dans la musique populaire. Frisson angoissé. À cause de l’aptitude imitative de certains de ces claviers électroniques, il va vite se trouver des voix pour annoncer la disparition prochaine des guitares, des cuivres, des bois et du piano à cordes. Une futurologie ratée de plus. On attend encore (et je ne vais pas pleurer ce ratage là — ordi et musique font aujourd’hui très bon ménage, l’un servant l’autre magistralement, pour le plus grand bonheur de l’oreille et de la diversité artistique la plus riche imaginable).

1968: dans le célèbre long métrage 2001: A space Odyssey de Stanley Kubrick, l’ordinateur central de bord d’une mission spatiale vers Jupiter, invisible (parce qu’omniprésent), doucereux et déférent (il s’appelle Hal et a une voix feutrée inoubliable), constate froidement que les cosmonautes du navire nuisent aux opérations et, donc, il les tue calmement, un par un, comme si c’était des parasites. On le débranche à temps, mais ça passe juste. La même année, dans l’épisode de Star Trek intitulé The Ultimate computer, on propose au capitaine James T. Kirk de se faire remplacer par un ordinateur central qui contrôle son navire. Cela fout le bordel meurtrier dans la flotte de la Fédération des Planètes et il faut finir par débrancher l’ordinateur M5, que son inventeur, un peu savant-fou sur les bords, traite comme son enfant. Il va sans dire que le tout ne se fait pas sans casse car l’ordinateur en question n’a tout simplement pas de bouton interrupteur…

1970: dans le roman de la série Bob Morane intitulé Les bulles de l’ombre Jaune, Henri Verne transporte ses héros, agents de la ci-devant Patrouille du Temps, en l’an de grâce 3222. Ils arrivent alors à Niviork (New York), inquiétante mégapole en ruine (suite à un conflit nucléaire) dont toutes les activités sont coordonnées par un gigantesque cerveau électronique central nommé Ibémé (on apprend éventuellement que ce nom dérive d’IBM). Sorte de Baal abstrait au sommet d’une pyramide à degrés, Ibémé assure l’intendance de cycles obligatoires de sacrifices humains. Il faudra donc le détruire car il est parfaitement nuisible à la vie humaine.

1974-1978: la série télévisée The six million dollar man lance et popularise le mythe de l’homme bionique, un être humain accidenté qu’on retape et améliore en le réparant avec de la technologie programmée, amplifiant ses capacités physiques (et éventuellement mentales). De la femme bionique à la civilisation Borg, en passant par RoboCop et le Terminator, ce concept de fusion entre l’humain et la machine aura une riche postérité mythique.

1975: la compagnie Commodore commence à produire ses premiers terminaux à clavier. On parle alors beaucoup, sans trop comprendre à quoi ça rime, de puces (chips). Ce gros clavier avec écran penché, dont les touches font clac, clac, clac, on se demande ce que ça fout exactement et on y découvre surtout… des jeux.

1976: la compagnie Control Data embauche du prolo en masse à Montréal. Le principal boulot offert est celui de key-punch. Il s’agissait de dactylographier des données sur des machines à cartes perforées ressemblant un peu à de vieilles calculatrices de table.

1977, 1980, 1983: la première trilogie Star Wars de George Lucas renoue avec les thèmes échevelés, irrationalistes et manichéens du space opera et ne place pas vraiment la problématique de l’ordinateur en position centrale. On y rencontre cependant deux personnages de soutien qui contribueront pour la première fois à significativement renouveler l’image mythique de l’ordi. Le robot C-3PO est un droïde de protocole anthropomorphe, parlant 6,000 formes de communication. En dehors de cela, c’est un trouillard, un geignard et un ignare, mais il est difficile de ne pas le trouver insondablement attachant, tellement humain, en un mot, pour lâcher le mot. Beaucoup plus déterminant aux fins de la thématique, le robot non-anthropomorphe R2-D2 est un droïde d’entretien ne s’exprimant que par cyber-pépiements. Il est rien de moins qu’un super-terminal portatif autonome car il peut, de sa propre initiative ou sur demande, communiquer harmonieusement avec tous les mainframes imaginables, y compris ceux de l’ennemi. Mais surtout, en observant attentivement sa remarquable trajectoire, on découvre que R2-D2 est un serviteur discret, efficace jusqu’à l’omnipotence, sagace jusqu’à l’omniscience, et doté d’une extraordinaire élévation morale. Devenu une icône culturelle en soi, le droïde R2-D2 est incontestablement la première manifestation fortement positive et laudative d’une vision respectable, sereine et éthique de l’ordi, dans le grand cinéma de masse.

1978: un confrère, étudiant de fac en informatique de gestion, nous annonce triomphalement à la cantonade que, dans dix ans, tout le monde devra connaître un ou deux langages de programmation et que ce sera certainement FORTRAN et COBOL qui domineront ce nouveau champ de savoir populaire. L’explosion ultérieure du user-friendly (sans parler de l’apparition, chez les informaticiens, du Pascal, du C, du C++ du SQL, du Java, du Dot-net et j’en passe) rendra cette prédiction parfaitement inopérante, justement dans la décennie où elle était censée se réaliser.

1979: un jeune Ysengrimus de vingt-et-un printemps pianote sur un ordi pour la première fois de sa douce vie, dans une obscure salle de terminaux de la fac où il étudie. C’est justement un terminal. Le lettrage est vert fluo, il faut taper toutes sortes de codes cryptiques pour «entrer» dans le ci-devant mainframe et on a aucune idée de ce qu’on fout là exactement quand on y arrive. Inoubliable.

1980: la compagnie Atari introduit les premiers ordinateurs avec clavier et écran ne requérant pas qu’on pianote une litanie de commandes en code avant de se déclencher. Ils bootent (comme on disait alors) automatiquement sur allumage (tout un soulagement au demeurant) et servent surtout pour des jeux vidéo et la constitution de bases de données rudimentaires.

1981: apparition du robot industriel, servant notamment à l’assemblage des voitures. Cet appareil perfectionné de chaîne de montage portera un coup durable au fantasme asimovien du robot anthropomorphe. Désormais, un robot, c’est un type perfectionné de machine-outil utilisé dans l’industrie et non un compagnon domestique avec des yeux et une bouche pour parler. Et un androïde, bien ça n’existe tout simplement pas.

1982: le film de science-fiction Blade Runner de Ridley Scott incorpore des androïdes intégralement anthropomorphes en pagaille mais surtout, il met en scène une technologie de recherche d’informations préfigurant assez astucieusement l’Internet.

la machine de l’année pour 1983: le PC... L'ordi emménage...

La machine de l’année pour 1983: le PC… L’ordi emménage…

.
.
.

PHASE 2: L’ORDINATEUR COMME OBJET PRATIQUE

1982: Mise en place graduelle du Minitel en France.

1983: popularisation du micro-ordinateur ou ordinateur personnel (PC pour personal computer). On apprend tous à jouer au grille-pain avec les disquettes et à enchâsser le rouleau de papier symétriquement déchiquetable dans l’engrenage des imprimantes-mitraillettes. Démarre alors la compétition entre MacIntosh (Apple) et ce qu’on appelle alors les clones d’IBM (derrière lesquels se profilera Microsoft). Le film WarGames de John Badham est le premier long métrage à succès mettant en vedette un hacker (il passe à deux doigt de déclencher un conflit nucléaire en prenant le simulateur guerrier logé dans le grand ordinateur Pantagoneux qu’il parasite pour un jeu vidéo).

1983-1989: les années traitement de texte. On pourrait aussi dire: les années WordPerfect. La souris et les icônes, nées chez Apple, puis reprises intempestivement par Microsoft, s’imposent durablement comme complément du clavier. On apprend tous à cliquer

1984: apparition télévisuelle de Max Headroom, donné comme le premier personnage artificiellement généré (en fait un acteur lourdement maquillé — les effets d’ordi étaient encore très marginaux). La création de personnages et de mondes engendrés artificiellement connaitra, en vingt ans, une véritable explosion, notamment dans l’univers cyclopéen du jeu vidéo. Certaines de ces figures (on pense par exemple à Lara Croft ou aux Sims – l’énumération serait trop longue ici) deviendront de véritables icônes culturelles. Apparaîtra avec eux une notion (qui a été largement galvaudée et barouettée): le virtuel.

1986: dans le film Jumpin’ Jack Flash de Penny Marshall, la protagoniste voit, avec ébahissement, des messages s’écrire sur son terminal d’ordinateur sans que ses mains ne touchent le clavier. Un espion en détresse l’appelle à l’aide, à travers les arcanes du système. Ce film est un des premiers à incorporer l’envoi de quelque chose comme des courriers électroniques comme élément central de son intrigue.

1990: apparition de la procédure de retouches photographiques Photoshop. En deux décennies, il deviendra possible d’effectuer artisanalement le type de montages photos que seuls la CIA et le KGB pouvaient se permettre dans les décennies antérieures. Mais assez vite aussi, les retouches photos, privées et publiques, vont se généraliser au point de susciter un net désenchantement du public. Bientôt, le trucage d’images par ordinateur sera partout et, conséquemment, ne leurrera plus personne. La retouche photo deviendra donc graduellement un procédé jugé fort négativement et certaines personnalités la subissant iront jusqu’à intenter des poursuites légales pour altération de leur image publique.

1991-1997: décollage en force d’Internet dans les différents pays. C’est le temps des arcanes encore mystérieuses du  www, du http, du dot-org et du dot-com. On se familiarise tous avec les hyperliens, qui font passer, en un éclair, d’un site à l’autre. Apparaissent aussi certaines envolées d’enthousiasme oratoire qui font sourire aujourd’hui comme cyber-espace ou autoroutes de l’information. Un certain pessimisme s’exprime aussi. On trouve l’Internet encore bien vide de contenu et surfer le net est alors perçu comme une fixation un peu schizo vous isolant de la vie sociale.

1993-1999: âge d’or du courrier électronique, des «listes» électroniques (sur lesquelles on a tous, un jour ou l’autre, posté un message privé par erreur) et… des pourriels (spam) qu’il faut effacer un par un, soi-même. Les premières binettes (emoticon) font leur apparition pour facialiser l’interaction et réduire la sécheresse des messages. C’est aussi le boom des légendes urbaines colportées par courriels pyramidaux et des petites amusettes iconiques fixes ou mobiles qu’on s’envoie entre amis. Un curieux constat se généralise. Les gens se conspuent souvent par courriel, même sur des listes collectives. C’est comme si le maintien de la fulgurance de l’échange combiné à la disparition des contraintes du face à face libéraient les pulsions rageuses. Il va falloir apprendre à dominer ce nouveau canal d’échange et… à se dominer en lui. Des formes laborieuses d’autocensure collective se mettent en place, à cette fin, comme notamment le fameux Point Godwin, un aphorisme de culture vernaculaire se formulant, un peu pompeusement, comme suit: Toute cyber-discussion dont le ton monte voit la probabilité qu’un des participants y fasse référence à Hitler ou au nazisme tendre vers 1. (Quand un participant finit par oser mentionner Hitler ou le nazisme, pour quelque raison que ce soit, et même sans agressivité, on l’enguirlande en lui mentionnant, d’un air hautain, qu’il vient d’atteindre le Point Goodwin). Certaines listes d’échanges électroniques deviennent éventuellement tellement fliquées par leurs modérateurs qu’elles en meurent tout simplement d’inanition.

1994: le très étrange feuilleton ReBoot, créé à Vancouver (Canada) par Gavin Blair et toute une équipe, est la première série télévisée constituée exclusivement d’animations par ordinateur (chaque épisode dure une demi-heure, la série durera jusqu’en 2001). La même année, le film The Mask de Chuck Russell incorpore étroitement jeu d’acteur et effets visuels conçus par ordinateur. Un an plus tard (1995) le premier long-métrage du triptyque Toy Story de la compagnie de cyber-animation Pixar fera un tabac en salles. Des voix annoncent alors la disparition de l’acteur et de l’actrice au profit de l‘animatron informatique. Inutile de dire qu’on attend toujours, quelques vingt ans plus tard, la concrétisation de cette nouvelle prédiction hasardeuse.

1995: lancement du MP3 qui, en cinq ans, va révolutionner la façon de saisir la musique sur un support, de la consommer et de la pirater. Une durable bataille de copyright s’ensuit qui perdure encore. Apparition graduelle du webcam (enfin une anticipation Star Trek va finir par factuellement se réaliser: la vidéophonie). Lancement du site de vente aux enchères eBay. Il deviendra rapidement un incontournable mondial de la cyber-brocante et il rebondira régulièrement dans l’actualité pour la rareté ou l’incongruité des objets qu’on y trouve. Certains cinéastes ont même déclaré avoir acheté le gros des décors de leurs films d’époque sur eBay.

1995 puis 1998: lancement par Microsoft de la série des systèmes d’exploitation Windows.

1995-2000: intensification de la peur du bug de l’an 2000. Âge d’or des site web non-interactifs (les couleurs vives, les micro-animations papillonnantes) et guerre des premiers fureteurs (NetscapeExplorer, etc). On apprend tous à bookmarquer. Pour se partir un site web alors, il fallait savoir programmer en HTML et explicitement obtenir la permission de se nicher (d’être hébergé) sur un serveur spécifique. Pas facile.

1998: lancement du moteur de recherche Google. En moins de dix ans il surclassera ses six ou sept concurrents (Lycos, Yahoo, Copernic, etc). On apprend tous à googler. La curieuse petite comédie sentimentale You’ve got mail de Nora Ephron raconte l’histoire de deux cyber-tourtereaux qui se connaissent (en personne) et se font, en fait, grise mine dans la vie réelle tout en tombant amoureux en ligne. Première incorporation du cyber-anonymat (et de sa dualité) dans l’intrigue d’un film.

2000: le fameux bug de l’an 2000 est vite éventé. Débuts de la technologie et de la philosophie de l’open source. Le jeune hacker Mafiaboy lance sa série d’attaques informatiques et se fait pincer après avoir causé son lot de dégâts. Le virus ILOVEYOU infecte des dizaines de millions d’ordis à travers le monde. On découvre que ces petites amusettes visuelles qu’on peut se faire envoyer par courriel et qui nous déridaient tant dans la décennie précédente peuvent être malicieuses. On apprend, la mort dans l’âme, à effacer ces attachements sans les ouvrir.

2001: lancement de Wikipédia. Il est maintenant possible à tous d’intervenir directement sur Internet. En une décennie, cependant, Wikipédia renoncera graduellement à son ouverture intégrale.

2001-2003: la généralisation de la technologie du wiki (la mise en ligne instantanée) voit la fin de la technicité ésotérique de la mise en ligne et le début des sites interactifs. Il devient de plus en plus facile de se partir un site web gratuitement. L’impact de masse de ce fait sera vite palpable.

2002: lancement du fureteur Firefox. Disparition de Netscape. La guerre des fureteurs se calme.

2003: lancement de la plateforme WordPress, de MySpace (qui sera éventuellement surclassé par Facebook), de Skype et du site de réseautage professionnel LinkedIn. Apparition semi-spontanée de 4chan et de /b/, le ci-devant «trou du cul de l’Internet», viviers de toute une culture vernaculaire cryptique, extrême, initiatique et cynique qui sera une source majeure de cyber-harcèlements anonymes, de hackings illicites et l’un des grands ateliers d’engendrement du phénomène du mème.

2004: lancement de Facebook, dont on peut dire, sans exagérer, qu’il est le principal support technologique d’une véritable révolution ethnoculturelle mondiale. L’Internet désormais est le vecteur d’un intensif réseautage social. Il ne s’agit plus de s’isoler du monde mais de profondément s’y raccorder.

2005: lancement de YouTube. En cinq ou six ans, il deviendra le vecteur incontournable de la célébrité sans intermédiaire et de la hantise du «devenir viral».

2006: lancement de Twitter, qui passera vite d’une structure de micro-suivage à une sorte de fil de presse instantanéiste mondial. Lancement de Wikileak que les tartuffes médiatiques dénoncent bruyamment mais consultent (et citent) intensivement.

2007: apparition du iPhone d’Apple. L’année suivante (2008), il est possible de l’utiliser en wifi, (technologie sans fil) sans obligation de raccord à un ordinateur. Le téléphone, ce vieil instrument désormais intégralement renouvelé, devient alors une partie profonde de l’identité d’une personne. Mais, désormais, il vous relie à votre réseau social (incluant votre employeur) et ce, en permanence. Cela représente déjà comme une sorte de poids, pour certains…

2008: débuts discrets du Carnet d’Ysengrimus. La typologie des blogues qu’il propose en 2009 tient toujours, malgré la graduelle mise en jachère de nombreux cyber-carnets.

2009: on recommence doucement à parler de robots anthropomorphes et à en montrer dans des foires technologiques. Le film Moon de Duncan Jones incorpore à son scénario l’interaction d’un humain, seul sur une base lunaire, avec un robot semi-anthropomorphe du nom de Gerty. Ouvertement et très ostensiblement réminiscent du Hal de 2001: A Space odyssey et initialement sourdement inquiétant de par cette réminiscence, Gerty (auquel l’acteur Kevin Spacey prête sa voix) s’avère un serviteur prompt, affable, stylé, attentionné, respectueux, sans malice, et cocassement expressif. Fermant, quarante ans plus tard, le cycle inquiet ouvert par Hal, le robot Gerty incarne magistralement le passage de l’ordi Golem fantasmé à l’ordi instrument quotidien, banalisé, ordinaire et ami. Apparition du Bitcoin (monnaie virtuelle) qui, en quelque années, quittera le monde du jeu vidéo, se verra accepté par maint cyber-commerçants, et soulèvera tangiblement la question juridico-financière des transactions et des mises en circulation de fonds libellés en monnaie virtuelle.

2005-2010: âge d’or des blogues. On pourrait aussi dire: les années troll. Graduellement Twitter et Facebook vont assumer des fonctions qu’assumaient initialement les blogues personnels. Mise en place imperceptible du slow-blogging. Contestation croissante du cyber-anonymat par les cyber-médias officiels. On apprend tous à éviter au mieux de nourrir la cyber-provoque (Don’t feed the Troll!). Certains cyber-intervenants s’identifient très étroitement à la seconde identité que leur confère leur pseudonyme.

2010-2013: Il est devenu naturel de jauger le profil social ou sociologique d’une personne par sa présence ou son absence en la constellation des cyber-dispositifs (premières pages Google, Facebook, LinkedIn, 4chan, blogues personnels, etc). La notion de réseaux sociaux et de médias sociaux est désormais une idée ordinaire. Et l’ordi est désormais, tout naturellement, un outil de documentation, un aide mémoire et un instrument de raccord social.

world_internet_keyboard

Il est assez patent qu’on est passé de l’ordinateur Golem à l’ordi connecteur social. Quel que soit le jugement qu’on porte sur la portée intellectuelle et ethnoculturelle des faits que je retiens ici comme exemplaires (et make no mistake: beaux ou laids, grandioses ou riquiqui, ils sont exemplaires), il s’avère que l’anticipation formulée dans la première phase rate totalement son coup pour ce qui est de prévoir les immenses phénomènes sociologiques de la seconde phase… Qui ira encore, après un ratage aussi tonitruant, appeler un roman de science-fiction un roman d’anticipation? Anticipation mon fion. La seule à avoir vraiment anticipé, c’est Mary Shelley (1797-1851), et c’est sur ce sur quoi on allait collectivement fantasmer qu’elle a anticipé, rien de plus. Les œuvres du vingtième siècle ayant déliré les androïdes, les robots et les ordinateurs n’ont finalement pas anticipé grand-chose de factuel (et la notion d’uchronie est bien plus adéquate pour les décrire — cela ne s’est pas passé et ne se passera jamais). Ces oeuvres ont simplement exprimé des hantises qui étaient bien plus celles de leur temps que celles du futur. La grande peur post-orwellienne de l’ordinateur déshumanisant rappelle bien plus la réification industrielle et/ou usinière (pour ne pas mentionner la rigidité politique —rigidité des blocs— issue de la guerre froide) du siècle passé. On voit co-exister un peu éclectiquement, dans la première phase, spéculation universitaire (largement exploratoire, décrochée et, disons la choses comme elle est, en grande partie stérile aussi) de l’informatique et du cybernétique et fiction populaire de l’inhumain ordinateur totalitaire et du méchant robot fauteur de troubles. On hypertrophie aussi les pouvoirs de l’ordinateur. On en fait un «cerveau électronique». On lui impute, dans cette phase mythique, et ce, au plan du bobard le plus ouvertement foutaisier, des aptitudes fantastiques, merveilleuses, formidables. On sait, dans la phase pratique, qu’il ne détiendra pas de telles facultés avant fort longtemps, si jamais. Parallèlement, presque en autarcie industrielle (car, dans ce temps là, l’ordinateur domestique, on y croyait pas trop), apparaissent les cartes perforées, les grands ordinateurs, les premiers microprocesseurs à clavier, les terminaux aux lettrages fluo. Ils vrillent leur chemin vers la vie ordinaire sans que le public sache encore exactement à quoi ils servent exactement. Il semble bien que personne ne pouvait vraiment le prévoir, en fait. La révolution des mœurs qu’ils enclencheront sera, de fait, une surprise totale.

En gros donc, aux vues de la phase mythique, l’ordinateur déshumanise et il faut le débrancher pour sauver l’humanité. Ce qui se réalisa est le contraire, presque le contraire diamétral. J’ai pas besoin de vous faire (ou de vous imprimer) un dessin. Au jour d’aujourd’hui, l’ordi nous raccorde et est un des instruments incontournables de la culture collective mondiale. Il est aussi devenu cet implacable curseur social au moyen duquel on se juge lapidairement les uns les autres (votre-employeur-brother ne s’y est pas trompé), on se passe les antennes sur le dos, on se rencontre, on se découvre, on se masque et se démasque, on collabore, on fomente de grands projets collectifs, au mépris des distances et des limitations venues justement de ces pouvoirs centralisés qu’on imputa, à grand tort, à l’ordinateur mythique de jadis (lesdits pouvoirs, politiques et économiques, toujours menaçant mais incroyablement archaïque, dépassés, réacs, sont désormais, aussi, tendanciellement passablement anti-ordi). Tout comme le M5 aveugle de Star Trek, le grand ordinateur collectif d’aujourd’hui n’a pas de bouton interrupteur et ce, malgré Joe Lieberman et bien d’autres qui souhaiteraient pouvoir l’éteindre à leur guise. C’est pas possible encore, mais pour combien de temps… mais n’anticipons pas! Conclusion, conclusion: bon, continuons de préparer l’avenir et gardons un œil prudent et autocritique sur toutes nos futurologies. Elles parlent de nous, ici, en fait, et pas toujours dans les meilleurs termes. Et, comme c’est pas fini, l’ordi, eh ben, il y en a encore pas mal à dire…

5 réflexions sur “De l’ordinateur comme objet mythique à l’ordinateur comme objet pratique: une chronologie sélective en deux phases

  • Ping : De l’ordinateur comme objet mythique à l’ordinateur comme objet pratique: une chronologie sélective en deux phases « Le Carnet d'Ysengrimus

    • 3 décembre 2021 à 20 h 23 min
      Permalien

      chapeau-respect

      Monsieur Júdice,
      Je profite de l’occasion ici pour vous féliciter et vous remercier pour votre remarquable travail de traduction de nos articles vers le portugais, importante langue de culture et de communication militante. Du beau boulot. Chapeau.
      Paul Laurendeau (Ysengrimus)

      Répondre
  • 4 décembre 2021 à 3 h 19 min
    Permalien

    C’est le développement de l’ informatisation vu d’ en haut, maintenant il faudrait compléter par la même chose vu d’ en bas, les différentes luttes contre l’ informatisation de la société.
    Sur Turing .La cryptanalyse d’Enigma, c’est-à-dire le décryptage de messages chiffrés par la machine à coder allemande Enigma, fut un facteur des succès alliés pendant la Seconde Guerre mondiale.

    Avant le début de la guerre, le mathématicien polonais Marian Rejewski élabore la première cryptanalyse, fondée sur une redondance : le mode de chiffrement de la clef choisie par le chiffreur était répété dans le préambule du message. Durant la guerre, les Britanniques améliorent la cryptanalyse de la machine grâce aux efforts d’Alan Turing et des très nombreux cryptographes de Bletchley Park.

    Il a été estimé que le conflit en Europe a été écourté d’au minimum deux ans grâce à la cryptanalyse des chiffres et des codes allemands1. sources Wipedia

    Il faut aussi citer la tentative du Président Allende au Chili qui voulait mettre en place le project Cybersyn ou en espagnol, proyecto Synco1 a été un projet chilien visant à créer une économie planifiée contrôlée par un système temps réel durant les années 1970–1973 (sous le gouvernement du président Salvador Allende). Il s’agissait essentiellement d’un réseau de télex qui reliait les entreprises à un ordinateur central situé à Santiago qui était contrôlé suivant les principes de la cybernétique. Le principal architecte de ce système était le scientifique britannique Anthony Stafford Beer2. Le Grand Reset en est l’ aboutissement final.

    Nous y reviendrons G Bad

    Répondre
    • 4 décembre 2021 à 9 h 02 min
      Permalien

      Décoder des chiffres de messages secrets soldoques pour gagner une guerre impérialiste ou œuvrer secrètement à des tentatives largement mythologisées d’économie planifiée me parait bien plus une VISION PAR LE HAUT des progrès techniques que le fait de lire Flash Gordon ou Les bulles de l’Ombre Jaune dans un sofa défoncé de sous-sol de pavillon. La légende technique pata-informaticienne fut largement vernaculaire, et non élitaire, dans les grandes années de l’anticipation mythico-millénariste (1968-1998).

      Notons aussi… crucialement… que le mot-clef ritournelle GREAT RESET n’est en rien le marqueur automatique et imparable de l’analyse sociologique adéquate de quoi que ce soit… il s’en faut de beaucoup…

      Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *