L'extrémité digitale

De la télépathie?

Posted in Uncategorized by Jean-Philippe Tittley on novembre 24, 2009

Toujours en quête d’une connectivité améliorée qui nous ferait passer d’ Internet — qui constitue possiblement l’apogée en matière d’interconnectivité entre machines – à quelque chose comme humanet, un système d’interconnectivité axé sur l’humain.

Les plus récents avancements technologiques – qu’on semble associer à la miniaturisation, vraisemblablement parce que ça nous arrange de le voir ainsi, davantage que de reconnaître la volonté d’être soi-même relié. Twitter, Facebook, et tous les réseaux sociaux modernes ont pourtant des fonctions qui permettent une mise à jour en temps réel, sur le réseau, à partir d’appareils portables. Autrement dit, nous sommes reliés, mais il demeure un intermédiaire.

Cependant, nous sommes scientifiquement capables de capter les influx nerveux. Certains appareillages orthopédiques tirent profit de cette capacité en effectuant des mouvements « par la seule force de la pensée ». Si cela fait demander à certains quelle est la part d’humanité qui demeure dans ces circonstances (Une personne amputée disposant de prothèses est-elle à 73 % humaine si l’on sait que les organes du corps humain ont une mémoire qui fait partie, sinon de la conscience, à tout le moins de l’inconscient.?!), nous y voyons plutôt une ouverture. An open port.

Le cerveau est un des éléments du système nerveux central. Il émet de ces influx, aussi bien que les terminaisons nerveuses d’un moignon de bras.

Il est donc possible d’envisager une technologie de télépathie, qui tirerait profit de cette émission d’influx, la capterait. Ne reste plus qu’à savoir encoder cela ; la transmission fonctionne déjà. À l’autre extrémité du canal, quelque forme de retransmetteur qui saurait induire la charge appropriée, l’influx, pour que le message se rende. Ainsi, le client, pour parler en termes de réseautage, recevrait l’information émise du serveur.

La majorité des réseaux ont fait leurs débuts en méthode « post », c’est-à-dire que le serveur envoie l’information, généralement en continu, et le client ne retient que ce qui lui est utile. Ainsi fonctionnaient jadis les systèmes de transmission des grands réseaux d’information, principalement parce que la technologie duplex (information échangée dans les deux sens) était difficile à mettre en fonction. CNN, par exemple, émettait sur une fréquence imperceptible à l’écran de son signal satellite tout ce qui passait par sa salle des nouvelles : manchettes, résultats sportifs, cotes boursières, etc. Nous avions chez nous un décodeur qui transmettait le signal télévisuel dans les câbles coaxiaux de la maison, et un signal numérique via un cable RS 232 (l’ancêtre du USB) jusqu’à l’ordinateur. Un logiciel filtrait toute cette information et ne retenait que ce qui était pertinent, générant des fichiers (outputs) régulièrement comme s’il s’agissait d’une page web. (Mais une très très vieille page web!!)

Puis, la conception du réseau se perfectionnant, est apparue ma méthode « get », qui permettait via un modem téléphonique d’envoyer au serveur de CNN l’information que NOUS voulions, et qui nous était ensuite retransmise par satellite, ultra rapidement. Plutôt que d’avoir un flot d’information inutile, à trier et qui engorgeait nos disques durs (de 100 mb à l’époque, soit l’équivalent de quinze MP3 de trois ou quatre minutes), tout était ciblé. C’est encore cette méthode qu’utilisent les FAI (fournisseurs d’accès Internet) dans les régions qui ne sont pas desservies par la câblodistribution.

De la même manière, notre système de transmission d’information nerveuse commencerait probablement par n’exister que sous la forme « post », et sans doute l’induction dans le cerveau du récepteur posera encore problème pour quelques années. Cependant, les technologies des télécommunications sont sans aucun doute assez avancées pour soutenir la méthode « get » pour de tels transferts ; du moment que l’on pourra induire l’information au cerveau, la télépathie SERA possible.

Cela dit, tout encodage numérique est nécessairement restrictif, contraignant. Tout ce qui fait passer l’énergie d’une forme à une autre – qu’on nomme transducer provoque une perte de signal. C’est pourquoi, avant l’avènement du numérique, on tâchait de réduire la longueur des chaines de transmission du signal. Avez-vous déjà fait un appel téléphonique de Windigo (Qc) à Paris (Fr) ? Radio à antenne, antenne à retransmetteur à autre antenne à récepteur-opérateur qui compose pour vous le numéro de téléphone, puis ça part chez Bell, jusqu’à la côte Est, câblage sous-marin (ok, satellite, maintenant!), France télécom, etc. Entre votre « bonjour » et la réponse, il peut facilement se perdre de 15 à 20 secondes.

Les transducers sont donc à éviter comme la peste. La bonne nouvelle, c’est que dans le monde numérique, l’information ne change pas de forme d’énergie. Elle reste en zéros et uns, et on peut récupérer l’information perdue, s’il y en a. Le seul problème qu’il subsiste, c’est que le passage de l’analogique au numérique (l’inverse pose moins problème) occasionne une perte : nécessairement, l’encodage écarte une partie des données, à moins de les reconstituer. Exemple : vous dessinez un rond sur une feuille de papier, que vous numérisez. En apparence, le rond numérisé tel qu’il apparaît à l’écran est le même que celui que vous avez dessiné. Or, si vous utilisez l’outil loupe sur votre logiciel d’imagerie et que vous faites un zoom 400x, vous commencerez à voir apparaître les pixels de votre cercle ; lesquels pixels n’existent évidemment pas si vous regardez votre feuille de papier au microscope 400x. Plutôt vous verrez un peu de la fibre du papier, sans doute, qui n’apparaît pas à l’écran. Ça aussi, c’est un transducer.

Cela est inévitable, à moins de vectoriser votre cercle, dans le logiciel d’imagerie. Alors, le logiciel tentera, au mieux et selon les zones d’ombre de votre trait circulaire, de recréer le plus fidèlement possible le dessin qu’on lui donne à analyser. Et vous pourrez zoomer, zoomer et zoomer encore, vous ne verrez plus que le trait. Jamais de pixels. Au lieu de retenir qu’il y a un carré (pixel) blanc, puis un gris, puis un noir, puis un gris, puis un blanc, et sur la ligne suivante un blanc, un gris, etc… (ce qui est une cartographie de l’image numérisée, en fait, tous les .JPG ; .GIF; .BMP fonctionnent ainsi), votre logiciel retiendra que vous avez tracé un cercle de 0,4 m. à partir du point 304.299 vers la gauche à 40°, diamètre 20 cm, puis que vous avez dévié (vous ne tracez pas les cercles parfaitement) à 40.009°, diamètre 30 cm, avec un force plus intense (donc plus foncé)… etc. Plutôt que le résultat, l’ordinateur déduit de votre dessin la démarche.

C’est la même chose exactement qui procède lorsque vous utilisez le format musical MIDI. Ça sonne « can », mais ça ne peut pas distortionner. Sauf si vous l’imposez. L’erreur n’est plus possible, absolument plus possible (sauf, en ce qui a trait au rythme, si vous faites rouler tous vos logiciels en même temps et que le processeur de l’ordinateur ne fournit plus).

Selon toute vraisemblance, donc, le cercle vectorisé de tantôt sera un peu plus près de la perfection que celui que vous avez tracé. Ça constitue encore un problème, peut-être. La vectorisation peut avoir de la difficulté à générer des erreurs, alors que vous, vous y êtes experts.

Si notre transducer neuronal parvient à vectoriser ce qu’il capte, nous nous rapprochons d’une télépathie parfaite.

Nous continuerions de faire des erreurs, mais l’exprimerions parfaitement. À moins de penser tout croche ?!?!

Tecnologia traditore

Posted in Uncategorized by Jean-Philippe Tittley on novembre 11, 2009

Deux de mes récentes publications portaient sur le passage de l’écrit manuscrit à l’écrit électronique. Je n’aurais évidemment pas la prétention d’affirmer que ma petite expérience puisse mettre en rapport ces deux modes de mise en texte. D’abord le premier des deux ne pouvait être reconnu comme texte que sous l’acception la plus large, conséquemment la moins spécifique. En effet, les images numérisées de mon carnet de notes n’étaient que cela : une représentation graphique plutôt fidèle de notes, c’est à dire des mots, des phrases, mais qui ne présentaient pas l’intrication des divers propos nécessaires à en faire un véritable texte, un tissu d’assertions interreliées formant un tout solide et complet. Je dis « plutôt fidèle », parce que j’ai aménagé mes notes avant de les numériser, d’une part, et parce que le passage du réel concret au réel numérique implique nécessairement un décalage.

Par ailleurs, la publication subséquente, pour laquelle j’admettrais plus aisément la qualité de texte, n’était pas une fidèle traduction de mes notes. La part de fiction qui s’y trouvait visait à donner sens au propos en le contextualisant. Les exemples que j’y convoquais en appelaient davantage à l’effet de réel qu’à la réalité concrète qui est la mienne. Non, vous n’avez pas lu mes confessions. J’aime bien René.

Plaçons ici une parenthèse. Le rapport au carnet, celui qui me tombe des mains souvent lorsque je le relis — non qu’il soit si ennuyeux, mais plutôt qu’il tombe en pièces, ma maîtrise des techniques de reliage étant plutôt sommaire — est fort différent du rapport au clavier. Le toucher. La longueur. La douleur qui m’envahit les métacarpes lorsque je tiens le crayon — je ne sais le tenir que trop fort — ne trouve aucun équivalent au clavier, même dans mes plus frénétiques séances de binarisation d’idées.

Ne serait-ce que pour cette raison, mes écrits manuscrits sont toujours plus sommaires, plus elliptiques. Je les sais toutefois plus sincères. L’effort physique que requiert la mise en texte manuscrite m’incite à faire économie des propos mensongers ou des digressions.

Qui plus est, l’écriture manuscrite me permet de biffer, de raturer, d’annoter. Pas de déplacer, de supprimer (une fois pour toutes cette idée stupide), de remplacer (ou d’intégrer, si je décidais subséquemment de revoir cette phrase et d’y supprimer la parenthèse, considérant que la formulation serait moins gauche si tout se tenait en une phrase succincte). En fait, ni l’une ni l’autre des formes d’écriture n’empêche complètement ou ne permet magiquement aucune de ces actions relatives au texte. Certaines seulement sont facilitées par la rédaction électronique, tandis que d’autres ont des conséquences différentes sur notre rapport au produit final. Admettra-t-on que le texte manuscrit nous semble plus engageant? Que, de par le temps supplémentaire qu’il faut investir pour former les lettres sur le papier (aiguiser le crayon, tourner la page, …), le propos s’en trouve modifié?

Ce ne sont que quelques évidences que je ressasse afin de rappeler aux plus technologiques d’entre nous que les conditions dans lesquelles nous écrivons exercent sur notre propos une influence remarquable, à laquelle nous préférons généralement ne pas réfléchir. Est-ce qu’inconsciemment, notre style rédactionnel se trouverait modifié par le simple fait que certaines lettres sont moins accessibles sur le clavier, ou plus difficiles à former à l’écrit? Nous connaissons tous les prédispositions de l’humain pour la paresse. Utilise-t-on plus souvent les phrases passives à l’écrit électronique, du simple fait que — inconsciemment toujours — l’action nous parait un peu plus virtuelle?

Refermons cette parenthèse. Informée de la courte digression, la question de la traduction suivrait-elle une nouvelle tangente? Il ne s’agirait plus de ne reconnaître le passage d’une forme d’écrit à une autre que comme génératrice de sens, voire de réel, mais d’y voir les conditions de ce passage comme un élément définitoire de cette technologie…

L’idée a certainement déjà été discutée, mais m’est apparue incontournable lors d’une conférence de Serguei Tchougounnikov présentée à l’Université Concordia au cours du mois d’octobre : la traduction est créatrice de sens. En substance, monsieur Tchougounnikov y discutait la teneur des théories du formalisme Russe et du cercle de Bakhtine, telle que modifiée par les traductions qu’en ont effectuées Todorov et Kristeva.

En effet, de nombreuses marques relevant du contexte épistémologique immédiat de ces deux courants de la pensée sont restés inaperçues ou effacées dans les traductions occidentales de ces textes, ce qui a naturellement influencé leur réception en Occident. L’ignorance du contexte et de la généalogie de ces courants a donné lieu à de nombreux malentendus et a fait surgir des images conceptuelles souvent trop éloignées de leurs originaux. C’est ainsi que la généalogie psychologique du formalisme russe, qui remonte à la psychologie allemande du XIXème siècle, est restée jusqu’à ces derniers temps méconnue en Occident où le courant formaliste a été introduit comme radicalement  » anti-psychologique « .

Si Tchougounnikov insiste surtout sur la perte d’une nécessaire contextualisation à la théorie, notamment par le vocabulaire employé, lequel serait connoté assez fortement pour en induire la généalogie, nous sommes tentés de voir en tout cela une altération créatrice, au même sens que l’on peut estimer créatrice l’imparfaite réplication génétique ayant cours chez les espèces vivantes. Ainsi serait née, par les voies technologiques de la traduction (lire : réplication), une nouvelle théorie formaliste (non-)Russe. Le sens accordé à cette théorie telle que traduite étant fort différent du sens original, elle a donné lieu à des continuations et des contre-réactions radicales, lesquelles se disséminent toutes deux dans la quasi majorité des courants d’études subséquents. En sorte que l’on puisse avancer que la traduction qui excluait le contexte de production a « évolué » au sens darwinien jusqu’à nos jours.

Si l’on transfère cette idée vers le phénomène de la réécriture, on en vient à voir les multiples états d’un discours (imaginé, oral, manuscrit, typographié, …) comme différentes phases d’évolution d’une même pensée, se perfectionnant — s’adaptant au nouveau contexte.

En apparence anodine, cette idée peut être de grande conséquence pour le présent siècle. En effet, la majorité des textes qui existent ne proposent que deux ou trois états. Nous disposons bien de manuscrits, brouillons et avant-textes pour quelques classiques de nos littératures, mais ces états sont clos, et désormais inféconds ; ils ne produisent plus de nouveaux sens dans le monde actuel. S’ils le font, c’est par un placage du texte sur un nouveau contexte, ou par la projection du lecteur. Encore faut-il, d’ailleurs, que le lecteur moderne retourne au texte, sous une forme le plus souvent inadaptée aux jours actuels et à venir ; le livre ou la numérisation telle-quelle du livre.

Un avenir pour les traducteurs pourrait donc être de faire passer le texte, non pas d’une langue vivante à une autre langue vivante, mais d’un état de texte à un autre, c’est-à-dire de la page-papier à la page-écran. Il ne s’agit pas d’entrer le texte à l’écran, ce qui serait une improductive sottise, mais de réellement traduire le texte, de l’adapter au nouveau mode de distribution, ainsi que le scénariste le ferait au cinéma.

Ainsi les textes (leur discours?) pourraient continuer de vivre, tout en étant assurément productifs. Autrement, nous pourrions craindre leur perte, leur disparition, leur inadéquation au monde. L’Histoire elle-même, relativement inadaptée en marge de Wikipédia, risque de se perdre si elle n’est pas traduite…

Il m’importe de clore sur une note positive. Nos esprits cyniques et souvent prompts à la critique unilatérale verraient aisément ici une nouvelle tâche imposée par l’avènement de l’ère numérique, ou pire, une nouvelle perte découlant de l’accélération sans fin et de la numérisation de nos environnements. J’y vois plutôt une occasion remarquable de traduire l’Histoire, en son sens le plus inclusif, en une langue moderne : une qui soit appropriée à notre contexte. Une réécriture brouillonne de l’Histoire est le plus grand danger que nous courons — auquel nous n’échapperons probablement pas, de toute manière, si la tâche n’est pas intelligemment orchestrée — cependant que sa traduction pourrait être une merveilleuse occasion de la revisiter et de mieux formaliser l’évolution passée, celle à venir.