Glossaire

Texte

  • PDF

Binaire (système) : Alors que nous utilisons communément le système décimal pour compter (nous utilisons 10 chiffres, de 0 à 9), le système binaire ne contient que les valeurs 0 et 1. Particulièrement adapté aux processeurs des ordinateurs actuels — composées de transistors qui ne gèrent que deux états, ouvert ou fermé —, le système binaire permet de transmettre à la machine le code des opérations (soustractions, divisions, additions et multiplications) qu’elle doit effectuer pour lancer tel ou tel programme, ou pour calculer le déplacement de la souris. Pour ce faire, les données sont converties en paquets de 0 et de 1 (qui deviennent des octets, lorsqu’ils sont regroupés par huit).

Bien que le « digital » lui doive justement son nom, le système binaire (binary digit, ou bit) est également utilisé pour certaines technologies analogiques, tel que le code Morse (une alternance de deux signaux, long ou court) ou les cartes perforées (ancêtres de nos ordinateurs fixes).

 

Bit : Aussi appelé petit morceau, le bit est l’unité d’information la plus réduite que nos machines numériques peuvent traiter et manipuler : le 0 ou le 1, lesquels composent le code informatique. Son nom vient de « binary digit » (chiffre binaire, en anglais).

 

Code : Ce terme renvoie aussi bien au domaine juridique (le Code du Travail) que social (les codes sociaux), linguistique ou communicationnel. Dans tous les cas, un code impose un ensemble de règles — explicites ou implicites, conscientes ou non — qui régissent le fonctionnement d’un organisme ou d’une machine. En informatique le code permet de composer le système binaire et va ainsi permettre de traduire à la machine ce que l’on attend d’elle, les programmes qu’elle doit suivre.

 

Conversion : Le terme conversion, comme action de convertir, signifie la transformation d’une chose vers une autre. Il est particulièrement utilisé dans le domaine de l’informatique, puisque le processus de numérisation implique de convertir des données analogiques en données numériques (du système décimal vers le système binaire), tout en conservant au mieux les caractéristiques de ces informations. Ce processus de conversion implique une discrétisation, qui divise le signal analogique (continu) en en différentes parties individuelles, pour les réduire (passage du « quantitatif » vers « l’ordonné »). Ce processus permet un échantillonnage, c’est-à-dire le relevé de valeurs finies à partir d’un signal contenant des valeurs infinies. Plus la fréquence de cet échantillonnage est importante (c’est-à-dire, plus on conserve de données lors de la discrétisation, tout en les triant), plus le signal numérique se rapproche du signal analogique.

 

Data Center : Les centres de données sont les sites physiques qui regroupent le matériel nécessaire à la conservation des informations dont dépend le fonctionnement d’une entreprise. Sont concernés les sites hébergés sur Internet et toutes les entreprises qui utilisent des bases de données et les services de cloud computing (hébergement de données sur des serveurs type Dropbox, Microsoft One drive, Apple iCloud). Ces gigantesques centres sont des environnements contrôlés et confinés, qui assurent une maintenance optimale de l’équipement informatique utilisé, générant de grosses dépenses énergétiques et une augmentation des températures environnantes. Aujourd’hui, des recherches et des démarches sont mises en place pour réduire au mieux cet impact encore invisible (ou ignoré).

 

Discrétisation : La discrétisation est l’action qui permet de dégager des valeurs finies à partir de données évolutives (passage de variables quantitatives à des variables ordonnées). Elle repose sur un processus d’échantillonnage et de découpage du signal analogique continu et contenant une infinité de valeurs, pour en faire un signal discret — c’est-à-dire composé d’un nombre fini de valeurs, qui peuvent être régulièrement relevées, contrôlées et modifiées. Ce processus est comparable à la compression, qui transforme une image par découpage et formation de blocs composés de pixels — chaque pixel contenant un nombre variable de bits qui vont déterminer la résolution de l’image. S’il y a une perte d’informations effectives lors de ces deux processus, la discrétisation permet néanmoins de traiter des informations évolutives avec des outils numériques — qui vont eux-mêmes évoluer et s’adapter en fonction des données qu’ils ont à traiter.

 

Glitch : « Anomalie » en anglais : comportement dysfonctionnel du hardware (la machine) ou d’un software (le logiciel), qui se distingue du bug (insecte, punaise) en cela qu’il n’est pas dû à un défaut physique du matériel. Le glitch est un accident (mauvais encodage ou mauvaise lecture du code) qui se produit lors de la lecture d’un fichier, de sorte que le logiciel délivre une retranscription erronée de ses informations — la vidéo est traversée de pixels, l’image est décalée, le texte s’éparpille…

 

Hacker : Anglicisme couramment utilisé dans l’argot des informaticiens, le terme désigne d’abord le fait de « tailler en pièce », de hacher, de façon assez brutale. On retrouve cette dimension dans l’usage qui en est fait dans le domaine de l’informatique. Hacker signifie tout autant résoudre rapidement un problème (de programmation par exemple), en attendant « une solution plus élégante à venir. », qu’exploiter les failles d’un système pour s’en approprier l’usage ou le détourner. La figure du hacker, jusqu’à très récemment limitée à celle du pirate informatique, s’est donc ouverte à celle de l’amateur (praticien qui œuvre par goût, par jeu, par plaisir), du bricoleur, ou encore de celle de l’[h]activiste, qui opère à la manière d’un hacker informatique en exploitant les failles d’un système, que celui soit informatique, esthétique ou politique, pour les mettre à jour ou comme tactique de résistance.

 

Hardware : On pourrait le traduire par « matériel solide » : il s’agit de l’ensemble des composants mécaniques, magnétiques, électriques et électroniques du matériel informatique (le disque dur, la carte graphique, l’alimentation, la carte mère, le processeur et son ventilateur, la mémoire vive, le lecteur/graveur CD/DVD). Pour être utilisable (ou pour permettre d’autres utilisations), ce matériel doit être augmenté de softwares et de périphériques (écran, périphérique de sortie vidéo et audio).

 

Hypertexte : Les termes hypertexte et hypermedia sont utilisés pour la première fois en 1961 par le sociologue Théodore Nelson : ils désignent respectivement le document et l’espace où sont écrits et mis en ligne des textes, des images et des sons reliés ensemble par voie électronique, puis mis en réseau.

Il œuvrait alors au « Projet Xanadu », (dont le titre complet est THE XANADU® PARALLEL UNIVERSE Visibly Connected Pages and Documents for a New Kind of Writing) un système informatique qui permettrait de stocker et de diffuser des données entre différents ordinateurs. Ses différents acteurs y voient alors de nouvelles possibilités d’écriture, le partage des connaissances à l’échelle mondiale étant déjà un des moteurs principaux de la création des différents réseaux ancêtres de l’Internet. Le projet est officialisé en 1965 lors de la 20e Conférence Nationale de l’Association of Computer Machinery, dans une intervention de T. Nelson intitulé « Une structure de fichiers pour le complexe, ce qui change et les intermédiaires » (voir Theodor Nelson, Literary Machines, Sausalito, CA, Mindful Press, 1982). Ted Nelson n’est cependant pas l’inventeur du concept, puisqu’avant d’entrer dans le champ de l’informatique, l’hypertexte est en germe dans la littérature, à travers les formes de l’index, des notes infrapaginales, etc. L’encyclopédie de Diderot et d’Alembert, par exemple, contenait déjà l’idée d’une lecture non-linéaire, mais faites de renvois à différentes sections du livre. Le néologisme est par ailleurs utilisé au dans les années quatre-vingt dans le domaine de la théorie littéraire par Gérard Genette.

C’est à partir de ces formats de lecture que Vannevar Bush pense les principes de ce qui deviendra par la suite l’hypertexte, sans pour autant lui donner ce nom, à travers son projet du MemEx (pour Memory Extended), outils électromécanique censé faciliter l’accès de l’utilisateur à un nombre important de données stockées alors sur des microfilms. (voir Vannevar Bush, « As We May Think [archive] », The Atlantic Monthly, juillet 1945.)

De nos jours, un hypertexte est un document ou un ensemble de documents contenant des unités d’information liées entre elles par des hyperliens. On parle d’hypermédias lorsque ces liens renvoient à des documents non-littéraires, comme la vidéo ou le son. Comme le suggère le suffixe « hyper », c’est-à-dire « au-dessus », on passe d’un document texte essentiellement linéaire à un document proposant plusieurs pistes de lectures, chaque lien ouvrant un nouveau chemin dans la progression du lecteur.

 

Idéogramme : Symbole graphique représentant un objet, une idée, une personne ou une valeur, il peut être à la base d’une langue et former un alphabet — c’est par exemple le cas des hiéroglyphes, des langues sino-tibétaines, mais aussi des chiffres indo-arabes que nous utilisons quotidiennement. Une langue idéographique a donc une forte dimension métaphorique et fonctionne sur des associations d’idées. Elle peut également mêler idéogramme et phonogramme, (symbole représentant un son ou une intonation) comme c’est le cas dans les langues sino-tibétaines.

 

Interface : Ce terme est un emprunt à la langue anglaise et désigne, de manière générale, la « surface à la frontière entre deux parties de matière ou d’espace ». En informatique, on parle d’interface pour designer l’ensemble des dispositifs permettant une interaction entre la machine et le (ou les) différent(s) utilisateur(s). L’interface utilisateur comprend ainsi les différents outils et logiciels permettant une interaction entre l’homme et la machine — l’interface système, qui permet de gérer le système d’exploitation de votre ordinateur (Windows, Linux, macOS), l’interface en ligne de commande, par lequel vous pouvez « demander » quoi faire à votre machine, ou encore l’interface textuelle, qui permet d’afficher les différents menus.

L’interface graphique, quant à elle, permet de rendre plus accessible, plus lisible et plus fluide la navigation au sein d’un système informatique. Apparue dans les années 60, elle utilise des codes proches de notre vie quotidienne en se présentant sous la forme d’un bureau, dans lequel l’utilisateur peut classer et ordonner ses données dans des documents, des classeurs qui apparaissent sous forme d’icônes et fonctionnent sur le mode de l’hyperlien. Tout comme l’interface utilisateur requiert un langage particulier pour communiquer à l’ordinateur les tâches à effectuer, l’interface graphique fait appel à un répertoire de gestes bien spécifique pour pouvoir interagir avec la machine : double-clic pour ouvrir un document, clic-droit pour ouvrir un menu, etc. Récemment, les technologies tactiles ont permis de développer quantités de gestes directement effectués sur l’écran, sans l’intermédiaire d’une souris ou d’un stylet. Ces nouvelles technologies ont ainsi amené des entreprises comme Apple à « breveter » certains gestes, par le biais des technologies qui les utilisent. Si l’on n’est pas à proprement parler dans le brevetage du vivant, qui soulève de nombreuses questions éthiques, ces brevets ouvrent de nouvelles problématiques quant à la propriété intellectuelle et aux rapports que nous entretenons avec les technologies, ainsi que sur le formatage de leurs usages.

L’interface web permet quant à elle, comme son nom l’indique, de naviguer sur le web. Elle se veut à la fois ergonomique, esthétique, et de plus en plus, « adaptable » aux différents supports que sont les ordinateurs, les tablettes, et les smartphones. On parle alors de responsive design.

Le design graphique a une importance toute particulière avec ces deux dernières interfaces, puisqu’il ne s’agit pas seulement de rendre leur utilisation agréable et fluide, mais aussi d’ordonner l’information et de guider — voire influencer et modeler — les usages des utilisateurs, ainsi que les contenus des sites qu’ils visitent.

 

NTIC : Les Nouvelles Technologies de l’Information et de la Communication désignent l’ensemble des outils et des services qui permettent l’échange, le stockage, la production et la diffusion d’informations numériques, entre eux et sur Internet. Ces NTIC s’ajoutent donc aux modes de télécommunications traditionnels (tels que la télévision ou la téléphone, qui se sont d’ailleurs numérisés) et nous permettent de nous connecter à toutes sortes d’objets responsibles ou eux-mêmes liés à internet (ordinateurs, tablettes, smartphones, objets connectés, VR, etc.). À noter que le terme « technologie » est parfois critiqué, car il serait ici employé à mauvais escient : le terme « technique » lui serait préféré (la « technologie étant à l’origine le discours (logos) sur la technique »).

 

Numérisation : Le processus de numérisation est à la base des outils numériques. Ce processus de conversion implique une discrétisation, qui divise le signal analogique (continu) en en différentes parties individuelles, pour les réduire (passage du « quantitatif » vers « l’ordonné »). Ce processus permet un échantillonnage, c’est-à-dire le relevé de valeurs finies à partir d’un signal contenant des valeurs infinies. Plus la fréquence de cet échantillonnage est importante (c’est-à-dire, plus on conserve de données lors de la discrétisation, tout en les triant), plus le signal numérique se rapproche du signal analogique.

 

Post-digital : Proche de sa version française « post-numérique », l’expression post-digital est employée pour la première fois par Kim Cascone, musicien et ingénieur, qui l’utilise pour décrire cette esthétique qui exploite la précarité du digital et célèbre ses accidents et ses erreurs — tels que les glitches et les bugs — voire même ses échecs. On notera cependant que l’idée avait déjà été abordée dès 1998, dans un article de Nicholas Negroponte, publié par la revue en ligne Wired et intitulé « Beyond Digital ».

De manière plus générale, il est possible de parler de pratique (ou de critique) post-digital pour désigner les pratiques culturelles et techniques qui rejettent ce que le digital (ou numérique) peut avoir de lisse et de léger. L’idéalisation de la technologie digitale en faisant aujourd’hui un symbole de progrès, de douceur visuelle et de connectivité, les critiques et les pratiques post-digitales s’affirment résolument contre ces usages délavés, en manifestant le besoin de se saisir de l’information, voire de la malmener ou de la tourner en dérision.

Voir Kim Cascone, « The aesthetics of failure : “Post-Digital” Tendencies in Contemporary Computer Music », in Computer Music Journal, hiver 2002 (MIT Press), pp. 392-398 (téléchargeable en format pdf). Nicholas Negroponte, « Beyond Digital » Wired, 12 janvier 1998 (https://www.wired.com/1998/12/negroponte-55/)

 

Software : Logiciel installé en usine dans l’ordinateur, ou que l’usager peut ajouter lui-même.

 

Virtuel : Le terme Virtuel est d’abord un qualificatif (qui peut être substantivé : « le virtuel ») construit à partir de deux évolutions du latin virtus, puis virtualis. Ses origines donc anciennes et, avant l’arrivée des premiers ordinateurs au milieu du xxe siècle, le terme est surtout utilisé dans le domaine de la philosophie pour désigner une réalité « en puissance », qui » possède, contient toutes les conditions essentielles à son actualisation. ». On peut prendre pour exemple la graine (actuelle), qui contient un arbre potentiel (virtuel).

Le virtuel ne s’oppose donc pas au réel, mais le complète, le précédant ou le prolongeant. Aussi, ce qu’on appelle aujourd’hui la « réalité virtuelle » n’est pas tant un oxymore qu’un agrégat, l’addition de deux formes du réel. Apparue dès 1938 sous la plume d’Antonin Artaud dans Le Théâtre et son double, cette expression est entrée dans le langage commun avec le développement des techniques numériques, et désigne désormais tout système d’immersion ou de simulation dans lequel l’utilisateur est plongé par le biais d’un ou plusieurs écrans et de dispositifs sonores (ou plus rarement olfactifs). Le réel « en puissance » qui se donne à voir, à entendre ou à ressentir est alors modifié « en temps réel » par les actions de l’utilisateur.

 

World Wide Web : Le terme « web » est le diminutif du World Wide Web, aussi traduit en français par « la toile ». Parfois confondu avec l’Internet, il n’en est en réalité qu’une application, comme les messageries électroniques ou les GPS. Crée à la fin des années 1980 par Tim Berners-Lee et Robert Cailliau, le Web est un système basé sur l’hyperlien, qui permet au départ de consulter des pages et des sites Internet, en passant par un navigateur (Internet Explorer, Mozilla Firefox, Chrome, pour les plus utilisés). C’est ce qu’on pourrait appeler le Web basique, ou « passif » : l’utilisateur peut y lire des textes, écrire, regarder des vidéos ou écouter de la musique.

Une première évolution intervient dans la seconde moitié des années 2000, impulsée notamment par l’arrivée des réseaux sociaux, les plateformes de partages de contenus et d’informations (Youtube, Dailymotion, Pinterest, mais aussi les outils de travail tel GoogleDoc ou Dropbox). Le web se personnalise (l’utilisateur a de plus en plus d’outils à sa portée pour exprimer ses goûts, ses pensées, à travers l’écriture, la vidéo, le son, ou l’animation) et se socialise via les réseaux sociaux (on compte environs 1,3 milliards d’utilisateurs actifs sur Facebook en 2017). L’utilisateur a ainsi la possibilité de créer, commenter, évaluer et partager ses expériences, ses achats, ses goûts, ses opinions, etc. Ce web dit social, c’est le web 2.0.

Le web 3.0, expression de plus en plus utilisée, est le web « de demain », et regroupe donc plusieurs visions et définitions selon les acteurs qui le pensent et le façonnent. Un des aspects du web 3.0 pourrait être celui des objets connectés (ou l’Internet des Objets »). Si le concept est aussi ancien, voire plus encore, que l’Internet, l’expression serait apparue sous la plume de Kevin Ashton, cofondateur et directeur général du laboratoire Auto-ID (MIT), à l’époque employé chez Procter&Gamble. Il désigne le projet d’une interconnexion des êtres et des objets grâce à l’Internet. En 2008, plusieurs études montrent que l’Internet des Objets est désormais une réalité, puisqu’on dénombre plus d’objets connectés que de personnes sur le réseau mondial.

Citer cet article

Référence électronique

« Glossaire », RadaЯ [En ligne], 1 | 2016, mis en ligne le 01 janvier 2016, consulté le 28 mars 2024. URL : https://www.ouvroir.fr/radar/index.php?id=424

Droits d'auteur

Licence Creative Commons - Attribution - Partage dans les Mêmes Conditions 4.0 International (CC BY-SA 4.0).