Accueil > Outils numériques > supports > Les systèmes d’exploitation

Les systèmes d’exploitation

samedi 22 septembre 2012

Pour expliquer à un public néophyte en quoi consiste un « ordinateur », il est de coutume d’indiquer que son fonctionnement nécessite deux types de composants bien distincts :

 les composants matériels, autrement appelés « hardware », c’est à dire, la machine proprement dite, avec tous ses « périphériques » : boîtier, clavier, écran, souris, imprimante, etc.

 les composants logiciels, autrement appelés« software », lesquels n’ont aucune existence matérielle puisqu’il s’agit de code informatique, installé sur la machine sous forme de « fichiers », afin que l’utilisateur puisse y exécuter un certain nombre de tâches.

Le fait qu’il s’agisse de composants distincts ne signifie nullement qu’il n’y ait pas de rapport entre le matériel et le logiciel. Bien au contraire.

Sans rentrer dans les considérations techniques, contentons-nous de préciser qu’il est souvent impossible de faire fonctionner des logiciels modernes sur du matériel ancien et, qu’inversement, cela n’a aucun sens (sauf cas très particulier) d’installer de vieux logiciels sur du matériel neuf, car tout porte à croire qu’il existe à tout vieux logiciel un équivalent moderne, donc plus fiable, plus fonctionnel, plus sécurisé, etc.

Considérons que, dans la pratique, logiciels et matériel sont condamnés à évoluer en binôme, l’un étant généralement conçu pour exploiter les ressources de l’autre et que, dans cette association, le maillon faible représente incontestablement le matériel, car son renouvellement - inévitable - nécessite un achat ; ce qui n’est pas toujours le cas avec les logiciels.

Ce que l’on appelle « système d’exploitation » - en anglais, Operating System (OS) - est précisément un logiciel ; ou plus exactement un type de logiciel, car, comme c’est très souvent le cas pour les logiciels, ils existe plusieurs systèmes d’exploitation. Ce que nous verrons ci-dessous.

Un système d’exploitation est un type de logiciel très particulier : c’est lui qui se lance au démarrage de l’ordinateur (après quelques phases d’initialisation permettant de vérifier la configuration matérielle) et c’est grâce au système d’exploitation que vous prenez la main sur votre machine pour, le plus souvent, faire appel à d’autres logiciels (autrement appelés des « applications »).

Ces applications sont donc, la plupart du temps, installées en plus du système d’exploitation. Elles ont pour rôle d’exécuter la plupart des tâche spécialisées qui correspondent, dans la pratique, aux raisons pour lesquelles la grande majorité des utilisateurs ont recours à un ordinateur : par exemple, taper une lettre à l’aide d’un traitement de texte, utiliser la messagerie électronique, classer et retoucher des photos sur son ordinateur, etc.

Au système d’exploitation, par contre, incombe un certain nombre de tâches essentielles liées à l’usage courant de l’ordinateur : permettre que tous les composants matériels (périphériques) et tous les logiciels installés sur la machine puissent être utilisés de façon harmonieuse, donner les moyens d’explorer le système lui-même, de le personnaliser et de « l’administrer », installer et désinstaller du matériel ou des logiciels, proposer une « interface graphique unifiée » (système de fenêtrage), procéder aux mises à jour du système et des autres logiciels installés sur l’ordinateur, permettre à plusieurs utilisateurs de la même machine de créer des comptes distincts les uns des autres, etc.

Le système d’exploitation fonctionne donc en permanence tant que l’ordinateur est en marche et c’est à lui qu’incombe (normalement) la tâche de l’arrêter.

Bref, le système d’exploitation ne permet pas de tout faire sur un ordinateur mais, sans système d’exploitation votre machine n’est qu’un vulgaire tas de ferraille (ou de plastique).

Par commodité, la plupart des systèmes d’exploitation modernes intègrent des composants logiciels permettant d’effectuer un certain nombre de tâches complémentaires à celles d’assurer le fonctionnement et l’administration de l’ordinateur ; par exemple, consulter une vidéo.

Ces composants logiciels additionnels, s’ils sont parfois liés de façon intime au système, ne sont pas indispensables au fonctionnement de ce dernier (ou ne devraient pas l’être). Rien n’empêche d’employer, en complément ou en remplacement, d’autres logiciels répondant à un usage comparable à ces logiciels intégrés au système d’exploitation (par exemple, le navigateur Internet, la messagerie électronique, le lecteur de vidéo, etc.)

De plus, comme nous l’avons déjà signalé, le système d’exploitation n’est pas conçu pour accomplir toutes les tâches qu’il est possible de réaliser sur un ordinateur.

Il est donc très souvent nécessaire d’ajouter à l’ordinateur les applications permettant d’effectuer certaines tâches spécialisées qui ne seront généralement par intégrées au système d’exploitation lui-même : par exemple, le montage audio, le dessin vectoriel, la réalisation de graphiques, la retouche de photos, le publipostage... ainsi que tous les logiciels « pilotes » nécessaires à l’usage de nouveaux périphériques (par exemple, après l’installation d’une imprimante).

De façon générale, l’installation de logiciels applicatifs (ou applications) est une pratique extrêmement courante. La question se pose dès que l’utilisateur souhaite installer, quelles que soient ses raisons, de façon provisoire ou durable un nouveau logiciel sur son ordinateur. Rien de devrait pouvoir l’en empêcher.

Il n’y a aucune restriction légale à opposer à cette liberté : oui « on a le droit d’installer des logiciels sur son ordinateur » à partir du moment où l’on donne son accord sur les termes de la licence d’utilisation, généralement présentée au moment de l’installation.

On peut même considérer que l’’installation et la désinstallation de logiciels applicatifs fait partie des fonctions essentielles du système d’exploitation.

Les logiciels applicatifs sont souvent payants mais il y en a aussi beaucoup de gratuits (et inversement). Le critère de la gratuité ou de la non-gratuité n’est absolument pas déterminant dans la qualité du produit (ce point précis demande une explication sur laquelle on reviendra plus loin). La plupart des logiciels sont disponibles sur Internet.

Précision importante : tout ce qui vient d’être énoncé à propos des logiciels applicatifs vaut également pour le système d’exploitation lui-même. Nous verrons, ainsi, qu’il est non seulement possible d’installer des logiciels applicatifs en supplément du système d’exploitation, mais que rien n’empêche d’installer un autre système d’exploitation, en complément (voire en remplacement) de celui qui est fourni avec l’ordinateur. Nous en reparlerons de façon plus détaillée quand il sera question des logiciels libres.

Venons-en, après cette présentation générale, au tour d’horizon des principaux systèmes d’exploitation disponibles aujourd’hui mais, pour cela, il nous faudra revenir à notre distinguo initial « matériel » / « logiciel ».

Comme nous le verrons, la distinction théorique entre le hardware et le software, qui semblait, de prime abord assez simple à comprendre, n’est pas toujours aussi évidente à remettre en place, une fois mis au contact de la réalité industrielle et commerciale (la preuve m’en ai fournie par le déluge de questions qui me viennent la plupart du temps à cet atelier).

Les machines employées en salle 301 sont des objets qui portent le nom « d’ordinateur ». Pourtant, en effectuant notre tour d’horizon des systèmes d’exploitation, il sera souvent question d’autres machines que les ordinateurs ; en particulier, les smartphones et les tablettes.

Il faut comprendre que toutes ces machines (ordinateur, smartphone, tablettes, et même téléviseurs), ainsi que les logiciels qui leur sont donc associés, l’infrastructure en réseau et les services permettant l’usage de ces réseaux sont amalgamés dans un même environnement industriel et technologique, que nous appellerons par commodité « technologies numériques » (oubliez les appellations ringardes du siècle passé, telles que « multimédia » ou « nouvelles technologies de l’information et de la communication » alias « NTIC »)

Il est difficile aujourd’hui d’y voir clair dans tout ce gros paquet fortement entremêlé si l’on ne prend pas en compte les principale stratégies qui sont en jeu, quand bien même il ne s’agirait que d’en observer les aspects « strictement » logiciels.

Commençons par l’incontournable...

Windows

Version commercialisée en septembre 2012 : Windows 7 (le lancement de Windows 8 est intervenu en octobre 2012).

Le bureau et l’explorateur de fichier de Windows

Windows est le système d’exploitation qui équipe encore en 2012 l’écrasante majorité des ordinateurs dans le monde (plus de 80%) ; qu’il s’agisse des ordinateurs portables ou des « ordinateurs de bureau » (ces derniers étant, aujourd’hui, essentiellement vendus pour un usage professionnel).

De fait, la totalité des marques d’ordinateurs - à l’exception de machines de marque Apple et quelques rares netbook (petits portables) dans le passé - sont commercialisés avec Windows pré-installé ; ce qui représente incontestablement un cas de vente forcée, sauf quand le distributeur accepte de vendre un ordinateur sans aucun système d’exploitation (situation extrêmement rare).

La société Microsoft, éditrice du logiciel, occupe cette position hégémonique depuis les années 90. Elle s’est imposée auprès de la quasi totalité des marques d’ordinateurs comme la référence incontournable en matière de système d’exploitation.

Microsoft fait régulièrement l’objet de critiques portant sur « l’abus de position dominante ». Ceci lui a valu, par exemple, une condamnation de la Commission européenne ayant pour effet de l’obliger à proposer un choix aux utilisateurs afin d’utiliser un autre navigateur que celui intégré à Windows (Internet Explorer).

En plus de Windows, Microsoft s’est imposé sur les ordinateurs avec un autre produit : la suite bureautique Microsoft Office (Word, Excel, PowerPoint, Outlook, etc.), laquelle est également pré-installée sur la quasi totalité des ordinateurs vendus aux particuliers. Dans ce cas, toutefois, il s’agit d’une version d’évaluation. Au-delà de la période d’essai, l’utilisateur doit payer une licence pour continuer de l’utiliser.

Le monopole de Microsoft sur l’informatique s’est renforcée au fil du temps par effet « boule de neige ». C’est la logique même de l’empire : la présence est si forte qu’on en arrive à ne plus remettre en cause le fait même qu’il puisse exister d’autres solutions.

L’argument commercial de Microsoft, pour l’essentiel, est le suivant : l’uniformisation du même environnement logiciel favorise le confort de l’utilisateur ; ce qui en soi, n’est pas faux.

À cela, il est souvent répondu que Microsoft impose non seulement ses logiciels mais aussi ses propres « standards » technologiques (autrement appelés « propriétaires »).

Il n’est pas possible de connaître la façon dont ces programmes sont conçus. Les logiciels sont protégés par des copyright ou des brevets, ce qui empêche d’en connaître les « secrets de fabrication » en étudiant leur « code source ». Cette restriction ouvre la voie à des risques de processus intrusifs lancés à l’insu de l’utilisateur, au détriment du respect de sa vie privée et de ses données personnelles.

Les défenseurs du « logiciel libre » (nous verrons ce que ce terme signifie quand il sera question de Linux) considèrent même que l’impossibilité d’accéder au code source des logiciels constitue déjà en soi une privation de liberté. D’où le terme de « privatif » ou « privateur », pour désigner les logiciels protégés par des copyright ou des brevets.

Fait important qui mérite d’être souligné : Microsoft s’est imposé comme un acteur incontournable de l’informatique, tant auprès des particuliers que des entreprises ou des administrations, au travers de la commercialisation de logiciels.

La vente de matériel représente, jusqu’à présent, une part marginale de son activité : une console de jeux et quelques périphériques, tels que des souris et des claviers.

Microsoft s’est imposé au début des années 80, avec l’apparition du concept « d’ordinateur personnel » (d’où le terme de PC pour Personnal Computer). Un concept ayant pour objet un produit industriel matériel, sur lequel, rappelons-le, Microsoft a fondé son empire en ne produisant que des composants logiciels.

Aujourd’hui la plupart des acteurs industriel (dont Microsoft, lui-même) considère que l’ère du PC, est désormais dépassée ; nous en serions même à l’ère du « post-PC » (bienvenue chez les dinosaures, en salle 301).

L’ordinateur, nous dit-on, sera essentiellement réservé au contexte professionnel ou à l’usage spécialisé. Les particuliers continueront d’utiliser les technologies numériques mais, pour cela : pas besoin d’un ordinateur. Place aux smartphones et aux tablettes.

Ça tombe bien : on en trouve plein les rayons, de ces jolis petits écrans tellement craquants. En plus de ça, on vous propose de les changer tous les ans et parfois même gratuitement (à condition de souscrire un abonnement chez un opérateur). Vous avez dit gaspillage ? Oh, mais pourquoi s’encombrer la vie avec ces vieux machins, si laids, si lourds, si compliqués ? Alors qu’avec la tablette ou le smartphone, il suffit juste de glisser l’index, et hop...

À vous, qui êtes venu aux ateliers d’initiation, permettez-moi à présent, en guise d’hommage, les observations qui suivent, basées sur vos témoignages. Peut-être que vous vous y reconnaîtrez, à moins que ce ne soit l’une ou l’autre, assis dans la même salle.

Souvenez-vous : on vous a vendu, il y a moins de 3 ans, cet ordinateur portable (qui reste en permanence à la maison) en vous le présentant comme un jeu enfantin. Peut-être que ce sont vos petits enfants, qui vous ont dit ça... à moins que ce soit le commerçant ou la télé. Vous ne vous en souvenez plus, peu importe. Vous y avez cru à ces histoires mais, dès les premiers contacts avec la machine, quand on vous a demandé sur un mode peu aimable et passablement alarmiste de procéder fissa à une sauvegarde du système, vous n’y avez compris goutte.

Alors vous avez surmonté le sentiment d’humiliation qui vous a envahi quand vous vous êtes rendu compte que, contrairement à ce que vous aviez cru comprendre, l’ordinateur n’est peut-être pas aussi simple à utiliser qu’une machine à laver.

Il vous a fallu beaucoup d’humilité pour accepter, à votre âge, d’apprendre sans forcément tout comprendre et d’admettre qu’il y a, là-dedans, des choses qui vous seront à jamais inaccessibles. Mais c’est justement en prenant conscience des ces limites, que vous vous êtes approprié petit à petit cet ordinateur. À force d’obstination, vous avez étendu progressivement votre propre compréhension sur ce qui se passait là, devant vos yeux. Vous savez, désormais, que cette compréhension est partielle, imparfaite et même parfois erronée et qu’il vous faudra le temps nécessaire pour trouver vos repères, compte tenu de ce que vous en attendez.

Vous avez découvert, subitement, au détour d’une quelconque manipulation, que tel processus ne correspond pas à l’image que vous vous en faisiez quelques temps plus tôt. Vous avez éprouvé alors un grand plaisir à corriger ce qui vous semble désormais comme une interprétation erronée. Cela vous conduit à considérer de façon très pragmatique que, tant qu’une hypothèse d’interprétation n’est pas vérifiée, elle nécessite d’être réévaluée et, même parfois, mise de côté. « Si je ne comprend pas, je passe à autre chose ».

Vous avez compris qu’il est parfois vain d’essayer de savoir le « pourquoi » de tout ce qui se produit à l’écran. La recherche effrénée d’explication systématique peut conduire à la plus grande des frustrations. Le risque étant d’être submergé par une cascade de questions sans réponse, alors qu’il est parfois plus constructif de suivre un objectif bien défini, quitte à trouver ponctuellement des solutions de contournement, en cas d’imprévu.

Vous avez appris à vous méfier des métaphores trompeuses. Vous savez désormais qu’il est préférable d’éviter de comparer ce qui n’est pas comparable. Non, s’il faut s’y mettre, mieux vaut y aller pour de bon et laisser de côté les représentations faciles et soit-disant rassurantes, les livres d’images pour enfants, car les enfants, eux, y vont franco de port et c’est comme ça qu’ils s’en sortent. Vous avez pris conscience que vous êtes en rapport avec un domaine qui n’a pas réellement d’équivalent ; que les meilleures moyen d’y entrer consiste à accepter que ce domaine, à la fois matériel et immatériel, impose sa propre logique et qu’il est préférable de vous y adapter plutôt que d’attendre l’inverse.

Vous avez donc accepté de vous plier à cette logique pour l’investir et cela commence par le vocabulaire : jargon à gogo, sigles imbitables et anglicisme à volonté, sans accent français s’il vous plaît. Après ça, le vendeur ne vous prendra plus pour une quiche. Faudra peut être qu’il s’y reprenne à deux fois avant de vous rouler dans la farine.

Vous avez commencé par des maniement et des procédures soit-disant « simples » mais qui constituent des repères élémentaires, à partir de quoi vous avez pris confiance : le maniement de la souris, le clavier, l’enregistrement d’un fichier, l’édition du même fichier la semaine suivante, etc.

Cher usager de l’atelier 301, après y avoir passé le temps nécessaire pour y arriver, vous estimez que vous commencez à sortir la tête de l’eau. Vous en parlez en cours et ça fait plaisir à entendre.

Et maintenant, on en revient aux projets de Microsoft : l’ère « post-PC » avec ses smartphones et ses tablettes.

Vous tiquez quand on vous annonce qu’il faut à nouveau passer à la caisse et, qu’en plus, vous devez admettre qu’une bonne partie de ce que vous avez appris.. eh bien, on le met à la benne.

Il est temps de passer à autre chose, dit-on. Par exemple, vous devrez lâcher la souris et le clavier et exécuter, en singeant des vidéos publicitaires, de nouveaux tours de magie « rien qu’avec les mains ».

A-ton vraiment compris que cette souris, une fois maîtrisée, pouvait remplir un tout autre rôle, dans le rapport qui se construit entre l’utilisateur et son ordinateur en contexte d’apprentissage, que celui qui lui est officiellement attribué au travers de la définition très fonctionnelle de « dispositif de pointage » ?

A-t-on réfléchi au fait que cet espace ouvert, partiellement délimité par deux larges plans perpendiculaires écran-clavier, représentait aussi une matérialisation nécessaire à la constitution d’un environnement de travail, qu’il devient, non seulement, possible de s’approprier mais aussi de partager - ou de ne pas partager - notamment quand il est question de « faire de l’informatique en groupe » ?

A-t-on, enfin, seulement imaginé que ces composants matériels pouvaient jouer un rôle central pour échapper à son corps et que cela pouvait même représenter le principal objectif de toute cette immersion dans le monde immatériel ? Sait-on qu’utiliser un ordinateur c’est aussi parfois jouer avec son corps et que, partant, l’obligation d’en passer désormais par de nouvelles expériences de dextérité manuelle - version miniature, de surcroît - peut s’apparenter à un supplice, si ce n’est à la pire des trahisons ?

A-t-on seulement observé cela, avant de proférer des généralité sur le confort de l’utilisateur ?

Comment ça, vous ne voulez pas jouer avec vos mains ? Oh mais vous êtes vraiment vieux-jeu !

Revenons à nos moutons.

En plus des évolutions du matériel, l’ère « post-PC » introduit une transformation fondamentale du point de vue de la conception même de l’objet technologique.

Selon les prophètes de « l’ère du post-PC », certaines ressources logicielles, c’est à dire, les applications et même une partie des fonctionnalités du système d’exploitation, ne sont plus destinées à résider sur les machines des utilisateurs, mais sur des serveurs en ligne.

Tant qu’à faire, pourquoi s’obstiner à conserver ses propres affaires à la maison, puisqu’il est si facile de le mettre en ligne sur Internet ? Alors on encourage grandement les utilisateurs à déporter leurs propres données personnelles sur les serveur de Microsoft, Apple, Google, etc.

L’argument est le suivant : toutes ces ressources logicielles et tous ces fichiers seront en sécurité, bien au chaud, chez les professionnels et, en plus, il sera plus facile de partager ses données sur le réseau, puisque, cela va sans dire, on donnera toute latitude pour le partage... dès lors que les conditions imposées par le service en ligne seront respectées et que l’utilisateur s’y sera plié.

Ce concept porte le nom « d’informatique dans les nuages » (ou cloud computing).

Et voici comment, cher usager de la salle 301, ce message peut-être vous parvient :

Primo, vous devez obligatoirement avoir la bougeotte, même si vous en éprouvez nullement le besoin, car la mobilité, c’est vraiment trop top ! Secondo, il va de soi que vous avez besoin d’être, en permanence, connecté à un réseau afin de tout partager, n’importe où et n’importe quand, avec tout le monde. Tertio, si vous pensez que ces deux premières propositions ne vous concernent pas, c’est qu’il y a quelque chose que vous n’avez pas compris.

Vous vous dites qu’il y a quelque chose, dans cette histoire de sauvegarde en ligne, qui vous échappe. Vous étiez fier d’avoir appris à sauvegardez régulièrement vos données personnelles importantes sur une clé USB ; quelques photos et la messagerie électronique. Dans le principe, c’était pourtant simple à comprendre : « ces choses là sont à moi et mieux vaut se prémunir des risques de disparition en conservant une copie à la maison ». Et maintenant, vous ne comprenez pas à quoi peut bien vous être utile ce fameux cloud ?

Comment ça ? Vous ne voulez pas utiliser toutes les bonnes chose qu’on prévu pour vous ? Avouez que vous n’y mettez pas du vôtre quand même !

À présent, changeons de rôle et mettons-nous dans la peau d’un chef d’entreprise d’une PME, puisqu’il paraît que le cloud est destiné, en premier lieu, au domaine professionnel.

Je suis donc chef d’entreprise et mon responsable informatique vient me voir pour m’annoncer que Microsoft ou qui sais-je propose le fameux « cloud ». En l’occurrence, il m’est donné la possibilité de déporter tout ou partie de l’administration informatique de mon entreprise sur des serveurs en ligne.

Sur le papier, on n’y voit que des avantages : amélioration de la sécurité, sauvegardes automatiques, pas de problème de mise à jour des applications puisque tout se fait là-bas, pas d’investissement sur du matériel dont l’obsolescence pose de sérieux problème d’amortissement, les données sont disponibles 24/24 pour les collaborateurs et les clients...

Je répond alors à mon responsable informatique : « c’est parfait. Je signe et pour commencer t’es viré, car je ne vois pas pourquoi je continuerai à te payer si on fait le boulot à ta place sur le cloud. »

Revenons à nos fins limiers.

Pour se préparer à cette évolution époustouflante - la brochette magique « cloud-smartphone-tablette » - Microsoft, qui a pris du retard sur la concurrence, doit lancer prochainement toute une série de produits :

 Windows 8, la nouvelle version du système d’exploitation conçue pour fonctionner aussi bien sur les ordinateurs que sur les smartphone et les tablettes. La particularité de cette version étant qu’elle repose sur une dédoublement de l’interface graphique ; l’une serait utilisée à la main, sur un smartphone ou une tablette et l’autre avec la souris, sur un ordinateur.

 Une tablette, baptisée « Espace », mais qui ressemble quand même furieusement à un petit ordinateur portable ; ce qui représente une nouveauté dans la mesure où Microsoft n’a jamais, jusqu’à présent, commercialisé ce type de matériel. Ce produit sera évidemment équipé de Windows 8.

 Un nouveau smartphone Nokia, lui aussi équipé de Windows 8, devrait prochainement être annoncé pour tenter de concurrencer Apple et Samsung.

Il s’agit d’un tournant stratégique crucial pour Microsoft. Des commentateurs (notamment en presse spécialisée) estiment que bien la « société de Redmond » joue actuellement sous va-tout : ou bien elle récupère son retard et se positionne à nouveau comme le leader sur le marchés des smartphones et des tablettes ou elle amorce un déclin qui aboutira à se cantonner au marché des professionnels.

Ça passe ou ça casse, comme dirait l’autre. Quant à nous, et si on allait voir autre chose ?

Mac OS

Version commercialisée en septembre 2012 : Mac OS X 10.8 - Mountain Lion

Le bureau du Mac, avec l’explorateur de fichier, appelé Finder et la barre de lancement, en bas, nommée Dock

Mac OS est le système d’exploitation qui est pré-installé sur les ordinateurs de la marque Apple (autrement appelé « Macintosh » ou, plus couramment, « Mac »).

Autrement dit, les Mac sont des ordinateurs 100 % Apple - matériel et logiciels - ce qui constitue, comme nous l’avons vu, une exception par rapport au reste du marché. Cette particularité, dans un environnement technologique où l’on considère que la modularité peut représenter un gage qualitatif, renvoie l’univers Mac dans un registre qui évoque davantage le monde de l’électroménager que de l’informatique moderne.

À cela, s’ajoute une autre particularité, conséquence logique de la précédente : il est interdit d’installer Mac OS sur une autre machine qu’un Mac.

Aucune justification technologique ne tient réellement la route par rapport à cette interdiction. Les ordinateurs Apple sont en tous points comparables aux autres ordinateurs du marché. La meilleure preuve étant qu’il est, par contre, possible et autorisé d’installer d’autres systèmes d’exploitation (par exemple, Windows et Linux) sur un Mac.

Apple, qui occupe pour des raisons historiques quelques niches sur le marché des ordinateurs (notamment le graphisme et l’audiovisuel), s’est développé de façon considérable depuis quelques années en commercialisant avec un succès retentissant d’autres produits : d’abord le baladeur audio IPod, puis le smartphone IPhone et, enfin, la tablette IPad.

Ces appareils ont souvent été considérés (notamment par les « aficionados du Mac ») comme des innovations dans leurs domaines respectifs. Beaucoup de ces supporters estiment qu’il n’y avait aucun équivalent à ces produits avant leur commercialisation, ce qui semble difficilement contestable (surtout en ce qui concerne le smartphone et la tablette). Force est de reconnaître que la concurrence s’est placée sur ces marchés en proposant, après coup, des produits comparables (notamment Samsung et Asus).

Apple, qui connait actuellement un popularité sans précédent (ce qui la positionne en tête des sociétés cotées en bourses) a engagé une guerre commerciale tous azimuts contre ses concurrents et même ses anciens partenaires : bataille de chiffonniers autour de violations de brevet (Samsung) et mise à l’index de technologies jugées obsolètes (non sans raison) et, de ce fait, absentes des produits Apple (Adobe Flash)...

Avant de mourir, Steeve Jobs (patron charismatique d’Apple) a laissé, en guise de testament, quelques déclarations fracassantes contre Google (« guerre thermonucléaire »). L’ennemi à abattre est clairement désigné.

Google est dangereux pour Apple parce qu’il occupe une place importante avec son système d’exploitation Android sur les marchés des smartphones (en particulier, Samsung) et des tablettes.

De plus, Google est déjà, et cela bien avant les autres, la réalisation par excellence de ce que signifie le Cloud Computing, puisqu’il s’est développé sur Internet avec son moteur de recherche et la multitude de services en ligne qui y sont rattachés, pour en faire, un acteur incontournable et omniprésent du Web.

D’un autre côté, Microsoft, compte tenu de ses annonces, comme nous l’avons vu, devrait prochainement se joindre à la foire d’empoigne. Cela nous réserve de spectaculaires rebondissements.

Selon la bande annonce du blockbuster, tout porte à croire qu’il n’y aura pas de place pour les trois protagonistes. Qui restera sur le carreau ? La question fait commerce. En attendant, on continue de vendre de belles machines aux formes épurées et l’on se bat devant les tribunaux pour savoir qui a inventé les rectangles aux angles arrondis.

L’agressivité commerciale d’Apple semble casser quelque peu l’image « cool » du contestataire innovant souvent associée, dans le passé, à la marque. Ce ne sont pas les enquêtes effectuées sur les usines chinoises dans lesquelles sont fabriqués les produits Apple, où la description qui y est faite des conditions de travail se distingue difficilement de celle de l’esclavage, qui améliore la réputation de la marque à la pomme (même s’il est fortement probable, que sur ce point, aussi, la concurrence copie le leader).

Enfin, il est de plus en plus reproché à Apple une vision des technologies où tout fonctionne en vase clos : matériels, logiciels, services et contenu font partie d’un même ensemble verrouillé, reposant sur une gamme de produits très limitée, et entièrement contrôlé d’un bout à l’autre de la chaîne.

Autant dire que toutes les critiques formulées contre Microsoft, quant à la volonté hégémonique et l’opacité des logiciels protégés par copyright, s’appliquent tout autant à l’encontre d’Apple.

Il faut toutefois signaler que Mac OS X est un système d’exploitation dont une partie - le noyau - est issu d’une version dérivée d’UNIX sous licence « Open Source », laquelle permet de rendre accessible et réutilisable le code source du logiciel. Par dessus cette portion de code « Open Source », Apple a inséré des couches logicielles, lesquelles sont, par contre, tout ce qu’il y a de plus propriétaire.

Mac OS X est généralement considéré comme un système de type UNIX, ce qui est aussi le cas de toutes les distributions Linux (voir ci-dessous). Cette parenté, entre Mac OS X et Linux, ajouté au fait que certaines portions de code utilisé par Apple sont également sous licence « open source », a pour conséquence que, jusqu’à présent, une certaine forme de mansuétude (très relative, toutefois) s’exprime de la part des acteurs Open Source à l’encontre d’Apple. Traditionnellement, on préfère concentrer ses attaques sur Microsoft, cible caricaturale du dominateur.

Mais, dans les technologies numériques, on sait que tout peut changer très vite.

GNU-Linux

« Tux », la mascotte de Linux

Le bureau de Mageia (avec son gestionnaire de fichiers (Dolphin). Mageia est l’une des distributions Linux considérées comme étant particulièrement accessibles à un public non-initié.

Commençons par un préalable incontournable : GNU-Linux est un logiciel libre.

Ah oui... et c’est quoi un logiciel libre ?

Ceci mérite, effectivement, une explication, mais nous y viendrons un peu plus bas.

Pour l’heure, contentons-nous juste d’observer en quoi GNU-Linux se distingue (ou ne se distingue pas) de Windows ou de Mac OS. Ceci devrait déjà nous aider, dans un premier temps, à dégrossir le sujet, compte tenu de ce que nous avons déjà vu plus haut.

Première confusion à évacuer : GNU-Linux est un système d’exploitation mais, contrairement à Windows ou Mac OS, il est inutile de cherchez dans votre magasin spécialisé un DVD portant comme seule appellation « GNU-Linux ». Vous n’en trouverez pas.

Quand on évoque le terme générique « Linux » (ou, selon les tendances, « GNU-Linux ») on fait généralement référence à une multitude de « distributions ». Chacune de ces distributions représente une version particulière du système d’exploitation « GNU-Linux ».

Toutes ces distributions sont, en fait, dérivée du même système d’exploitation GNU-Linux et c’est généralement l’une d’entre elles que l’utilisateur choisit d’installer sur son ordinateur.

Les moyens pour se procurer une distribution Linux sont assez variés : téléchargement gratuit ou livraison par la poste depuis Internet, achat d’une revue informatique accompagnée de DVD d’installation et voire même, pour certaines d’entre elles, achat dans un magasin spécialisé, comme n’importe quel logiciel.

Signalons enfin, qu’une fois acquis votre DVD d’installation de distribution Linux, rien n’empêche, comme il m’arrive de le faire, de partager ce DVD avec votre entourage (mieux vaut éviter, toutefois, de faire circuler des versions trop anciennes des logiciels).

Chaque distribution Linux porte un nom, par exemple : Debian, SuSE, RedHat, Ubuntu, Mageia, etc. Chaque distribution suit sa propre évolution, notamment, en ce qui concerne le contenu et le rythme des mises à jour et des versions.

Autrement dit, le fait d’utiliser Linux revient, dans un premier temps, à décider d’installer un autre système d’exploitation que celui installé sur son ordinateur et, dans un second temps, à choisir l’une de ces distributions.

On peut considérer que, d’un certain point de vue, lorsqu’on est arrivé à cette étape – une décision puis un choix – le plus dur est fait.

Bien souvent, toutefois, le premier contact avec Linux ne présente pas de cette façon.

Par exemple, après un plantage fatal de Windows sur un ordinateur portable (récupération du système impossible), des personnes utilisent une distribution Linux (ou se font aider en cela, comme à notre atelier ou au Kiosque, quand l’occasion se présente) car, n’ayant aucun disque d’installation de Windows, alors qu’elles ont pourtant payé la licence de ce logiciel, elles se trouvent dans l’impossibilité d’utiliser leur ordinateur. Dans ce cas particulier Linux peut être un recours intéressant pour récupérer les données personnelles restées sur le disque dur (car très souvent, aucune sauvegarde n’a été faite), voire même pour remplacer carrément Windows.


Comment se fait-il que des utilisateur de Windows se retrouvent dans l’incapacité de réinstaller Windows alors qu’ils ont payé la licence ?

Voilà une question qui mérite une petite explication : Windows, rappelons-le, est fourni pré-installé sur l’écrasante majorité des ordinateurs du marché (en fait, tous les ordinateurs, sauf ceux de marque Apple).

En achetant son matériel, l’utilisateur est donc contraint d’acheter une licence de Windows, car Windows n’est jamais fourni gratuitement.

À ce premier problème de fond (vente forcée) s’ajoute un autre problème, que l’on pourrait qualifier de « technico-commercial » (voire, tout simplement d’escroquerie). Le prix de la licence Windows pré-installé n’est jamais clairement indiqué dans le descriptif de l’ordinateur. En fait, il existe une licence de commercialisation de logiciel particulière dite « OEM » qui permet de vendre un logiciel à prix cassé (moins chère que la version DVD), dès lors que ce logiciel est vendu avec du matériel. De fait, la licence OEM permet de glisser dans la prix de vente de l’ordinateur un logiciel sans qu’il soit possible d’en connaître le prix. La licence OEM est devenue le standard, puisque Microsoft l’a imposée à tous les fabricants d’ordinateurs. On voit, qu’à sa façon, Microsoft rejoint Apple dans sa volonté de fondre un environnement intégré – si ce n’est verrouillé – où hardware et software sont soigneusement fusionnés.

Précision importante : le logiciel Windows sous licence OEM est donc pré-installé, ce qui permet d’utiliser l’ordinateur, mais aucun DVD n’est fourni pour le réinstaller. En clair, si l’utilisateur ne prend pas quelques précautions, il lui sera impossible de réinstaller Windows sur son ordinateur.

En réalité, les fichiers d’installation de Windows (équivalents à ceux que l’on trouve sur un DVD vendu sans matériel) sont installés sur une partition cachée du disque dur de l’ordinateur. Pour réinstaller Windows, l’utilisateur doit absolument, dans un premier temps, créer lui-même une copie de ces fichiers d’installation sur des DVD, puis, le cas échéant, c’est à dire s’il souhaite réinstaller le système d’exploitation, il devra utiliser un logiciel de restauration, spécialement conçu par le fabricant de son ordinateur, lequel est également pré-installé sur la machine.

Dernières précisions importantes : l’utilisateur ne peut créer qu’une seule version des fameux disques d’installation (il ne faut pas se rater). De plus, ces DVD ne sont pas équivalents à un DVD classique de Windows (vendu sans matériel), lequel représente près du tiers du prix d’un ordinateur d’entrée de gamme. Et pour cause : un DVD vendu directement par Microsoft, sans matériel, peut être installé sur n’importe quel ordinateur, alors que le jeu de DVD de type OEM ne sera utilisable que sur l’ordinateur à partir duquel on l’a créé et, pour cela, il est indispensable que le logiciel de restauration du fabricant fonctionne correctement.

En plus de ces restrictions imposées par la licence OEM, il faut savoir qu’un DVD que l’on grave soit même, avec le graveur de son ordinateur, est d’une qualité nettement inférieure à celle d’un DVD non vierge que l’on trouve dans le commerce (par exemple, un DVD de logiciel tel que celui de Windows). Ces DVD, servant à stocker des logiciels, sont produits par pressage, un procédé de fabrication industrielle beaucoup plus fiable et moins fragile que la gravure. Il n’est pas rare que certains disques optiques gravés deviennent inutilisables, y compris s’ils sont stockés dans des conditions adaptées (à l’abri de la lumière, de l’humidité, etc.)

Enfin, il peut arriver qu’une panne, nécessitant une réinstallation de Windows, soit suffisamment grave qu’il devient même impossible d’accéder normalement au disque dur (contamination par virus, disque dur endommagé, etc.) et, de ce fait, le logiciel de restauration ne sera plus utilisable. Sans le logiciel du fabricant d’ordinateur, vous pouvez faire une croix sur la réinstallation de Windows, y compris si vos DVD de réinstallation sont en parfait état. Évidemment, vous ne pourrez même pas envisager d’utiliser ces DVD pour un autre ordinateur...

Pour résumer : sans les DVD de type « licence OEM », il est impossible de réinstaller Windows et les DVD ne peuvent être employés que sur l’ordinateur d’origine, à condition que le logiciel de restauration soit encore utilisable.

Dans ces conditions, il n’est pas rare que même avec un jeu de DVD de type OEM, toute réinstallation de Windows soit compromise.

Précisons que pour un utilisateur novice, il s’agit là d’un accueil fort peu convivial avec l’informatique – car on lui demande, à peine arrivé, de créer au plus vite ses disques de restauration – et rares sont parmi ce public, les personnes qui comprennent même le sens de tout ce qui leur est imposé. Vous avez dit confort de l’utilisateur ? Quelle bonne blague.

Nous n’avons pas encore abordé en quoi consiste réellement le logiciel libre, mais cette petite explication, à propos de la licence OEM, fournit un exemple caractéristique de pratique « propriétaire ».

« Si votre ordinateur n’est plus assez puissant pour Windows ou si vous ne pouvez réinstaller ce dernier, installez donc Linux » tel est le genre de propos qu’il m’est arrivé de tenir plus d’une fois.

Ainsi, un certain nombre d’utilisateurs en viennent donc à se tourner vers Linux, à défaut d’employer un Windows opérationnel. C’est une situation assez fréquente, pour peu qu’une connaissance (un animateur multimédia, par exemple) propose le libre comme la solution de substitution au propriétaire défaillant.

L’argumentaire, qui n’est pas faux, peut conduire toutefois à une interprétation fâcheuse : « logiciel libre » étant alors associé à « obsolescence du matériel ». Il devient la solution, un peu exotique, qui permet de recycler de vieux ordinateurs et que l’on installe en dernier recours, à défaut de pouvoir utiliser « un ordinateur normal, comme tout le monde ». Le risque étant alors que s’inscrive dans les esprits cette image selon laquelle Linux serait une sorte de « Windows du pauvre ». Ceci est d’ailleurs renforcé quand, avec la meilleure volonté, l’animateur tente de trouver une distribution qui n’est pas toujours la plus récente ni la plus valorisante pour faire tourner une vieille machine.

Partant de là, nombreux sont ceux qui n’hésitent pas une seconde à replonger dans le propriétaire dès qu’il s’agit de renouveler l’ordinateur.

Est-ce que cette représentation dévalorisante de Linux correspond vraiment à la réalité ?

Bien au contraire : beaucoup d’utilisateurs considèrent que Linux est, à bien des égards, un système d’exploitation plus fiable, plus robuste, plus sûr et, surtout, beaucoup plus respectueux de l’utilisateur que les équivalents propriétaires (Windows et Mac). Ils installent une distribution Linux en complément (ou en remplacement) de Windows ou de Mac OS sur des ordinateurs neufs, considérant qu’il est préférable d’avoir une expérience plus satisfaisante d’un logiciel si on l’utilise au mieux de ses possibilités, dans un environnement matériel moderne et adapté aux versions les plus récentes des logiciels (et inversement). À titre d’exemple, un nombre très important de stations de travail et de serveurs professionnels (notamment sur Internet) tournent sous Linux.

Depuis longtemps, la plupart des distributions Linux répondent parfaitement à toutes les attentes que l’on peut avoir d’un système d’exploitation moderne et convivial, y compris, pour un public « non-informaticien » (ceci vaut d’être précisé, en raison d’une image très répandue qu’il est courant de trouver au sujet de la « grande complexité » de Linux).

Venons-en, à présent, à la question du logiciel libre.

Pour cela il est indispensable de revenir un peu plus en détail sur ce qu’est un logiciel.

Un logiciel prêt à l’emploi se présente la plupart du temps sous la forme d’un fichier dit « exécutable ». Entendons par là que, pour exécuter des instructions, l’ordinateur ne comprend, à peu de chose près, que du langage binaire : 0 ou 1. Par commodité, on dira donc que le code informatique contenu dans l’exécutable est du « code machine », le seul qui puisse être directement traité par l’ordinateur.

Le développeur, chargé de formaliser des instructions et de les inscrire dans le programme, est un humain. Lui, par contre, ne s’exprime pas en langage machine.

Le développeur s’exprime à l’aide de code informatique écrit dans un langage de programmation normalisé. Il existe plusieurs langages de programmation, par exemple, le C, le C++ ou le Python. Chaque langage obéit, comme dans le langage naturel, à un certain nombre de règles et de logiques qui lui sont spécifiques (syntaxe, sémantique, vocabulaire, etc.) Dans la pratique le codage informatique procède beaucoup par procédures logiques du type « tant que telle condition est remplie, alors il se passera tel événement, si tel n’est pas le cas, alors, on fera telle chose ».

Le code, produit par le programmeur dans un langage de programmation défini, est enregistré dans des fichiers textes appelé « code source ». Ce code source est donc parfaitement compréhensible non seulement par le développeur qui en est l’auteur mais aussi par toute personne connaissant le langage dans lequel il a été écrit.

Par contre, le code source n’est absolument pas compréhensible pas l’ordinateur. Il est donc nécessaire de transformer le code source en code machine. Pour cela, on a recours à des programmes particuliers - des compilateurs - qui transforment le source en exécutable.

On récapitule : le programmeur conçoit son logiciel en écrivant un code source, lequel est compilé afin d’obtenir l’exécutable qui sera traité par l’ordinateur.

Toutes les distributions Linux sont en partie basées sur le même code informatique, en particulier, le « noyau » du système d’exploitation, dérivé d’UNIX, appelé précisément « Linux ». Mais un système d’exploitation ne fonctionne pas seulement avec un noyau. L’autre partie du système d’exploitation a été constitué, parallèlement, autour d’un projet, appelé « GNU », dont le principal auteur – Richard Stallman – est à l’origine du mouvement du logiciel libre.

C’est donc à partir du même code d’origine, constitué par la convergence des projets « GNU » et « Linux » que sont développées toutes les distributions « GNU-Linux », chacune suivant sa propre évolution (mise à jour, versions, etc.).

Autre caractère indissociable de l’usage partagé du code source (qui remonte donc dès la genèse du projet), toutes ces distribution sont accompagnées d’une licence d’utilisation de type « logiciel libre », dont la plus connue est la licence GPL.

Ce point est essentiel car il précise à la fois quels sont les objectifs des logiciels libres et, partant, de quelle façon ils sont réalisés.

Il faut savoir que tout logiciel est accompagné d’une licence. Cela permet de préciser les conditions d’utilisation du logiciel.

Attention : il ne faut pas confondre la licence qui précise les condition d’utilisation – ce dont il est question actuellement - avec la licence définissant les conditions de commercialisation, telle que la licence OEM de Microsoft, dont il a été question plus haut.

Dès la mise en route de la procédure d’installation, l’utilisateur s’engage à accepter les conditions d’utilisation décrites dans la licence (généralement en cochant une case), faute de quoi il lui sera impossible d’installer le programme.

Dans le cas des logiciels dit « propriétaires » ou « privateurs » (dont Windows et Mac OS), les licences se présentent, la plupart du temps, sous la forme d’une accumulation d’interdictions, d’obligations et de restrictions, notamment celles de copier et de modifier le programme. En outre le logiciel est « protégé » par des copyright ou des brevets . Quant aux fameux codes sources il n’en est même pas question ; de ce fait, il est impossible de connaître les « secrets de fabrication » du programme.

La licence de logiciel libre – associée, donc à toutes les distributions Linux – permet, au contraire, de formaliser quatre libertés données à l’utilisateur du logiciel :

 exécuter le logiciel, quel qu’en soit l’usage,

 étudier le logiciel,

 distribuer des copies du logiciel (gratuitement ou par la vente),

 modifier, adapter, améliorer, documenter le logiciel et permettre qu’il soit toujours possible d’exécuter, d’étudier, de distribuer, de modifier et de documenter, dans les mêmes conditions, toute adaptation du logiciel d’origine.

Pour que ces libertés soient applicables, il est indispensable que le logiciel exécutable soit fourni avec son code source, car ce n’est qu’en étudiant ce dernier afin d’y apporter des modifications, qu’il est possible de faire évoluer le logiciel.

Là réside une distinction essentielle avec le monde « propriétaire », lequel ne fourni à la connaissance du public que les « exécutables », c’est à dire le logiciels sous leur forme finalisée sans qu’il soit possible de connaître leur secret de fabrication, puisque le code source n’est pas disponible publiquement.

Ce principe, me direz-vous, ne vous intéresse guère, car n’ayant aucune compétence pour traiter le code source d’un programme, vous vous demandez bien à quoi cette possibilité pourrait bien vous servir.

Pour répondre à cette objection, qui m’est souvent retournée lors des ateliers, il serait intéressant d’inverser notre point de vue. Considérons que si les conditions ordinaires de production de logiciel étaient celles prévues par la licence de logiciel libre (libération du code source, notamment) : pourriez-vous m’indiquer en quoi le fait qu’un logiciel fourni uniquement sous la forme d’un exécutable (sans son code source) puisse réellement vous être profitable ?

Le fait qu’il soit possible de vérifier la façon dont un programme a été conçu est, au contraire, une garantie sur la fiabilité du programme : on considère qu’il s’agit d’un bien commun et, qu’à ce titre, les moyens sont donnés pour favoriser, de façon transparente, l’amélioration du programme (bug, faille de sécurité, etc.).

En outre, la publication du code permet d’éviter de manière plus efficace tout risque de processus caché qui se lance à l’insu de l’utilisateur, pour exécuter une tâche qui n’était pas prévue par ce dernier. Tel est en tout cas, le postulat de départ du logiciel libre et, de fait, la plupart des logiciels libres sont beaucoup plus fiables, d’un point de vue de sécurité, et nettement plus respectueux de la vie privée de l’utilisateur que nombre de logiciels propriétaires.

Nombreux sont les gratuiciels (freeware) – logiciels gratuits, mais propriétaires – qui ont recours à l’exploitation du carnet d’adresse de l’utilisateur ou qui installent des logiciels tiers (de façon plus ou moins détournée) en contrepartie de la gratuité. Le principe selon lequel la gratuité d’un service commercial s’échange contre l’abandon des informations personnelles ou confidentielles de l’utilisateur est malheureusement une pratique fort répandue (notamment sur les réseaux sociaux de type FaceBook) ; beaucoup s’en aperçoivent alors qu’il est trop tard, quand ces informations sont inscrites de façon durable sur Internet, notamment. Ce type de mésaventure - monnaie courante, dans les logiciels propriétaires - est nettement plus rare sur les logiciels libres, ne serait-ce que par le fait qu’il est beaucoup plus difficile d’insérer des procédures cachées ou contrevenant à la vie privée de l’utilisateur dans un code mis à la disposition du public.

De fait, énormément d’utilisateurs de logiciels libres (dont je suis) n’ont jamais utilisé cette possibilité qui leur est donnée d’étudier le code source d’un logiciel aussi complexe qu’une distribution Linux. Ils se reposent sur la confiance qu’ils accordent à la communauté qui développe telle ou telle distribution. Ils auront choisi et, en quelque sorte, adopté une distribution pendant un certain temps (la question du choix me semble assez importante, car même s’il est toujours possible de passer d’une distribution à l’autre, il est préférable, au moins dans un premier temps, de s’habituer à un logiciel sur la durée). Cette confiance sera mise à l’épreuve de la pratique et, peu à peu, ils découvriront par une multitude de détails que, même s’ils ne font aucun usage du code source, cette possibilité leur permet déjà de contourner bien des écueils rencontrés dans le monde propriétaire : à commencer par le fait que les ressources logicielles sont installées sur l’ordinateur de l’utilisateur plutôt que sur un mystérieux « cloud », espace déporté sur Internet, sur lequel il n’a absolument aucun contrôle réel.

Les licences libres (dont il existe de multiples variantes) sont également appliquées à bien d’autres type de logiciels que les systèmes d’exploitation. Citons par exemple, le navigateur Firefox, la suite bureautique Libre Office, le logiciel de retouche d’images Gimp, le logiciel de dessin vectoriel Inkscape, la plupart des systèmes de publication de pages web (CMS) dont Spip, utilisé sur le présent site... Toutes ces applications, son présentées sur lilapuce et il est possible de les installer sur Windows et Mac.

Les conséquences de la logique « logiciel libre », ainsi décrite au travers de la licence, sont les suivantes :

 Les logiciels libres, accompagnés de leurs sources sont donc librement disponibles sur Internet. Dans la pratique, cela signifie qu’ils sont toujours fournis gratuitement. Toutefois, la gratuité n’est que la conséquence de la libre disponibilité des fichiers, partant du principe que rien ne doit empêcher de copier ces fichiers, dès lors qu’ils sont protégés par « copyleft » (terme utilisé pour décrire principe général des licences de logiciel libre). Rien n’empêche, non plus, de vendre du logiciel libre (par exemple avec de la documentation, du service d’accompagnement ou de formation). Sans rentrer dans les détails, car le sujet est assez vaste, on peut considérer qu’en dépit de cette gratuité généralisée, il existe bien une économie du logiciel libre. Cette activité économique s’organise, la plupart du temps, sur le service généré autour du code et presque jamais sur la production du code proprement dite. Par ailleurs, nombreuses sont les communautés de développeurs qui produisent des logiciels libres – d’une qualité reconnue sur le plan professionnel – sans que cette activité n’entraîne aucune transaction marchande, si ce n’est la compétence acquise par cette expérience, qui doit valoir son poids sur le marché du travail et donc, accessoirement, pour une autre activité. Enfin, rappelons que certains logiciels propriétaires sont également gratuits (freeware ou gratuiciel) mais cela ne doit nullement conduire à assimiler ces derniers à des logiciels libres, car, nous l’avons déjà observé, la gratuité d’un logiciel sur lequel il est impossible de connaître le mode de fonctionnement ne garantit en rien le respect de l’utilisateur, bien au contraire.

 L’esprit communautaire est constitutif du logiciel libre et, cela bien avant qu’il soit question de la mise sur orbite de « réseaux sociaux » de type Facebook. Des logiciels aussi complexes qu’un noyau de système d’exploitation (Linux) et tous les logiciels nécessaires à son fonctionnement (GNU) ont été élaborés de façon collective sur Internet pour, dans un premier temps, déboucher vers la réalisation d’une ébauche de système d’exploitation complet et fonctionnel, puis contribuer, dans un second temps, à l’éclosion d’une multitude de distributions parfaitement stabilisées et utilisables pour le grand public que nous connaissons aujourd’hui. La communauté du libre ne se résume pas à des groupes de hackers (les hackers, contrairement à ce l’on peut parfois lire dans la presse, ne sont pas toujours des repaires de délinquants ; le terme désigne avant tout des personnes dont la représentation du monde est déterminée en grande partie par la pratique intensive du codage informatique). Petit à petit, la communauté s’élargit. Des utilisateurs, qui n’ont qu’un rapport très épisodique avec le code – voire, aucun rapport – sont sensibilisés aux enjeux du logiciel libre. Chacun intervient à son niveau ; donner un conseil pratique sur un forum, traduire une documentation, faire un rapport de bug, conseiller et installer une distribution sur l’ordinateur du voisin, etc. La maturité des logiciels libres permet d’envisager une alternative viable au modèle propriétaire. De nouveaux horizons de sociabilité s’élabore concrètement sur Internet autour du partage et de l’échange. Il semble difficile de revenir en arrière.

 Les logiciels libres comportent peu ou pas du tout de code propriétaire ; ce qui peu parfois poser des problèmes de comptabilité, notamment avec certain type de matériel dont les fabricants se refusent à envisager que leurs produits puissent être pilotés dans un autre environnement logiciel que Windows ou Mac (imprimantes, adaptateur Wifi, etc.) Fort heureusement, il existe presque toujours des parades à ces difficultés. Au pire, il sera presque toujours possible de télécharger une version propriétaire du pilote adaptée à la distribution Linux utilisée.

 Les logiciels libres comportent peu ou pas du tout de code propriétaire ; on utilisera toujours de préférence des technologies standardisées et indépendantes du bon vouloir ou de la volonté hégémonique de telle ou telle entreprise qui aura toujours tendance à imposer ses propres technologies propriétaires comme le « standard incontournable », sous prétexte qu’elle aura réussi à prendre d’importantes parts de marché (matériel, logiciel ou service). On retrouve là une caractéristique commune aux logiciels libres et à Internet, lequel n’aurait jamais pu exister, tel qu’on le connaît, si au lieu de reposer sur un ensemble de protocoles standardisés et ouverts, on avait laissé à une entreprise le soin de créer un service en ligne privé, comparable à un network audiovisuel. Rappelons que Microsoft avait envisagé, au début des années 90, de créer son propre réseau télématique privé (MSN) pour concurrencer Internet. Il faut savoir qu’à la même époque, aux USA, il existait déjà ce type de service en ligne (AOL et Compuserve). Fort heureusement, tout cela a été balayé par Internet, devenu incontournable.

 Internet est une infrastructure technologiquement neutre, permettant de faire circuler automatiquement des données, quel qu’en soit le contenu. Il n’en reste pas moins que nombre d’acteurs – sphère industrielle ou sphère politique – cherchent à étouffer cette neutralité en essayant d’orienter les pratiques sur le réseau en fonction de leurs propres représentations de l’espace numérique ou de leurs objectifs industriels. La communauté du logiciel libre s’oppose, alors, à de telles menaces. Par exemple, lorsque le législateur de tel pays ou telle instance de gouvernance internationale tente de réglementer les pratiques d’échange et de partage de fichiers sur Internet en imposant des mesures de surveillance du réseau (HADOPI, ou ACTA...), la communauté du libre se mobilise car, une fois appliquées, ces mesures compromettraient le principe même de la liberté et, cela, bien au-delà de l’aspect strictement logiciel.

Pour en savoir plus à propos du logiciel libre :

 L’article de Wikipédia sur les différentes distributions Linux : http://fr.wikipedia.org/wiki/Liste_des_distributions_Linux

 Framasoft, un site de recensement des logiciels libres : http://www.framasoft.net/

 April, site de promotion du logiciel libre : http://www.april.org/

 Aful, site de promotion du libre, en particulier GNU-Linux : http://aful.org/

 Adulact, les logiciels libres dans l’administration publique : http://www.adullact.org/

 La quadrature du net, organisation de défense des droits et libertés des citoyens sur Internet, se mobilise autour des questions de la neutralité d’Internet, du droit d’auteur, de la circulation de la connaissance, de la liberté d’expression, du respect de la vie privé sur le réseau, etc. : http://www.laquadrature.net/fr

 

Vos commentaires

  • Le 15 octobre 2019 à 11:20, par Nadine Morvilliers En réponse à : dépannage

    Coucou François,
    un grand merci de ma part et de celle de ma fille pour nous avoir permis de récupérer ce qui l’était.

    Le site d’achat d’Emmaüs dont je te parlais est le suivanst :
    https://www.label-emmaus.co/fr/catalogue/ordinateurs-portables/

    et puis, j’ai assisté à tes cours jusqu’en juin 2013 et j’ai acheté mon notebook en janvier 2014. Presque six ans quand même...
    Bises, bises
    Nadine

    Répondre à ce message

Un message, un commentaire ?

modération a priori

Attention, votre message n’apparaîtra qu’après avoir été relu et approuvé.

Qui êtes-vous ?
Ajoutez votre commentaire ici
  • Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.