Lilapuce
 

supports (mercredi 20 avril 2011)

Composants matériels [1]

Cette page, initialement écrite en janvier 2008, a été actualisée en mars 2009, en avril 2011 puis en mars 2012.

Mort annoncée du CD, chute vertigineuse des ventes de DVD, péril en la demeure du droit d’auteur, crise de la presse écrite, contournement des circuits de distribution de biens culturels…

J’arrête le déballage ; la liste est longue.

Ces questions, qui ont toutes « un rapport avec les technologies numériques », font débat depuis plusieurs années. Je serais très étonné d’apprendre que, d’une manière ou d’une autre, vous n’en sachiez rien.

De même, il est probable que l’expression « dématérialisation » ne vous est pas totalement inconnue. Les commentateurs l’évoquent souvent à propos de la musique en ligne, par exemple.

Oui, vous ne rêvez pas ; il est bien question de « dématérialisation ».

Votre ordinateur aussitôt acheté, aussitôt obsolète ; le baladeur numérique made in Apple de vos enfants ; le smartphone dernier cri de votre compagne ; la tablette ultra banchée de votre mari... toutes ces machines auraient donc un rapport avec cette fameuse « dématérialisation de la musique ».

Très intéressant.

En attendant d’être nous-même embarqués dans quelque fatale dématérialisation, essayons d’observer froidement en quoi consiste une machine de type Personal Computer (PC) afin d’en définir les caractéristiques matérielles essentielles.

Considérons (provisoirement) que ce qui est indiqué ci-dessous sous le terme « PC » désigne un objet – station de travail, ordinateur portable, netbook, voire même tablette – qui vous sera utile pour naviguer sur Internet et utiliser des applications. Bref, c’est encore avec ce type d’objet que vous venez aujourd’hui aux ateliers de la salle 301.

Concept du Personnal Computer : obsolescence garantie

Les évolutions technologiques, en informatique, se succèdent à un train d’enfer. Dans les faits, la durée de vie d’un ordinateur « entrée de gamme » se situe autour de 5 ans. Cela tient au fait que, passé quelques années, l’environnement matériel d’origine n’est plus adapté aux normes technologiques du moment. On a beau rajouter de la mémoire vive ou changer de disque dur, on réalise qu’au bout d’un certain degré d’usure, il devient plus économique d’acheter une machine neuve que d’en « moderniser » une ancienne.

Comme l’a fait remarquer l’une des participantes de l’atelier du samedi (il y a quelques années), cette logique industrielle génère incontestablement un énorme gâchis fort peu respectueux de l’environnement et des conditions de vie des sociétés les plus pauvres de la planète ; preuve, s’il en était besoin, que le secteur d’activité informatique, de ce point de vue, ne constitue nullement une exception aux règles dominantes.

On peut se demander si cette logique industrielle basée sur « l’innovation permanente » n’abuse pas de la docilité du consommateur, toujours flatté par l’acquisition de nouveaux gadgets, et qui, obéissant à la propagande commerciale, ne demanderait rien de mieux que d’acheter des produits conçus pour ne pas durer. Dans les faits, même si cette opinion n’est pas totalement dépourvue de pertinence (nous y reviendrons), elle me semble, à la réflexion, très insuffisante.

Tout système informatique, quel qu’il soit, doit être régulièrement actualisé. C’est comme ça et je n’ai tout simplement aucun contre exemple à fournir. Internet n’a fait qu’amplifier la tendance. Les procédures de mise à jour logicielles sont directement effectuées en ligne. Or, ces évolutions logicielles, qu’elles soient quotidiennes, comme aujourd’hui, ou plus espacées, comme dans le passé, se traduisent toujours, en définitive, par de nouveaux besoins en ressources matérielles, d’où cette éternelle course effrénée entre montée en puissance de la machine et actualisation des programmes.

Le modèle du lego

Quelle que soit la génération, quelle que soit la technologie, depuis une vingtaine d’années, l’ordinateur est une machine qui s’organise toujours, grosso modo, à partir des mêmes types de composants (que nous découvrirons dans les prochains supports) : carte mère, processeur, mémoire vive, disque dur, etc. Les performances de ces composants sont régulièrement améliorées : les processeurs sont de plus en plus puissants, on peut stocker de plus grosses quantités de mémoire vive, etc. De nouveaux standards techniques s’imposent (connexions Wifi et Bluetooth, etc.). Certains périphériques, tels que la disquette, disparaissent pour être remplacés par d’autres (clé USB).

Tous ces composants sont normalisés ; ce qui permet de construire une machine sur mesure, en assemblant les différentes pièces, comme s’il s’agissait d’un lego. Certaines personnes achètent ainsi leur ordinateur en pièces détachées et le font assembler (ou l’assemblent elles-mêmes). Cette pratique, assez répandue, permet de construire une configuration sur mesure, et de l’adapter à des besoins spécifiques (par exemple CAO ou musique). Toutefois, s’il existe une normalisation matérielle, il y a des comptabilités à respecter. C’est un peu comme au jeu des 7 familles. Par exemple, vous ne pouvez pas installer n’importe quel processeur sur n’importe quelle carte mère. Sur cet exemple, la logique des marques s’impose : soit vous choisissez le fondeur Intel, leader dans la vente de processeur, soit son concurrent AMD. De fait la plateforme matérielle s’organise autour d’un choix entre plusieurs binômes « carte mère-processeur ».

Dans la pratique, l’assemblage est souvent réservé aux bidouilleurs et autres bricoleurs, qui adorent s’encombrer l’esprit de nomenclatures aussi poétiques que « A7N8X De luxe », « Socket AM2 » ou « DDR2 SDRAM ». Ceci étant, rien ne vous empêche de vous documenter pour concevoir une configuration sur mesure en la validant auprès de personnes plus aguerries, que ce soit dans votre entourage ou sur Internet. Ainsi, vous aurez généralement la possibilité de concevoir une machine qui ne sera pas forcément moins chère qu’une « marque » mais qui sera certainement plus évolutive.

Ordinateurs de marque

Comme la plupart des personnes ordinaires, il est probable que, pour acheter votre ordinateur, vous passiez par un réseau de distribution « grand public » (chaîne de magasin spécialisée en produits informatiques, achat en ligne, grande distribution, grand magasin, etc.).

Dans ce cas, vous serez en priorité orienté vers une marque : Microsoft.

Contrairement aux apparences, il ne s’agit pas d’une marque d’ordinateurs (enfin, pas pour l’instant). Cette société, universellement connue, a construit son empire sur des logiciels, en particulier : Windows.

Pour fonctionner, tout ordinateur doit être équipé d’un logiciel particulier permettant de prendre la main sur le matériel et d’utiliser d’autres programmes : un système d’exploitation.

Windows, pour des raisons historiques, est le système d’exploitation le plus utilisé au monde ; au point que Microsoft est traditionnellement accusé par ses concurrents et détracteurs d’abuser de sa position (dominante), voire d’imposer sa loi (inique), jouissant (sans partage) d’une situation (inadmissible) de monopole (heu, monopolistique).

Bref, comme vous l’aurez compris, il faut vraiment le vouloir pour éviter Microsoft.

Cette situation ne signifie pas pour autant que Windows est le seul système d’exploitation. Il en existe d’autres, parfaitement stabilisés et utilisables par le grand public ; notamment Linux (logiciel libre qui se décline en une multitude de « distributions ») et Mac OS (logiciel propriétaire, tout comme Windows).

C’est une des particularités de l’industrie informatique : lors de l’achat d’un ordinateur, on impose encore presque toujours le système d’exploitation de Microsoft, à l’exclusion des autres. Le terme « PC » désigne donc une plateforme sur lequel est généralement pré-installé Windows. Comme nous le verrons, rien ne vous empêche d’installer Linux sur un PC ; c’est même devenu techniquement assez facile. Vous pourrez, tel qu’à l’atelier, choisir au démarrage entre les deux systèmes.

IBM, Dell, Packard Bell, Sony, Toshiba, Hewlett Packard, Acer, Asus…figurent parmi les marques le plus connues de fabricants de PC. Il est donc extrêmement rare que ces machines soient vendues avec une distribution Linux (même si la situation commence à se débloquer timidement).

Les « ordinateurs de marque » sont généralement mieux conçus et montés plus proprement que par un assembleur lambda du « quartier Montgallet ». Par ailleurs, en produisant des grosses séries, ces entreprises arrivent à proposer des configurations stabilisées pour des coûts (théoriquement) plus attractifs. Enfin, l’offre industrielle de produits manufacturés est identifiable, elle permet d’être évaluée et comparée dans la presse spécialisée et sur Internet.

Côté inconvénients : en plus de Windows, la plupart des ordinateurs de marques imposent souvent leur propre couche logicielle, qui n’est généralement d’aucune utilité. On y trouve également une multitude de programmes « propriétaires », en version d’évaluation sur une durée limitée à quelques mois (suite bureautique de Microsoft, logiciel anti-virus Norton, etc.). Là encore, dans les faits, cette pratique s’apparente à de la vente forcée. Enfin, on peut regretter que certaines de ces marques ne fournissent pas les copies sur DC ou DVD des logiciels installés sur l’ordinateur (notamment Windows). Ce qui peut entraîner quelques complications en cas de réinstallation.

Le Mac

Le cas Apple est sensiblement différent des marques de PC. Cette société commercialise des ordinateurs sur lesquels est installé un système d’exploitation : Mac Os ; ce dernier étant souvent considéré (à juste titre) comme le must en la matière.

Les composants matériels d’un ordinateur Apple sont plus ou moins adaptés au système Mac, mais il s’agit globalement des mêmes catégories de composants que ceux du monde « PC ».

En outre, le système Mac Os a ceci de particulier qu’il doit, selon les termes de la licence, être obligatoirement installé sur un ordinateur de marque Apple. A cette contrainte légale vient s’ajouter des limitations logicielles afin qu’il ne soit pas possible d’installer facilement Mac Os sur un ordinateur lambda.

De ce fait, l’installation de Mac Os sur un PC, bien que n’étant pas totalement impossible, relève de l’expérimentation exotique (de plus, illégale). Bref, si vous souhaitez utiliser le système Mac, vous n’avez pas le choix : vous devez acheter un ordinateur de marque Apple.

Mac Os X (le système d’exploitation) est entièrement construit à partir d’un noyau de type Unix. C’est également le cas de Gnu-Linux, mais ce dernier, contrairement à Mac Os, est distribué sous licence GPL (voir tip sur la différence logiciel libre/freeware).

Mac Os, tout comme Windows est un système d’exploitation propriétaire, protégé par copyright. Cela signifie, en outre : une licence par poste, pas d’accès au code source.

Si l’installation de Mac Os sur un PC est illégale, il est, par contre tout à fait possible d’installer Linux ou Windows (à condition d’avoir acheté une licence spécifique pour ce dernier) sur un ordinateur Apple.

L’environnement « Mac » (matériel et logiciel) est donc le seul permettant de faire fonctionner Linux, Mac Os et Windows sur la même machine.

Mais il s’agit d’une caractéristique, en réalité, assez peu flatteuse quand on sait que cela tient au fait qu’Apple est le seul, également, à imposer l’installation de son programme (Mac Os) sur ses propres machines (Apple) et interdit qu’il soit installé sur un autre type d’ordinateur ; une conception de la technologie (pas vraiment sexy) qui nous renvoie à la préhistoire de la micro-informatique.

Le cas des ordinateurs portables

L’ordinateur portable correspond à une configuration qui s’impose de plus en plus auprès du public, notamment pour un premier achat.

Cette tendance est d’ailleurs confirmée au sein des ateliers puisque vous êtes nombreux à venir dans cette salle avec votre ordinateur sous le bras.

Or, il faut savoir que si le portable, d’une manière générale, reste un ordinateur équipé du même type de composants génériques que les PC (disque dur, processeur, mémoire vive, etc.), il est nécessaire de préciser quelques points qui ne sont pas sans importance pour la suite de ces supports :

- il n’existe pas, à ma connaissance, de portable « sans marque ». Ce qui signifie, qu’en choisissant cette configuration, vous ne pourrez envisager de l’assembler pour en faire une machine sur « mesure ».

- plus embêtant : la machine, est moins accessible, voir carrément verrouillée. Vous serez certainement moins tenté de l’ouvrir pour observer les composants, tel que nous l’avons fait avec nos machines. Vous n’auriez d’ailleurs pas tord, car en démontant votre portable, vous risqueriez de perdre la garantie, comme s’il s’agissait d’un aspirateur.

- tous les composants sont adaptés à la taille de la machine, d’où la compacité en plus de la difficulté ou l’impossibilité d’y accéder soi-même. Concrètement, alors que sur un PC, le remplacement d’une carte graphique défectueuse est un jeu d’enfant, la même situation sur un portable se traduira vraisemblablement par une visite chez un réparateur professionnel.

- à qualité égale, les composants sont encore plus chers que sur un PC. C’est une façon de dire qu’un portable entrée de gamme sera équipé d’un écran est plus petit avec un disque dur moins volumineux qu’un PC de même catégorie.

- les possibilités d’évolution ou d’extension, sont forcément plus limitées, par manque de place.

- il n’est pas rare de voir des utilisateurs obligés d’acheter des périphériques supplémentaires (souris, pavé numérique, quand il ne s’agit pas carrément de l’écran) car l’équipement fourni par défaut sur un portable (pavé tactile, clavier réduit, écran cliquant, brillant, ultra contrasté) s’avère, en réalité, bien souvent assez peu ergonomique (mais ça, quand on le dit, on passe généralement pour un crétin). Conseil : avant d’acheter votre portable, prenez le temps nécessaire pour tester en détail la qualité du système de pointage, de l’écran et de la frappe du clavier

- malgré tous les roucoulements commerciaux de la presse spécialisée et de l’industrie, un ordinateur portable est quand même plus fragile, moins évolutif et plus cher (caractéristique comparable) qu’un « ordinateur de bureau » (ceci étant, la situation peu évoluer).

Le cas des netbooks

Il existe enfin un dernier type d’ordinateur, apparu sur le marché en (2008) et qui a rencontré un certain succès pendant quelques mois : le netbook.

Il s’agit d’un portable de très petite taille (diagonale d’écran de 12 pouces alors que les portables présentent généralement des écrans de 15 à 17 pouces).

Ce type de machine, relativement bon marché (environ 300 €, alors que les premiers prix de portables se situent autour de 500 €), est conçu pour un usage « basique » : internet et bureautique.

Il est fréquent que l’on y trouve un système d’exploitation « poids plume », spécialement adapté à cet environnement. Par exemple, le Eeepc (de la marque Asus) est vendu dans une version équipé d’une distribution Linux (Xandros) ; ce qui représente, comme nous l’avons déjà signalé, une situation relativement atypique dans le monde de l’industrie informatique.

Autre particularité, liée à la dimension du matériel, les netbooks sont généralement équipés de mémoire flash en lieu et place de disque dur ; ce qui entraîne une réduction importante de capacité de stockage par rapport aux portables (20 Go, en comparaison d’au moins 150 Go sur n’importe quel portable d’entrée de gamme)

Il est important de prendre en compte que les netbooks sont généralement utilisés en tant qu’ordinateur d’appoint. Bref, un beau petit jouet pour connaisseurs.

Si vous envisagez d’acheter votre premier ordinateur et que vous n’avez aucune expérience de l’informatique, j’aurais donc tendance à vous déconseiller l’acquisition d’un netbook.

Vous risqueriez d’éprouver quelques frustrations, notamment lors des activités de groupe (situation observée, par exemple, à l’atelier tableur).

Il semble, qu’après quelques années de mise en vente, la tendance soit à la disparition quasiment complète des netbooks au profit des smartphones ou des tablettes (voir ci-dessous).

De fait, le cas « netbook » s’avère aujourd’hui être un exemple caractéristique de raté technologique que l’on pourrait ranger, par exemple, à côté du network computer et de l’assistant personnel.

Au-delà du PC

Dans le flot continu des « innovations » qui accompagnent, depuis toujours, l’industrie informatique grand public, une tendance forte semble s’installer depuis le milieu des années 2000 et cela s’est accéléré depuis la fin de la décennie.

Voici ce que nous disent, en substance, Microsoft, Apple, Google, et les fournisseurs d’accès internet : non seulement les technologies numériques employées sur un PC ou un Mac ne s’utilisent plus exclusivement à l’aide d’un ordinateur, puisque smartphones, tablettes, liseuses et même les TV remplissent, dit-on, le rôle du parfait substitut, mais en plus, le concept même d’ordinateur personnel, serait devenu complètement dépassé.

Le must étant désormais de pouvoir se connecter au réseau et en réseau, quel que soit le type d’appareil, afin de consommer plus de téléphonie, plus de TV, plus de musique, plus de films, plus de loisir, plus de passivité, plus de réseaux sociaux, plus de cloudcomputing (briques logicielles installées à distance sur Internet), plus de service à la demande, plus de programmes propriétaires, plus de conformisme et de soumission aux effrets de mode, plus de dépendance.

Conséquence de cette tendance : le matériel est plus rapidement obsolète, moins polyvalent, moins modulaire, moins standardisé ; les logiciels, présentés comme des services afférents à l’utilisation ordinaire de ce type de matériel, sont imposés (qu’ils soient sous licence propriétaires, comme chez Apple, ou OpenSource, comme chez Google).

C’est un repère fondamental en informatique, un truc que l’on a tous appris pour bien comprendre ce qu’est un ordinateur : la séparation entre le matériel hardware et le logiciel software.

Parce que l’innovation technologique repose sur des standards, cette séparation théorique est prise en compte dans la pratique par ce que l’on appelle « l’interopérabilité » : les technologies n’étant pas dépendantes de dispositifs propriétaires, qu’il s’agisse de matériels ou de logiciels, il est possible de les appliquer quelle que soit la plateforme utilisée. C’est sur ce principe qu’Internet a été construit et c’est sur ce principe que repose le logiciel libre.

Force est de constater que la séparation entre logiciel et matériel était déjà fortement entamée, depuis le début, par Microsoft et Apple (chacun à sa façon) et qu’il est de plus en plus remis en cause avec les nouveaux type de terminaux informatiques, hyper-spécialisés et truffés de technologies et services imposés qu’on essaie de nous fourguer à marche forcée.

Bref, vous le comprendrez, lorsque l’on ose encore se référer à ce qui constituait le socle de la micro-informatique ; à savoir, constituer une certaine forme d’autarcie locale, par l’auto-apprentissage, l’expérimentation, et de partage de savoir sur Internet, à l’aide d’applications de son choix (fussent-elles propriétaires) et de composants matériels standardisés et interchangeables, on risque de passer pour un horrible dinosaure.

Affaire à suivre, donc, avec la mort programmée de l’ordinateur personnel. Pour l’heure, c’est encore ce type d’appareil que nous avons en salle 301 et nous utiliserons de plus en plus de logiciels libres.

Pourquoi s’embêter avec le matériel ?

Oui, au fait : pourquoi faut-il connaître les composants matériels de votre ordinateur ?

D’abord, le fait de pouvoir mettre du sens derrière les expressions techniques est une façon de prendre la main sur votre machine, et d’acquérir un minimum d’autonomie, au même titre que d’effectuer un copier-coller ou de trouver par vous-même une information sur le web qui vous permettra de comprendre et résoudre un dysfonctionnement.

D’autre part, si, tel que nous l’avons vu, vous envisagez un futur achat ou un éventuel upgrade de votre machine, il est préférable que vous puissiez vous orienter avec un minimum de repères. Je constate que la liste des termes techniques alignés pour décrire les configurations de tel ou tel ordinateur demeure totalement abscons pour la plupart d’entre vous. Ces termes doivent être décryptés lors de ces ateliers. Pour cela, rien de tel que d’ouvrir la machine, de démonter le composant et de fournir quelques explications.

Enfin, cela fait partie des conditions ordinaires de l’utilisation de son ordinateur, que de pouvoir remplacer une barrette de mémoire vive, d’installer une nouvelle carte d’extension, voire de changer un graveur ou une carte graphique. Là encore, si vous pouvez vous abstenir de passer par un réparateur vous aurez gagné certainement un peu de temps, d’argent et de confiance en vous.

Le but de ces supports ne consiste pas à dresser un panorama exhaustif des différentes spécifications techniques. Pour cela, vous pourrez vous reporter à Wikipedia, par exemple. De même, vous ne trouverez aucune préconisation concernant les configurations les « plus performantes » ; pour cela, je vous suggère de lire les revues spécialisées, qui éditent régulièrement des bancs d’essais. J’indiquerais, quand cela me semble important, certaines caractéristiques matérielles générales à mettre en rapport avec des usages.

Passons, à présent, aux travaux pratiques :

- la suite du support,

- l’exercice, à effectuer sur votre propre système.


 

Autres supports
de l'atelier Outils num.

 

L'atelier «Outils num.»