124 Des Plaines, Cowansville (Québec) J2K 3W6
Téléphone: (450) 263 8459
Cellulaire: (450) 204 7418
Courriel: info@solutionslinux.ca
Au tout début, il y avait l'ancêtre Unix, créé par les bureaux d'études d'AT&T en 1974. A cette "époque" préhistorique, les ordinateurs n'étaient que de gros calculateurs peu puissants, très chers, et presque incapables de communiquer entre eux. En effet, chaque constructeur produisait leurs propres systèmes d'exploitation, incompatibles entre eux évidemment. Dans cette jungle, Unix se détache : il est capable de fonctionner sur tout type de machine : c'est exactement ce que recherche l'ARPA (Advanced Research Projects Agency), organisme public américain fondé par Heisenhower dans les années 1950. Son but premier : relier des centres militaires stratégiques de telle façon que lorsqu'un centre est détruit (nous sommes en pleine guerre froide), les autres soient capables de continuer à communiquer. Ainsi s'est développé le premier grand réseau informatique reliant des machines hétéroclites : Arpanet, l'ancêtre d'Internet.
L'ARPA stimule la recherche en informatique, via des grandes universités qui s'ajoutent progressivement au réseau et qui n'ont pour contrainte que la transparence de leurs travaux. En programmation, c'est ce qu'on appelle le code-source : ce sont les lignes de codes, inventées par les programmeurs, et qui sont la recette de fabrication du logiciel. Cependant, ces lignes sont en langage humain (ou presque !), du type "si X prend telle valeur, alors faire ceci, sinon faire cela". Un ordinateur étant incapable de comprendre un tel charabia, on compile alors le programme qui finit par s'écrire sous forme binaire , ou code exécutable (une séquence ordonnée de 0 et de 1), seul langage qu'un ordinateur peut comprendre. Seulement, dans ce processus de "traduction" que constitue la compilation, on perd la signification "humaine". Autrement dit, le logiciel fonctionne très bien, mais on ne sait pas ce qu'il y a "dedans", comment il a été fabriqué. Embêtant, lorsqu'on veut améliorer soi-même le programme, ou lorsqu'on veut juste vérifier (il faut quand même être programmeur) qu'il ne renferme pas de virus...
C'est pour cette raison que l'ARPA finance seulement les recherches en "open-source", littéralement source-ouverte. En gros, on vous vend le logiciel sous forme compilée pour votre ordinateur et sous forme de code-source pour vous (n'oubliez pas qu'à l'époque, utiliser un ordinateur revient souvent à être programmeur).
Ceci fera le succès d'Unix, qui se répand très vite aux États Unis, avec le soutient du gouvernement. Étant "open-source", le code source circule sur le réseau Arpanet, et s'améliore au passage dans chaque université. Ainsi, Unix se bonifie de jours en jours jusqu'en 1986. A cette date, le soutient de l'ARPA devient inutile : la fabrication de logiciels est devenue une activité lucrative. Très rapidement des sociétés privées (Sun ou Hewlett-Packard) développent leur propre version d'Unix, incompatibles entre elles, et propriétaires. Autrement dit, on retombe à l'époque sombre de la jungle informatique d'avant - Unix. Et c'est l'envolée d'une certaine société basée à Seattle, dont la célèbre fenêtre est toujours fermée aujourd'hui ...
Le concept est assez simple : on peut copier, modifier et distribuer un logiciel libre, à la condition que le produit final soit lui-même en licence GPL. En fait, on enlève ainsi tout obstacle à la diffusion du logiciel, tout en empêchant qu'il soit accaparé par une seule société privée qui en ferait un logiciel propriétaire (c'est ce qui est arrivé à Unix, open-source mais pas libre).
Le projet GNU avance dans l'ombre jusqu'en 1990, mais il n'a encore fait fonctionner aucun ordinateur dans le monde... C'est en 1991 qu'un jeune étudiant finlandais en informatique, Linus Torvalds développe, à 21 ans, le noyau (ou kernel en Anglais) pour un système GNU. C'est la brique élémentaire qu'il manquait à l'édifice ! Aidé dans sa tâche par une communauté très active sur le tout jeune Internet (d'où l'intérêt de fournir le code source), Linus finalise en 1993 la version 1.0 de GNU/Linux. Distribuée gratuitement sur le web, le succès est fulgurant dans le milieu des serveurs (ces machines très puissantes qui ne doivent jamais tomber en panne).
Aujourd'hui, Linux est devenu un système d'exploitation stable pour PC à la maison. Disons que depuis 2006 des progrès immenses furent réalisés.
Sa facilité d'utilisation, bien que différent de Windows, le rend utilisable par monsieur et madame tout le monde. Du concepteur-programmeur au plus simple utilisateur novice, chacun s'y retrouvera assez facilement selon ses capacités et ses connaissances.
En 1991, les compatibles PC dominent le marché des ordinateurs personnels et fonctionnent généralement sous les systèmes d'exploitation MS-DOS, Windows et OS/2. Le microprocesseur Intel 80386, vendu depuis 1986, commence à être abordable. En 1991, aucun de ces trois systèmes n'exploite correctement les capacités 32 bits et de gestion mémoire du 80386.
Le projet GNU, initié en 1983 par Richard Stallman est connu pour avoir produit de nombreux logiciels libres, dont des commandes Unix, l'éditeur de texte Emacs et le compilateur C GCC. Ces logiciels sont généralement utilisés sur des stations de travail fonctionnant sous UNIX propriétaire, car le noyau de système d'exploitation Hurd n'est qu'à l'état de projet.
En juin 1991, la Berkeley Software Distribution (BSD) sort la Networking Release 2 (Net/2), qui constitue un système UNIX BSD libre presque complet. Mais un procès lancé par Unix System Laboratories contre Berkeley Software Design fait peser des doutes sur le statut de cette distribution pendant presque deux ans.
Le système d'exploitation Minix est développé par le professeur Andrew Tanenbaum pour l'enseignement. Il est inspiré de UNIX, gratuit, ses sources sont disponibles mais non libres, et la simplicité est privilégiée par rapport aux performances.
En 1991, l'étudiant finlandais Linus Torvalds, que la faible disponibilité du serveur Unix de l'université de Helsinki indispose, entreprend d'écrire un noyau de système d'exploitation qu'on appellera plus tard « noyau Linux ».
Linus Torvalds fait alors son apprentissage sur le système d'exploitation Minix. Comme l'auteur de Minix refuse d'intégrer les contributions visant à améliorer Minix, Linus décide d'écrire un remplaçant de Minix. Il commence par développer un simple émulateur de terminal, qu'il utilise pour se connecter via modem au serveur informatique de son université. Linus désire alors surtout comprendre le fonctionnement de son ordinateur, un compatible PC fondé sur un microprocesseur Intel 80386. Après l'ajout de diverses fonctionnalités dont un système de fichiers compatible avec celui de Minix, Linus oriente son projet vers quelque chose de plus ambitieux : un noyau aux normes POSIX.
Le 5 octobre 1991, il annonce sur le forum Usenet news:comp.os.minix la disponibilité d'une ébauche version 0.02 de son système d'exploitation, la version 0.01 ayant eu une diffusion plus que confidentielle.
Depuis, des centaines de passionnés et des entreprises, petites ou géantes, sont venus participer au projet, dont Linus Torvalds est toujours le coordinateur. Eric S. Raymond décrit dans un essai retentissant le modèle de développement du noyau Linux et d'une partie des logiciels libres.
Initialement appelé Freax par son créateur, le projet trouve son nom définitif grâce à Ari Lemmke , administrateur du serveur FTP ftp.funet.fi, qui héberge le travail de Linus Torvalds dans un répertoire nommé Linux. C'est la première apparition d'un terme composé à partir de Linus et UNIX, qui deviendra par la suite une marque déposée au nom de Linus Torvalds. Le manchot Tux, dessiné par Larry Ewing en 1996, devient le symbole du projet.
Parmi les étapes marquantes, on peut d'abord citer le lancement en octobre 1996 par Matthias Ettrich de l'environnement graphique KDE puis en août 1997 par Miguel de Icaza de son concurrent GNOME, les deux étant fondés sur le système de fenêtrage X11 issu des travaux du Massachusetts Institute of Technology. Dans l'iceberg qu'est un système d'exploitation grand public fondé sur le noyau Linux, les environnements de bureau, comme GNOME, KDE ou encore XFCE en forment la partie émergée, en contact direct avec l'utilisateur.
Il y a également la prise en compte progressive de l'intérêt commercial de Linux dont on peut citer quelques manifestations spectaculaires : le lancement en février 1998 de l'Open Source Initiative ; l'annonce en juillet 1998 du support d'Oracle Corporation qui porte et supporte sa célèbre base de données sous Linux ; l'entrée en bourse de Red Hat le 11 novembre 1999 ; celle de VA Linux le mois suivant qui marque le sommet d'une impressionnante bulle spéculative ; le support massif apporté par le géant IBM qui y dépense son premier milliard en 2001 , emploie en 2005 près de 300 développeurs du noyau Linux, et organise à partir de 2003 la riposte légale lors de l'attaque du SCO Group qui affirmait posséder des droits d'auteurs sur le noyau Linux ; l'acquisition en octobre et novembre 2003 de Ximian puis de SuSE par l'entreprise américaine Novell .
C'est dans le monde des serveurs informatiques que Linux a eu le plus d'impact, notamment avec le très populaire LAMP. Sur les serveurs, Linux a souvent été utilisé pour remplacer d'autres Unix et se retrouve être le seul acteur majeur avec Windows.
Dans les systèmes embarqués, Linux est fréquemment utilisé avec les outils uClibc et BusyBox qui ont été développés pour le matériel particulièrement limité en capacité mémoire. En outre, le fait de pouvoir compiler le noyau Linux avec des options spécialement adaptées au matériel cible donne aux développeurs de nombreuses opportunités d'optimisation.
Le C inversé » est le symbole du copyleft, l'« opposé » du symbole copyright.
La différence essentielle de Linux par rapport à d'autres systèmes d'exploitation concurrents — comme Mac OS, Microsoft Windows et Solaris — est d'être un système d'exploitation libre, apportant quatre libertés aux utilisateurs, définies par la licence GNU GPL, les rendant indépendants vis-à-vis d'un quelconque éditeur, encourageant l'entraide et le partage.
Un logiciel libre n'est pas nécessairement un logiciel gratuit, et inversement tout logiciel non-commercial n'est pas forcément libre. Ce ne sont pas non plus des logiciels libres de droits : c'est en vertu de leurs droits d'auteurs que les contributeurs d'un logiciel libre accordent les quatre libertés, qui sont d'utiliser le logiciel sans restriction, d'étudier le logiciel, de le modifier pour l'adapter à ses besoins et de le redistribuer sous certaines conditions précises.
Certaines licences sont fondées sur le principe de copyleft, c'est-à-dire de réciprocité : une œuvre dérivée d'un logiciel sous copyleft doit à son tour être libre. C'est le cas de la licence libre la plus utilisée, notamment par le noyau Linux lui-même : la licence GNU GPL écrite par Richard Stallman.
L'ouverture du code source, l'un des quatre critères correspondant à la notion de logiciel libre, a des avantages théorisés entre autres par Eric Raymond en matière de correction rapide des bugs qui sont la plaie de l'informatique, et notamment la correction des failles de sécurité. C'est le refus du principe de sécurité par l'obscurité.
Linux n'aurait pu se développer sans la présence de protocoles standardisés utilisés sur Internet. Un bon nombre de logiciels libres sont d'ailleurs des implémentations de référence, comme Apache.
Les partisans des logiciels libres sont donc des partisans constants de l'interopérabilité. Ils mettent en avant les formats ouverts, des formats de données dont les spécifications techniques sont publiques et sans restriction d'accès ni de mise en œuvre, afin de ne pas dépendre d'un seul logiciel.
Citons dans cette optique Mozilla Firefox qui tente de respecter scrupuleusement les recommandations émises par le World Wide Web Consortium, Jabber qui a donné naissance au standard XMPP reconnu par l'Internet Engineering Task Force dans le domaine de la messagerie instantanée ou encore les suites OpenOffice.org et KOffice qui ont lancé le récent standard OpenDocument dans le domaine de la bureautique.
Dans d'autres domaines, il n'existe pas d'organisme ou d'accord de standardisation reconnu. Le marché est alors morcelé entre divers vendeurs qui ont chacun leur technologie ou sous la domination d'un acteur économique prédominant qui ferme ses formats ou protocoles.
Le premier cas de figure prévaut dans la guerre des messageries instantanées et est réglé par des logiciels multiprotocoles comme Pidgin ou Kopete. Les formats des suites Microsoft Office successives et le protocole Common Internet File System qui permet de partager fichiers et imprimantes entre différents ordinateurs d’un réseau Microsoft Windows tombent dans la deuxième catégorie. Ces formats et protocoles sont souvent pas ou mal documentés. L'interopérabilité passe alors nécessairement par la rétro-ingénierie.
Cela peut nécessiter un travail titanesque, pouvant être par ailleurs illégal aux États-Unis mais légal en Europe (tant qu'on reste dans le cadre de l'interopérabilité) ; aujourd'hui, OpenOffice.org permet de lire la très grande majorité des fichiers aux différents formats .doc, et le logiciel Samba permet de participer aux réseaux Windows.
Plus problématiques du point de vue des logiciels libres sont les formats et protocoles nécessaires à l'interopérabilité, mais verrouillés techniquement et/ou légalement : gestion des droits numériques, brevets logiciels, Directive EUCD, Digital Millennium Copyright Act…
Unifix Linux 2.0 de la société allemande Unifix (et Linux-FT de Lasermoon) sont également certifiés POSIX.1 FIPS 151-2 (Federal Information Processing Standard ). Noyau 1.2.13 .
Sur le site Debian est expliqué que « les normes de POSIX ne sont pas gratuites et la certification POSIX.1 (et FIPS 151-2) est très chère ».
De nombreuses associations, connues sous le nom de Linux Users Group, Groupe d'Utilisateurs "Linux" (LUG ou GUL), cherchent à promouvoir Linux et par extension, les logiciels libres, par le biais de rencontres où des démonstrations de Linux sont faites, des formations, et pour ceux qui le souhaitent des installations sur leur ordinateur.
De nombreuses communautés existent sur Internet afin d'aider les débutants comme les professionnels. Citons le site lea-linux, le site d'informations collaboratif Linuxfr.org et le site Linux-Québec, qui aide les utilisateurs québécois comme français dans leur apprentissage des bases de Linux grâce à un réseau IRC très actif. Et les projets Proselux et Parrains.Linux permettent aux "linuxien(ne)s" de se rencontrer pour s'entraider. De même il existe de nombreux sites regroupant des Tutoriels ainsi que des HowTos, comme lea-linux ou encore LinuxTuto.
Les logiciels libres sont produits de manière collaborative, souvent indépendamment les uns des autres, et peuvent être librement redistribués. Il s'ensuit une particularité du monde Linux : la séparation fréquente entre ceux qui produisent les logiciels et ceux qui les distribuent.
On appelle distribution Linux une solution prête à être installée par l'utilisateur final comprenant le système d'exploitation GNU, le noyau Linux, des programmes d'installation et d'administration de l'ordinateur, un mécanisme facilitant l'installation et la mise à jour des logiciels comme RPM ou APT ainsi qu'une sélection de logiciels produits par d'autres.
Une distribution peut par exemple choisir de se spécialiser (ou non) sur GNOME ou KDE. Elle est également responsable de la configuration par défaut du système (graphisme, simplicité…), du suivi de sécurité (installations de mise à jour) et plus généralement de l'intégration de l'ensemble.
La diversité des distributions permet de répondre à des besoins divers qu'elles soient à but commercial ou non ; orientée serveur, bureautique ou embarqué ; orientée grand-public ou public averti ; généraliste ou spécialisée pour un usage spécifique (pare-feu, routeur réseau, grappe de calcul…) ; certifiées sur un matériel donné ; ou tout simplement entièrement libres, dépourvues de code propriétaire.
Parmi les plus célèbres distributions, on peut citer Slackware, apparue en 1993, qui est aujourd'hui la plus ancienne distribution encore en activité, toujours maintenue par Patrick J. Volkerding ; Debian, éditée par une communauté de développeurs ; Red Hat, éditée par l'entreprise américaine du même nom qui participe également au développement de Fedora Core ; ou encore SuSE, à l'origine une traduction allemande de Slackware, qui a depuis évoluée en intégrant certains sous-système issus de Redhat.
De nombreuses autres distributions plus ou moins spécialisées existent, étant pour la plupart dérivées des projets sus-cités. Par exemple voici quelques distributions spécialisées « environnement de bureau » : Ubuntu, éditée par Canonical Ltd qui est dérivée de Debian ; Mepis également fondée sur Debian ; Zenwalk dérivée de Slackware ; Mandriva, dérivée de Red Hat, aujourd'hui éditée par la société française de même nom et impliquée dans plusieurs projets libres. Il existe également des distributions dites LiveCD, dont l'une des plus célèbres est Knoppix, qui offrent la possibilité de démarrer un système d'exploitation Linux complet et d'accéder à de nombreux logiciels à partir du support (CD, DVD, ou clé USB) sans installation préalable sur le disque dur, et sans altérer son contenu. Cette souplesse d'utilisation a fait qu'elles sont devenues un support très populaire de démonstration d’utilisation de Linux, et sont même utilisées comme outils de maintenance système. Parmi les distributions Linux entièrement libres recommandées par la Free Software Foundation, on peut citer Trisquel et gNewSense.
Un des enjeux qui se posent pour les distributions Linux est de nouer des partenariats avec des fabricants d'ordinateurs afin qu'il devienne facile de trouver un ordinateur préinstallé sous Linux. Car même si certaines distributions affirment avoir rendu l'installation d'un système Linux aussi simple que celle des systèmes d'exploitation concurrents, le simple fait d'avoir à être au courant qu'une alternative existe, d'être prêt à accepter des changements dans ses habitudes et d'avoir à installer soi-même le système constitue un désavantage indéniable par rapport à la situation privilégiée dont jouissent les distributeurs de Microsoft Windows et de Mac OS X. Le système de Microsoft est en effet omniprésent et Apple est en même temps le fabricant des Macintosh.
À défaut, les usagers de Linux réclament de pouvoir être remboursés, lors de l'achat d'un ordinateur neuf, de la part du prix correspondant au système d'exploitation et aux logiciels qu'ils n'ont pas l'intention d'utiliser, comme la loi de certains pays le permet. Si la société Apple s'est montrée plusieurs fois coopérative face à de telles demandes, le remboursement de Microsoft Windows est en général long et difficile bien qu'actuellement une série de jugements ait permis à certains consommateurs de se faire rembourser par les fabriquants. Devant la difficulté d'obtenir ce remboursement fondé sur le CLUF, dès 1998, les associations Linuxfrench et AFUL ainsi que Roberto Di Cosmo ont lancé en réaction une action pour la détaxe Windows.
Cette situation existe en Europe et en Amérique du Nord, mais pas dans certains pays d'Amérique du Sud où les distributions de Linux ont plus de parts de marché que Windows.
Cette situation de quasi monopole explique en partie la faible diffusion en Europe et en Amérique du Nord de Linux chez les particuliers. Un autre frein à l'adoption massive de Linux est la faible compatibilité avec les programmes windows (d'où le développement de wine qui d'ailleurs collabore avec ReactOS) ainsi que la faible ressemblance entre Linux et windows, rebutant les utilisateurs lambdas, habitués à Windows, à faire l'effort nécessaire pour s'adapter à Linux. Cette constatation est d'ailleurs à l'origine de la distribution Ubuntu qui tente de permettre une "transition en douceur" entre Windows et Linux.