water bubble :) l'ordinateur, mon ami ? water bubble

Réflexion sur les systèmes d'exploitation numériques et l'aliénation des utilisateurs.
Mémoire de recherche de fin de DSAA Graphisme, réalisé à l'Esaat en 2025-2026




[1] Bien que le premier ordinateur date de 1946, il est généralement considéré que le premier ordinateur à utiliser une interface graphique est le Xerox Alto, sorti en 1973.
Hubert, (2024), Xerox : Le Visionnaire Oublié de la Silicon Valley, CNC Expertise, en ligne, consulté le 9 novembre 2025

Introduction

Aujourd’hui, l’ordinateur est devenu central dans notre société, il nous sert au travail, aux loisirs, à la gestion administrative et contient nos documents, nos souvenirs. Par sa complexité technologique, celui-ci n’est pas connu en profondeur par beaucoup de ses utilisateurs. Il n’est étudié pour ses capacités techniques et technologiques que par des spécialistes de l’informatique, afin de le rendre, de manière exponentielle, toujours plus rapide et performant.

Il est plus rare que l’on se pose la question de son apparence, plus précisément, de son interface et non de sa forme matérielle. Pourtant, l’interface d’un ordinateur est particulièrement importante à étudier, car elle est la première information s’affichant sur un écran et la première avec laquelle les utilisateurs vont interagir. C’est grâce à celle-ci que les premières habitudes des utilisateurs vis à vis des ordinateurs se créent. Avec cinquante années de recul depuis la création de la première interface graphique d’ordinateur [1], il me paraît intéressant aujourd’hui de les observer en tant qu’objets graphiques, designés.

Dans ce mémoire, je compte particulièrement mettre en lumière les raisons et les conséquences sur les utilisateurs de la forme et de l’apparence des interfaces de systèmes d’exploitation d’ordinateurs. Je souhaite étudier leur esthétique, mais aussi les interactions utilisateur-interface, en profondeur. La transparence dans le domaine de la création informatique et particulièrement d’interface, est assez rare. En tant que graphiste mais aussi en tant qu’utilisatrice, je souhaite proposer une analyse et clarifier les procédés utilisés lors de la création d’interfaces de systèmes d’exploitation.

Le premier problème étudié ici est celui de la place de l’utilisateur dans la création des interfaces et, à travers cela, des produits numériques créés aujourd’hui. Le second problème que je souhaite mesurer est celui de l’origine et de l’évolution des diverses habitudes des utilisateurs. Grâce à cette étude, je pourrais émettre une hypothèse plus éclairée sur les conséquences de ces habitudes et la direction d’usage donnée aux utilisateurs. Avec cet écrit, je souhaite donner aux lecteurs les clés pour une meilleure compréhension de leurs propres utilisations des ordinateurs, afin qu’ils puissent identifier si leur utilisation est dirigée ou non par des logiciels et si, une fois conscients de leurs habitudes, ceux-ci souhaiteraient les changer.

Je pose alors la problématique suivante : Dans quelle mesure et dans quel but les interfaces graphiques des systèmes d’exploitation conditionnent-elles leurs usagers ? Je m’interroge également dans cet écrit sur les impacts de l’environnement capitaliste, où évoluent les interfaces en tant que produits vendus, sur les utilisateurs, les manières dont celui-ci oriente des habitudes de consommation, d’utilisation. À travers ces questions, je souhaite clarifier l’impact des habitudes, dans le cadre des outils numériques, sur la liberté que peuvent avoir les utilisateurs mais aussi les créateurs d’interfaces.

Pour débuter ce mémoire, je souhaite clarifier ce qu’est l’environnement économique mais aussi technologique où évoluent les systèmes d’exploitation, ce dont ils peuvent dépendre. Ensuite, je souhaite mettre en lumière et expliquer les divers mécanismes instaurés pour diriger les utilisateurs, les amener vers une potentielle servitude et vers la croyance en une nécessité de l’informatique louée par les entreprises. Pour terminer, je m’interrogerai sur les améliorations possibles existantes et la manière dont les utilisateurs designers graphiques et graphistes peuvent reprendre la main et obtenir une plus haute marge de liberté.

I. Comprendre l’environnement où évoluent les systèmes d’exploitation

1. Les interfaces numériques, leur rôle, leur impact, leur chronologie

Afin de rendre compréhensible ma réflexion au plus grand nombre, je souhaite clarifier les définitions des termes de ma recherche, en commençant par une explication du vocabulaire lié à la création graphique et numérique ainsi qu’aux technologies numériques. Un ordinateur est composé de deux parties majeures. La partie dite de hardware est constituée des composants physiques de l’ordinateur, toute part tangible dans celui-ci. La partie dite de software quant à elle, comprend les éléments intangibles de la machine, le système d’exploitation, aussi appelé SE ou OS, de l’anglais operating system, les logiciels et micrologiciels. Un système d’exploitation est le cerveau d’un ordinateur, celui-ci dicte comment l’action d’un utilisateur doit faire réagir la partie de hardware.

Lors de la mise sous tension d’un ordinateur, celui-ci lance un micrologiciel appelé BIOS, pour Basic Input Output System, qui active la carte mère et ses périphériques et recherche le système d’exploitation. C’est à ce moment que l’utilisateur peut commencer à interagir avec son ordinateur grâce au clavier, à la souris, au touchpad et parfois à l’écran. Sans système d’exploitation, il ne serait possible que de visualiser du texte à l’écran et d’écrire avec un clavier connecté par câble, seule interaction possible avec BIOS. Il serait aussi impossible de réaliser plusieurs tâches simultanément. L’utilisateur lambda d’un ordinateur est entièrement dépendant du système d’exploitation pour réaliser des tâches sur son ordinateur.

Le système d’exploitation permet de donner une forme aux informations présentes dans un ordinateur, là où le BIOS ne peut qu’afficher un texte à l’écran, avec un SE, il est possible de visualiser du contenu iconographique et textuel. Celui-ci permet également certaines interactions que peut faire l’utilisateur sur la machine. L’utilisation de la souris est un des exemples les plus perceptibles pour les utilisateurs, mais beaucoup d’actions qui semblent innées pour ceux-ci comme les raccourcis claviers et le menu contextuel dit du « clic droit » viennent également de la sollicitation du système d’exploitation.

Ces systèmes d’exploitation permettent la visualisation et l’interaction sur les machines, que l’on peut rassembler autour de deux termes clés : la partie d’UI, User Interface, et la partie UX, User eXperience. L’UI représente l’interface en tant que produit, telle qu’elle est reçue par un utilisateur. Ce n’est pas uniquement son apparence mais également les manières dont l’utilisateur peut agir face à elle. Dans le cas d’une interface de bureau d’ordinateur, l’interface utilisateur consiste à la fois en l’apparence du bureau, du fond d’écran, des icônes et de la barre des tâches, mais aussi de l’interaction que l’utilisateur peut engager, par exemple l’ouverture d’une application grâce à un clic sur une icône. L’expérience utilisateur (UX) contient l’UI, mais vient se focaliser sur la réaction des utilisateurs et ce que l’interface leur fait ressentir. Le terme d’expérience utilisateur est surtout utilisé lors de phases d’essai, pour observer les réflexes des utilisateurs et si l’interface est utilisée comme les designers l’avaient anticipé ou non. L’expérience est ici à la fois l’observation des comportements utilisateurs par des professionnels du design, mais aussi, dans le cas des interfaces, l’apprentissage et la compréhension par les utilisateurs de celles-ci.

Pour créer une expérience utilisateur de qualité, certains designers, comme Jakob Nielsen ont écrit des règles pour guider la création d’interfaces [2] Ces règles se croisent en général avec des règles d’accessibilité, ce qui est notamment le cas dans les lignes de conduite du Material Design, actuellement dans sa troisième version, de Google [3]. Windows et MacOS ont également leurs propres règles pour le design d’application sur leurs appareils, qui sont disponibles en ligne [4] [5].

Les trois systèmes d’exploitation les plus utilisés aujourd’hui sont les suivants. Windows occupe la plus grande part du marché avec environ 70% des utilisateurs, suivi de MacOS pour environ 15% et Linux pour environ 6% [6]. Il existe d’autres systèmes d’exploitation, tels que FreeBSD, mais leur part d’utilisateurs sur le marché aujourd’hui est très négligeable.

L’impact de Microsoft et Apple, propriétaires de Windows et MacOS, est intimement lié à l’histoire des ordinateurs. Parmi les premiers ordinateurs commercialisés, dans les années 1970, le IBM Personal Computer fonctionnait déjà avec un système d’exploitation de Microsoft, nommé MS-DOS. Une autre des grandes entreprises de l’époque était Xerox, qui réalisa le Xerox Alto en 1973, le premier ordinateur avec une interface graphique. Cet ordinateur n’a été utilisé presque qu’en milieu universitaire mais inspira le Apple Lisa, en 1983, le premier Macintosh en 1984, ainsi que la première version de Windows en 1985.

À la sortie de Windows 1.0, Steve Jobs a accusé Bill Gates, qui travaillait sous sa direction, d’avoir volé l’interface du Macintosh pour la création de Windows, et Bill Gates l’a en retour accusé d’avoir volé Xerox, dont il s’est également inspiré.

“Well, Steve, I think there’s more than one way of looking at it. I think it’s more like we both had this rich neighbor named Xerox and I broke into his house to steal the TV set and found out that you had already stolen it” [7]

Cela peut paraître anecdotique, mais c’est de part cette inspiration commune que s’expliquent les plus grandes ressemblances visuelles et de fonctionnement entre MacOS et Windows, ressemblances qui existent encore aujourd’hui.

Les ressemblances graphiques entre les différentes interfaces ne semblent pas forcément flagrantes aujourd’hui, mais ces systèmes d’exploitations sont les premiers intégrant une interface dite graphique, avec des visuels au lieu de lignes de texte et ce sont ceux où l’analogie du bureau de travail est apparue. Pour la première fois, les fonctions de l’ordinateur avaient une apparence sous forme de pictogramme. Bien que la stylisation soit légèrement différente, les objets choisis pour les représenter étaient les mêmes, la poubelle pour la suppression de documents, les dossiers en pochette pour les ranger, la palette de peinture pour un dessin au pixel. En plus de cette forme similaire, la manière de s’ouvrir et se superposer des logiciels étaient comparables, c’est ce qu’on appelle aujourd’hui un fonctionnement en fenêtre.

La sortie anticipée de Windows 1 en 1985 n’a pas permis de finaliser les logiciels qu’il pouvait supporter, les empêchant de fonctionner correctement sur un ordinateur qui n’est pas un Macintosh. Ce n’est qu’avec Windows 3.1 que le SE commence à devenir un réel concurrent aux SE installés sur les Macintosh. À partir de la version suivante, Windows 95, Microsoft commence à passer d’un cœur de cible professionnel ou passionné par la technologie à une clientèle plus large, dans le but de démocratiser l’outil informatique. De son côté, Apple a su conserver son public, notamment dans les professions de la PAO et des graphistes, grâce à une interface élégante et une très bonne compatibilité logicielle, par exemple avec Adobe Photoshop et QuarkXpress, logiciel de PAO populaire dans les années 1990, ou encore avec Aldus Freehand, logiciel de dessin vectoriel qui sera plus tard racheté par Adobe et fusionné avec Adobe Illustrator. Dans les années 2000, le marché s’est stabilisé autour de Apple et Microsoft et encore aujourd’hui, ceux-ci se partagent le duopole des systèmes d’exploitation numériques.

2. Un marché figé par le monopole des GAFAM

Le capitalisme, c’est la privatisation des moyens de production et des services [8]. Son objectif premier est la recherche de profits les plus élevés possibles. Les entreprises privées qui détiennent les moyens de production vendent leurs produits, afin de générer des profits, dans un marché. Le marché désigne ici un lieu, physique ou virtuel, où se rencontrent l’offre et la demande et où le prix des produits et des services vendus est fixé [9]. Dans le cas présent, un logiciel faisant fonctionner le matériel acheté, l’ordinateur. De nos jours, certaines entreprises prennent tant de place sur le marché du numérique qu’on les rassemble sous un acronyme : GAFAM, pour Google, Apple, Facebook (aujourd’hui devenu Meta), Amazon et Microsoft. Là où au 19e siècle, la notion de capitalisme était appliquée à la grande industrie, où l’on parle donc de capitalisme industriel, comme le dénonçait Karl Marx, il est important de comprendre qu’aujourd’hui, les produits vendus sont moins tangibles. Le terme de capitalisme tardif, notion utilisée par des sociologues tels que Frédéric Jameson désigne, quant à lui, le capitalisme tel qu’il existe actuellement, en 2025.

Comme nous le verrons dans les prochaines parties, le logiciel vendu n’est pas la finalité, mais simplement une étape, un moyen de récupérer des informations et de fédérer un utilisateur en direction d’une marque. On peut alors utiliser le terme de néo-capitalisme, définit comme un capitalisme de grands groupes, avec une vente de biens immatériels, là où l’image d’un produit devient plus importante que le produit en lui même [10], ce qui est le cas des SE. Aujourd’hui, le marché des systèmes d’exploitation d’ordinateurs est concentré autour de deux entreprises, Microsoft, qui produit Windows, et Apple, qui produit MacOS. Dans ce marché fermé par ces deux entreprises et par la longévité de ce monopole, cet environnement de vente s’est quelque peu figé, aucune nouvelle entreprise ne peut développer de SE avec pour but de rivaliser avec ces deux GAFAM et de prendre leur place sur le marché.

Il est difficile de vendre, en raison des habitudes des utilisateurs d’ordinateurs, un nouveau système d’exploitation avec des différences fondamentales de fonctionnement vis-à-vis de Windows et MacOS, car ceux-ci fonctionnent depuis les années 1990 d’une manière assez similaire. Je parle ici des deux aspects fondamentaux des ordinateurs qui semblent aujourd’hui inévitables. Le premier est la métaphore du bureau. Les icônes de certaines applications correspondent depuis les années 1980 à leur équivalent sur un bureau de travail tel qu’il existait à cette époque. Les documents sont sur des pages de papier, la corbeille sert à jeter les documents, un dossier sert à ranger des documents, les notes sont écrites sur des bloc-notes ou des stickers, les e-mails sont dans une enveloppe de courrier. Dans certains cas, comme pour la disquette de sauvegarde, l’objet qui donne son apparence à l’icône ne fait plus partie de l’environnement de l’utilisateur aujourd’hui.

Le second aspect, et le plus prévalent, est le fonctionnement en fenêtre. Les logiciels, menus et documents des ordinateurs sont ouverts dans des fenêtres séparées, se superposant dès qu’une nouvelle application est ouverte. Cela est le cas depuis l’arrivée de l’ordinateur Xerox Alto. Cette norme est presque indissociable des systèmes d’exploitation d’ordinateurs et vient même affecter les systèmes d’exploitation de téléphone.

Les produits vendus par ces entreprises sont immatériels et inclus dans l’achat d’ordinateurs préconstruits. Ils sont vendus sous forme de clé de téléchargement pour des entreprises et particuliers. En raison de cela, la plupart des particuliers utilisant Windows et MacOS n’achètent pas séparément ces produits, ce sont seulement les conséquences d’un achat d’ordinateur qui est en fait un package, contenant à l’achat un SE, ce qui facilite l’usage de la machine. En prenant cela en considération, la création d’un système d’exploitation que l’on souhaite être vendu sur le marché, requiert, si l’on souhaite que celui-ci soit destiné au grand public, de s’allier avec un constructeur de hardware, afin que ce SE soit préinstallé sur une machine. Il faut donc lever des fonds et avoir une réputation dans le domaine de l’informatique pour lancer un système d’exploitation, avant même qu’il soit question de rentabilité de celui-ci.

Un des exemples les plus récents de systèmes d’exploitation créés est ChromeOS, qui appartient à Google, préinstallé sur des Chromebooks. Celui-ci n’a pas pour but de remplacer Windows, MacOS ou un autre système d’exploitation, mais d’étendre une gamme de produits Google du téléphone à l’ordinateur. En effet, c’est en étant propriétaire d’Android que Google a développé ce SE.

Le marché des systèmes d’exploitation n’est pas en mesure de recevoir de nouveaux produits viables de nouvelles entreprises, car celui-ci est tenu par les GAFAM et qu’il n’y a pas de place pour un changement brutal. Produire un SE avec pour volonté de générer du profit ne semble pas pertinent si nous ne démarrons pas avec un capital élevé et une réputation dans le secteur numérique. En revanche, des SE open source existent, le plus utilisé étant Linux, qui a été créé en 1991, mais il est très loin de pouvoir concurrencer Windows et Apple. Il est important de noter que Linux n’aurait pas pu exister sans le système Unix, créé dans les années 1970, et est une famille de systèmes d’exploitation ouverts qui sert de base à presque tous les systèmes d’exploitation mobile et ordinateur [11]. Je parlerai plus du rôle de Linux et des systèmes d’exploitation à but non commercial dans ma troisième partie.

Le problème de ce manque de concurrence est qu’il n’y a pas d’innovations réelles qui se développent. Je distingue ici les notions d’innovation, de nouveauté et d’invention. L’innovation n’est aujourd’hui un terme utilisé que comme maître-mot, un mot qui ne signifie pas une chose claire, mais qui donne à ceux qui écoutent la croyance d’une chose admirable.

« Un “maître-mot”, c’est un signifiant, mais pas tout à fait un signe, en tout cas pas un signe dont la signification soit jamais clarifiée. » [12]

Dans le cas d’une nouveauté, la notion de découverte ou d’invention est indissociable. Si quelque chose est une nouveauté, alors c’est que soit, dans un contexte social précis, personne n’a vu cette chose, ou que cette chose n’existait pas auparavant. La nouveauté peut être elle aussi utilisée comme un maître-mot, dans le cas ou la chose présentée comme nouvelle ne le serait pas réellement. Dans le livre de Olivier Assouly, Le capitalisme esthétique, Essai sur l’industrialisation du goût, l’auteur nous explique comment les évolutions (inventions) esthétiques, qu’il qualifie de « goût », des produits se créent, et sa conclusion est que ce sont les acteurs en marge du marché, à savoir, ceux qui ont à gagner en créant un produit avec une nouveauté, ou qui ne participent pas au jeu du marché, qui permettent le renouvellement et des avancées significatives pour celui-ci. Or ici, ces acteurs de marge n’ont pas d’espace pour se développer et tenter de devenir une norme.

« Le goût tire sa richesse de la norme esthétique, mais surtout, comme le soulignaient les courtisans à la Cour, de la capacité à se démarquer de la règle, à être inventif, en jonglant avec ses limites et son conformisme. Or, la transposition du spécimen aristocratique, afin de comprendre les efforts que les capitalistes mettent en œuvre pour simuler les jouissances à l’aide de prescriptions, souligne l’impossibilité marchande de procéder seul à un enrichissement du goût. Il faut que le goût puisse éclore de façon improductive pour se générer. En effet, le goût se nourrit à la marge de sa propre discipline, dans le libre jeu de la grâce et dans ce qu’il a d’indomptable, à travers la puissance sociale et individuelle où se déploient les compétences du producteur autant que celles de son public » [13]

Le marché des systèmes d’exploitation traversant actuellement une mauvaise passe, économiquement et créativement parlant. Il n’a que peu de voies pour proposer des produits avec de réelles nouveautés et non seulement des « innovations » qui ne permettent que d’avoir une fausse raison de distinguer de nouveaux SE par rapport aux précédents. Or, pour générer du profit, il est primordial de créer périodiquement de nouveaux produits.

Ces produits conditionnent leurs utilisateurs, créent leurs habitudes, habitudes insoupçonnées par les utilisateurs, qui deviennent une seconde nature pour eux, or c’est en ayant conscience de leurs présences qu’il est possible de reprendre un contrôle sur nos actions en tant que consommateurs. Il y a un réel manque de transparence de la part des entreprises sur la manière dont les habitudes utilisateur sont forgées et sur l’intérêt qu’ont ces méga-corporations à ancrer les utilisateurs dans des usages, prétendant leur simplifier la vie.

II. Construire l’habitude, créer la dépendance

1. Comment tirer des revenus d’un produit gratuit ?

« Si c’est gratuit, c’est vous le produit », cette expression française popularisée au début des années 2000 continue d’être pertinente aujourd’hui, surtout pour son application dans le domaine de la publicité. Mais dans le cas d’un système d’exploitation, quels éléments permettent aux entreprises de faire du profit ? Ici, les deux entreprises se partageant le duopole des systèmes d’exploitations ont des stratégies différentes.

Tout d’abord il faut comprendre que Windows et MacOS ne sont pas réellement gratuits. Lorsqu’un ordinateur préconstruit avec un système d’exploitation est acheté, le prix de la clé du système d’exploitation est incluse dans le produit. Une clé Windows 11 coûte pour un particulier entre 1€ et 10€ selon la version (personnelle, professionnelle, étudiante, …) et le site de vente [14] , ce n’est pas la source principale de revenus de Microsoft. Les versions pour entreprises génèrent elles plus de revenus, mais des clés produit légitimes sont accessibles à des prix moindres, d’autant que ceux-ci demeurent des produits vendus une seule fois et fonctionnant à vie.

Windows se focalise plutôt sur la vente de services sous formes d’applications à ajouter sur son ordinateur et sur son téléphone, ainsi que l’intégration de la publicité de ses produits, sur ses systèmes d’exploitation. Il est également possible que Microsoft génère des revenus par la vente de données utilisateurs. Microsoft nie actuellement la vente des données utilisateurs à des annonceurs.

« Nous utilisons les données de diagnostic obligatoires pour améliorer Windows. Nous utilisons les données de diagnostic facultatives pour améliorer Windows et les produits et services associés. » [15]

Mais il est possible que dans le futur la vente d’informations devienne la source de revenus principale des systèmes d’exploitation, comme cela est le cas pour les navigateurs web. Bien sûr, obtenir des informations sur les utilisateurs reste profitable, même si ces données ne sont pas vendues, car elles aident à mieux comprendre sa clientèle et lui adapter ces produits. Le moteur de recherche Microsoft Edge, installé sur chaque ordinateur sous Windows et utilisé par défaut, permet lui de générer des profits pour Microsoft par la récolte de données et la location d’espaces publicitaires sous forme de liens sponsorisés, mis en haut des résultats de recherche.

« En fonction de vos paramètres publicitaires, Microsoft personnalisera la publicité que vous voyez en fonction d’autres données que vous partagez avec nous en plus de votre activité de navigation. Vous pouvez voir des publicités en fonction de vos centres d’intérêt, de vos favoris, de votre emplacement, de vos informations démographiques, de la façon dont vous utilisez nos produits, des recherches Microsoft Bing et d’autres contenus. » [16]

Windows 11 est un excellent exemple de l’amplification de la vente de services de Microsoft. Dans les présentations produits créées lors de la sortie de Windows 11, les points valorisés sont l’intégration de Microsoft Teams, qui est un service avec des fonctionnalités payantes [17], et la refonte du Microsoft Store, qui sert à la vente et à l’installation de nouvelles applications. Un compte Microsoft est également nécessaire au lancement d’un ordinateur, il n’est plus possible d’avoir une session locale sans effectuer de manipulation qui requièrent une connaissance de l’informatique. Pour créer un compte Microsoft ou connecter le sien, il faut une connexion internet, la rendant quasi obligatoire pour utiliser un ordinateur pour la première fois.

ChromeOS, le système d’exploitation des Chromebooks, utilise un modèle de revenus similaire. Les applications préinstallées sont des services de Google, avec des fonctionnalités payantes, comme l’achat de stockage cloud sur Google Drive, et conservant les données utilisateur à des fins de profit notamment en utilisant les données utilisateur pour entraîner son modèle d’intelligence artificielle, Gemini [18].

Apple utilise un modèle commercial différent, plus axé sur la vente d’objets. En effet, acheter MacOS, c’est acheter un ordinateur Mac. Le produit tangible ne peut pas être séparé du système d’exploitation, contrairement à Windows qui n’est pas obligatoirement vendu avec des machines Microsoft. La forme est aussi importante, si ce n’est plus que l’interface qui va avec. Celle-ci doit dès le premier coup d’œil montrer aux clients qu’ils ont en face d’eux un produit de luxe, élégant et raffiné. Mais l’objet n’est pas le seul à induire la vente de produit. L’une des fonctionnalités des appareils Apple les plus connues est le Airdrop, qui permet de transférer rapidement et facilement des fichiers d’un produit Apple à un autre. Cet outil très pratique permet de motiver l’achat d’autres produits Apple dès lors que l’on en a un.

Apple utilise également son image de marque très ancrée pour fidéliser ses clients. Les produits Apple sont assez chers pour leur marché, ils dégagent une image luxueuse pour leurs utilisateurs. Le logotype Apple est un symbole, il est fièrement affiché au milieu des appareils. Dans l’interface même, celui-ci apparaît à l’allumage de la machine. La marque Apple renvoie à des idées d’innovation, d’élégance et de qualité, et c’est en incarnant cette image par leurs produits et leurs interfaces qu’Apple se maintient comme une des marques les plus iconiques du monde.

Bien sûr, Apple récolte également, au même titre que Microsoft les données utilisateurs, notamment pour les assistants vocaux [19], mais tout comme Microsoft, Apple affirme ne pas vendre ou conserver ces données, et uniquement les traiter en interne pour l’amélioration de ses produits. Apple possède aussi un navigateur, Safari, pré-installé et utilisé par défaut sur MacOS et iOS, le SE des mobiles iPhones, mais celui-ci n’est pas un moteur de recherche et Google est le moteur de recherche par défaut. Le résultat pour l’utilisateur est donc une interface différente mais des recherches Internet avec des publicités et liens sponsorisés en haut des recherches. Apple propose aussi des options payantes au sein de son interface MacOS, notamment la location mensuelle d’espace de stockage Cloud. Tout comme sur Windows, il y a sur MacOS un magasin d’applications, l’Apple Store, où des éditeurs d’applications peuvent payer pour être propulsé en tête de liste des ventes.

Pour poursuivre, retenons que le système d’exploitation n’est pas le produit final en lui-même. Dans le cas de Windows et ChromeOS, il sert à la vente de services supplémentaires et dans le cas d’Apple, il sert à la vente de produits et de services supplémentaires. Dans le cas de la vente de services, il y a pour les entreprises un intérêt commercial à vendre un produit incomplet, améliorable, voire mauvais, que l’on viendrait rendre meilleur, ou simplement réparer avec des services payants supplémentaires.

2. Innovations et merdification, vendre plus cher, apporter moins

On pourrait se dire, lorsqu’on ne réfléchit pas aux mécanismes de la création de produits et du marché qu’une fois un produit acheté avec toutes ses options, nous possédons la meilleure version possible de celui-ci, sans bugs ni défauts. Or, ce n’est pas vrai. La réalité est que le produit doit toujours être perfectible, afin de pouvoir vendre dans le futur une nouvelle version de celui-ci. Dans le cas d’un objet physique, la notion d’obsolescence programmée est souvent utilisée. L’obsolescence programmée étant le fait d’utiliser délibérément des composants avec une durée de vie courte, ou de moindre qualité pour empêcher un objet d’être pérenne, dans le but de vendre plus de celui-ci [20].

Les systèmes d’exploitation n’ont pas exactement en eux-mêmes un mécanisme qui les rend inutilisables au bout de quelques années, mais ce sont les développeurs et designers de ceux-ci qui décident quand le produit ne sera plus mis à jour et sa compatibilité avec des applications et produits sera abandonnée. Récemment, l’exemple de la fin de service de Windows 10 nous a permis de voir que cela n’arrive pas lorsque les consommateurs cessent d’utiliser un produit, mais que cette fin peut survenir tant qu’un produit créé par la même marque plus récent existe. Dans le cas précédemment cité, c’est entre 200 millions et 400 millions d’ordinateurs qui ne peuvent pas passer de Windows 10 à Windows 11 [21]. Windows 10 n’est pas obsolète, il est encore très utilisé et sera encore mis à jour par Microsoft pendant un an, si l’on achète le forfait extended security update, dit ESU, qui coûte 61 dollars pour une année de mises à jour nécessaires à la sécurité de l’ordinateur [22].

Dans cette situation, le problème principal est le contrôle qu’a l’entreprise sur ses produits et surtout sur la fin de ceux-ci. Comme nous l’avons vu dans la première partie, Microsoft et Apple sont un duopole sur le marché des systèmes d’exploitation, et un ordinateur devient difficile à utiliser si le SE cesse de fonctionner. Du jour au lendemain, ces entreprises peuvent désactiver à distance tous les ordinateurs de la planète, par une simple mise à jour mal programmée. « La mise à jour Windows 11 24H2 (KB5063878), publiée en août 2025, est à l’origine d’un problème majeur : plusieurs utilisateurs rapportent des dysfonctionnements avec leurs disques SSD et HDD, allant de la disparition complète du périphérique à la corruption de données. » [23].

Ou encore en supprimant par exemple les comptes utilisateurs. Microsoft et Apple peuvent tous les deux se le permettre, car ils sont dans cette situation de dominance de produire des systèmes d’exploitation avec des défauts et des bugs. Je ne veux pas dire par ce paragraphe que les entreprises vont détruire tous les ordinateurs du monde sur un coup de tête, cela ne leur apporterait pas de revenus, et entamerait la confiance portée par les utilisateurs. Cependant, leur situation de domination leur permet de proposer des produits avec des défauts et de contraindre à leur utilisation. Les usagers sont dépendant des entreprises, sans se rendre compte qu’ils le sont devenus et ne cherchent pas à sortir de cette dépendance.

Il est même parfois profitable pour des entreprises de rendre un produit moins efficace que sa version précédente. Vient alors le concept de merdification, appelé en anglais enshittification. Le principe est assez simple : prendre un service existant et le rendre de moins bonne qualité et plus cher [24]. Cela passe souvent par des options précédemment gratuites et qui deviennent payantes, ou la perte de certaines options avec une mise à jour. Le terme est souvent utilisé dans des cas de forfaits, car le service n’est pas vendu mais loué. Or aujourd’hui, il peut également s’appliquer aux systèmes d’exploitation. Outre la multiplication des publicités et des options payantes dans ceux-ci, il existe également des options qui sont supprimées, notamment des options de personnalisation d’interface. L’une des options manquantes sur Windows 11 qui a le plus été remarquée est le manque de contrôle sur la barre des tâches. Précédemment, celle-ci pouvait être clipsée sur le haut ou le côté d’un écran, mais désormais il n’est plus possible de la déplacer sans passer par un logiciel tiers [25].

Les paramètres du système sont également de plus en plus complexes à localiser, en raison de leur multiplication ou de leur emplacement. Cela n’est pas un problème qui n’apparaît que sur Windows, sur MacOS, certains paramètres sont également organisés dans des sous-menus, avec un emplacement qui est difficilement trouvable pour un utilisateur qui le recherche pour la première fois. Il est possible de se dire que cela est fait pour rendre les paramètres les plus utilisés en avant, mais aucun réglage, sur Windows ou MacOS n’est mis en avant dès l’ouverture des paramètres, chacun est rangé dans des menus qu’il faut ouvrir.

En tant que designer, c’est un point qui est particulièrement alarmant. Initialement, le design, était une question d’ergonomie, qui avait pour principe d’améliorer un produit ou une idée “Because everything is designed, the number of areas is enormous, ranging from clothes and furniture to complex control rooms and bridges. This book covers everyday things, focusing on the interplay between technology and people to ensure that the products actually fulfill human needs while being understandable and usable. In the best of cases, the products should also be delightful and enjoyable, which means that not only must the requirements of engineering, manufacturing, and ergonomics be satisfied, but attention must be paid to the entire experience, which means the aesthetics of form and the quality of interaction.” [26].

Actuellement, le design de l’interface vient jouer contre les utilisateurs, leur empêchant de manipuler leur interface comme ils le souhaitent, leur enlevant des options et en les rendant de plus en plus confus sur la manipulation de leurs propres machines. En rendant la customisation plus complexe, les entreprises s’assurent aussi que la majorité des utilisateurs aient une interface similaire induisant une uniformisation des usages. Cela est important car les entreprises veulent créer pour un seul utilisateur type, pouvant être nommé persona. Ce persona doit représenter chaque client des systèmes d’exploitation. Il est dans la publicité et la communication la justification numéro un pour toutes les modifications de l’interface.

3. La cage des entreprises, les utilisateurs perdent le contrôle

Le but des entreprises est d’aliéner les consommateurs, afin que ceux-ci comprennent de moins en moins le fonctionnement de leur machine et ne puissent plus l’altérer. Si l’utilisateur ne peut plus faire de choix ou si ce choix est tant orienté que l’utilisateur ne réalise pas qu’il y avait une possibilité autre que celle créée par les entreprises au travers de leur SE, l’utilisateur perd son pouvoir d’agir avec une connaissance éclairée. De plus en plus, les SE retirent des possibilités aux utilisateurs, ou les rendent plus inaccessibles afin de décourager ceux-ci à la customisation de leur interface.

Le deuxième avantage majeur pour les entreprises est qu’en donnant de moins en moins de possibilités à l’utilisateur, celui-ci à de moins en moins de chances de rencontrer des bugs, ou de nécessiter en général un dépannage particulier. Pour les entreprises cela est profitable, le service après vente peut être uniformisé et géré en majorité par un chatbot sur un site web et les rares problèmes restants seront plus faciles à reproduire sur une autre machine. Si un problème survient car l’utilisateur a apporté des modifications que le fabricant des SE n’a pas souhaité proposer, celle-ci n’est pas tenue de chercher à le régler, même si celui-ci venait à découler du SE en lui-même.

Les SE tendent donc à supprimer des fonctions annexes, qui ne sont pas utilisées par la majorité des consommateurs, mais aussi, les fonctions et paramétrages qui ne sont pas souvent utilisés. Comme dit précédemment, dans les paramètres Windows ou MacOS, chaque réglage est rangé dans des menus et sous-menus, rendant leur accès plus complexe. L’impression de simplification de l’interface vient du fait que le bureau d’un ordinateur, sa première impression ne laisse visible que les fonctions les plus utilisées, comme l’ouverture du navigateur ou des dossiers de photographie. Par cette simplification, l’utilisateur perd énormément de contrôle sur sa machine, mais il ne s’en rend pas forcément compte. Il est porté par des promesses publicitaires de simplicité et par ses précédentes connaissances de l’interface.

L’utilisateur est habitué à une utilisation précise d’une machine qui devient de plus en plus complexe. Être habitué à une manière d’utiliser un outil ne signifie pas que l’outil est intuitif, mais pour un utilisateur lambda, les deux sont synonymes. Ce qui lui semble évident devrait l’être pour tout le monde. Plus l’habitude est ancrée depuis une période de temps élevée et plus il est difficile de s’en détacher car elle devient une seconde nature. En elle-même, une habitude n’est pas toujours mauvaise, tout dépend de la nature de celle-ci. Par une habitude trop précise, trop orientée, il est possible pour l’utilisateur d’ignorer d’autres possibilités. Par exemple, si un bouton de démarrage se trouvait sur tous les appareils à droite en haut, toujours au même emplacement, sauf pour un modèle précis, alors toute personne arrivant face au modèle différent se trompera de bouton, de manière réactive, presque inconsciente, mais les personnes étant coincée dans son habitude n’arrivera jamais sans aide à trouver le bouton, car elle ne pourra concevoir le fait que ce bouton puisse se trouver ailleurs qu’en haut, à droite de la fenêtre de l’ordinateur. Il faut absolument pour l’utilisateur garder une marge d’improvisation ou de contrôle sur ses habitudes, afin de ne pas être enfermé par ses habitudes, incapable de concevoir des possibilités que nous n’avons jamais vu précédemment.

En réduisant les choix proposés aux utilisateurs et en rendant plus complexe la machine, on les amène à moins chercher à comprendre les mécanismes derrière leur écran. Cela rend l’ordinateur plus accessible au sens qu’il n’y a pas autant de prérequis de connaissances sur le code, ou le fonctionnement d’une carte mère pour comprendre comment utiliser un ordinateur, mais cela crée aussi des utilisateurs de plus en plus aliénés, et en conséquence, exploitables.

Une personne qui comprend l’ordinateur saura rechercher les paramètres de celui-ci et ne sera pas autant confinée aux changements par les entreprises du secteur informatique créant les systèmes d’exploitation et autres interfaces numériques. À l’inverse, une personne dont le besoin est d’utiliser un ordinateur et rester superficielle sur les tâches accomplies sera bien plus réceptive aux propositions mises en valeur par ces entreprises. Elle aura alors une probabilité plus forte de ne pas percevoir les choix qui lui sont proposés aveuglée par la possibilité la plus mise en avant.

Au niveau des systèmes d’exploitation, certaines habitudes sont ancrées depuis les premiers ordinateurs et ont découlé de métaphores préexistantes. C’est le cas de la forme des icônes d’ordinateurs, qui ont été conçues pour représenter leurs équivalents sur un bureau. La fonction qui permet de supprimer les documents est une corbeille, les fichiers dans la mémoire de l’ordinateur sont rangés dans des dossiers, les courriels sont présents dans une boîte de messagerie, dont l’icône ressemble à une enveloppe. Au départ, dans les années 80-90, la présence des icônes, pour illustrer des fonctions, ont démocratisé l’usage de l’ordinateur auprès du grand public. L’ordinateur devait pour les entreprises qui le produisaient devenir un outil démocratisé, mainstream. Aujourd’hui, l’omniprésence et la récurrence de ces icônes font qu’il est difficilement envisageable de modifier leur signifiant, au risque de troubler les utilisateurs. Nous sommes enfermés par les habitudes.

Pour les GAFAM, habituer les utilisateurs à un système d’exploitation précis est une stratégie profitable, car il devient plus difficile de comprendre des SE différents. Aujourd’hui les habitudes utilisateurs sont si ancrées qu’un changement moindre, comme le positionnement de la barre des tâches sur un ordinateur sous Windows peut suffire à déstabiliser certains des utilisateurs, voire à leur faire préférer une autre version de Windows. Chose intéressante pour les entreprises du secteur informatique, les utilisateurs qui ne sont pas assez expérimentés pour déplacer la barre des tâches sont souvent ceux qui auront du mal à changer leurs habitudes suffisamment pour changer de système d’exploitation. Ce sont souvent des néophytes.

Cet exemple de barre des tâches est aussi assez intéressant car la barre des tâches centrée était jusque-là un élément de l’interface de MacOS. Dans le langage graphique de Windows, cette tendance à tendre vers MacOS devient de plus en plus visible. Le Fluent design [27], comme le nomme Microsoft s’inspire de MacOS dans la conception de ses icônes, de son apparence avec notamment des coins arrondis, mais aussi de son expérience utilisateur, avec un remplacement des tuiles dynamiques de Windows 10 par des widgets.

La disparition des tuiles dynamiques, qui permettaient de mettre en valeur n’importe quel logiciel que l’utilisateur avait installé, a déçu les utilisateurs qui ont été forcés d’abandonner une option qu’ils appréciaient, mais ne seront pas entièrement dépaysés ni prêts à passer sous un nouveau SE pour cette raison, car elle reste assez mineure. En revanche, des utilisateurs MacOS recherchant un nouvel ordinateur verront au travers de Windows 11 des fonctions familières à leur système d’exploitation et pourront prendre en considération l’achat d’un ordinateur sous Windows dans le futur.

Les ordinateurs conçus par la marque Apple sont, comme dit précédemment, des produits plus luxueux, et donc plus chers. Bien que les deux se partagent un duopole, il est toujours profitable de récupérer de nouveaux clients. Apple ne va pas disparaître du jour au lendemain à cause de modifications esthétiques, mais si à terme Windows et MacOS devenaient plus similaires en apparence, Microsoft gagnerait des utilisateurs par ses prix plus bas et son choix de machines plus diversifié et Apple en perdrait car son statut d’élégance de software disparaîtrait. Pour pouvoir tendre vers un plus grand nombre d’acheteurs, Windows tend vers MacOS et MacOS tend à s’éloigner de Windows. MacOS conserve une longueur d’avance dans son design, que Windows semble actuellement imiter. Aujourd’hui, il semble difficile de prédire l’aboutissement de ce cycle.

Les habitudes utilisateur sont dirigées vers des dispositifs profitables pour Microsoft et Apple dans le but de générer un profit grandissant dans un marché capitaliste. Des éléments qui peuvent sembler anodins voire bénéfiques deviennent des cages visant à priver les utilisateurs de leurs choix. Par la subtilité de ces mécanismes et le marketing autour de ceux-ci, les utilisateurs ne réalisent pas toujours ce qui leur arrive et se retrouvent inconscients d’avoir perdu leur liberté éclairée. Par une meilleure compréhension de nos actions, il nous est possible de modifier celles-ci, là où si un choix est invisibilisé, l’utilisateur ne peut le faire sans influence, sans être libre. Ne pas savoir se servir d’un ordinateur, ne pas savoir s’y adapter, ce n’est pas juste perdre l’accès à un loisir, à un jouet. L’ordinateur est aujourd’hui un outil de travail, un outil administratif, mais aussi un outil de communication. Ne pas avoir l’accès à un ordinateur en France, ne pas savoir l’utiliser, amène à une potentielle marginalisation. Ce phénomène se nomme la fracture numérique.

« La fracture numérique est un terme qui fait référence à l’écart qui existe entre les personnes qui ont accès à Internet, aux outils et aux services numériques et celles qui n’y ont pas, notamment en France. Cet écart peut exister pour diverses raisons, y compris des différences géographiques, socio-économiques, d’âge, de capacités ou d’éducation. Il peut aussi être accentué par l’illectronisme, qui désigne la difficulté ou l’incapacité à utiliser les outils numériques et Internet. » [28]

Il faut aujourd’hui nous poser la question de ce qui peut être fait pour nous sortir des cages d’habitude numériques qui nous rendent de plus en plus vulnérables aux entreprises du secteur informatique, mais aussi aux dysfonctionnements de la machine. Comme toute autre machine, un ordinateur est susceptible de s’abîmer, voire de se casser, et comme toute autre machine, il faut alors soit la remplacer, soit la réparer. En ne comprenant qu’une utilisation de surface de l’ordinateur, aucune réparation ne pourra être effectuée et nous serons alors entièrement dépendants de personnes tierces à la moindre panne.

Dans notre volonté de devenir moins dépendants d’entreprises et de personnes tierces vis à vis des interfaces numériques nous ne devons pas cependant faire une chasse à la sorcière de toute habitude et tout système d’exploitation actuellement existant. Il nous faut prendre du recul et poser un regard critique sur l’existant, déterminer si celui-ci peut nous être bénéfique.

III. Comment tendre vers mieux ?

1. Questionner la place des graphistes et designers graphiques dans la création des systèmes d’exploitation

Je souhaite préfacer cette partie par une clarification qui me semble nécessaire. Les designers graphiques travaillant pour Microsoft et Apple, qui réalisent l’UX et l’UI des interfaces Windows et MacOS créent des interfaces selon des contraintes. Je ne souhaite pas dans cette sous-partie me concentrer sur une amélioration de Windows ou MacOS, mais plutôt sur les éléments à questionner si l’on souhaite créer une interface. Comme je l’ai développé dans les précédentes parties, les nombreux problèmes auxquels sont confrontés les utilisateurs découlent d’un environnement capitaliste et je souhaite ici parler d’améliorations possibles, sur les interfaces, en s’affranchissant de la dimension économique.

Je souhaite ici avoir une démarche utilitariste face aux problèmes établis. Je parle ici de l’utilitarisme tel qu’il est défini par le philosophe Jeremy Bentham, plaçant l’utile, défini comme l’apport de plaisir au plus grand nombre, comme le but ultime pour le bonheur [29]. Je considère que le plaisir dans le cadre de l’utilisation d’un ordinateur est acquis lorsqu’une action est réalisée de manière efficace et rapide, apportant une réponse pertinente à la demande de l’utilisateur Je reste concentrée sur le champ des interfaces de systèmes d’exploitation et pour ce domaine, je pense qu’une focalisation sur ce qui peut être utile pour les personnes recevant un produit amène à une démarche pertinente. Pour cette partie je vais m’appuyer sur les travaux du designer Donald Norman et particulièrement sur les notions de l’User-centered design (UCD, conception centrée sur l’utilisateur) et de l’Human-centered design (HCD, conception centrée sur l’humain). La conception centrée sur l’utilisateur est une méthodologie de création qui vise à mettre l’utilisateur au centre du processus créatif en l’impliquant dans chaque étape de la création. La conception d’un produit ne démarre qu’après la compréhension du contexte d’utilisation de celui-ci et reste dans l’objectif d’apporter une solution à un problème rencontré par les utilisateurs [30].

La conception centrée sur l’humain est une évolution de l’UCD, et se concentre sur la compréhension profonde des problèmes rencontrés par des utilisateurs, dans le but de régler ces problèmes au plus près de la source. Le produit final a pour vocation d’améliorer la vie des utilisateurs.

“The challenge is to use the principles of human-centered design to produce positive results, products that enhance lives and add to our pleasure and enjoyment. The goal is to produce a great product, one that is successful, and that customers love. It can be done.” [31]

Dans la précédente partie, j’ai établi que l’utilisateur n’est pas au centre de la démarche des designers et graphistes, dans le domaine des interfaces. La question du profit est devenue si centrale dans la création que tout autre objectif devient secondaire. Les exemples d’interfaces auxquels nous sommes les plus habitués contiennent une multitude de fonctions, et chacune d’entre elles est à requestionner si nous voulons créer une interface centrée sur l’utilisateur. Questionner les éléments d’une interface ne signifie cependant pas de s’opposer en tout point aux éléments présents dans des SE de Microsoft ou Apple, mais reconsidérer ces éléments sur ce qu’ils apportent aux utilisateurs, s’ils sont utilisés, quel est leur rôle et si ces éléments répondent de la manière la plus plaisante d’un point de vue utilisateur à leur fonction. En tant que designer graphique et graphiste nous allons créer des habitudes, il faut en être conscient. Éthiquement, il me semble moralement plus convenable d’informer l’utilisateur sur ses propres habitudes, afin que celui-ci puisse être conscient de ses propres choix.

Dans le but de créer un produit qui serait utile pour ses utilisateurs, il est primordial de qualifier la cible de celui-ci avant de le développer. Windows et MacOS visent de grands segments de la population pour leur proposer un produit unique. Il me semble que cette solution, bien qu’ayant ses avantages, va inévitablement causer des incohérences de fonctionnement dans l’interface. Parler à un néophyte amène à se focaliser sur les commandes de base en cachant les options les moins utilisées pour rendre les options les plus utilisées plus présentes, or cela amènera d’autres personnes à se retrouver frustrées par un manque d’options.

Il est possible à première vue de croire que Windows, que j’ai critiqué dans la partie précédente, se focalise sur une approche pour les néophytes, par sa réduction d’options de personnalisations. Or, bien que Windows propose en effet des options cachées, voire les retire quand celles-ci ne sont pas utilisées, il vient également toujours présenter plus d’étapes dès le démarrage d’un ordinateur, de plus en plus de prérequis pour voir le bureau au premier allumage de la machine. Il semblerait que Windows choisisse divers éléments formant une interface qui sont adaptés pour certains utilisateurs et mettent ces éléments ensemble, sans se poser la question des conflits de fonctionnement entre ceux-ci. Par exemple, le bureau et le menu démarrer sont simplifiés, avec moins d’icônes, qui deviennent plus grandes, plus visibles. Mais lors de l’achat d’un ordinateur, pour démarrer celui-ci, il faut créer un compte Microsoft, connecter l’ordinateur à Internet et configurer plusieurs paramètres avant de pouvoir accéder au bureau.

La question devient alors : Faut-il créer une interface unique pour tous les usagers ? Bien qu’il soit possible de créer plus d’options de personnalisation, cela va aussi créer une interface avec un certain poids qui pourraient être soumise à des ralentissements. En donnant à un utilisateur néophyte une multitude de choix dès son entrée sur le bureau virtuel, nous, designers graphiques, risquons également de le surcharger d’informations, ce qui risque de le démotiver à utiliser un ordinateur, de par sa complexité.

Il faut alors considérer la création possible d’un groupe de diverses interfaces partageant des similarités, mais qui varient selon la cible souhaitée. Cette solution demandera en revanche un travail plus conséquent, mais reste intéressante à explorer. Un exemple de ce type de logiciel est Linux, et plus particulièrement ses différentes versions et comment celles-ci tentent de convenir à plusieurs types d’utilisateurs variés.

2. La place des acteurs de design open-source, le cas Linux

Linux n’est pas un seul système d’exploitation. C’est une famille de systèmes divers et variés qui partagent un programme central, dit noyau ou kernel. Plus précisément, il existe plusieurs versions du noyau, et celui-ci est régulièrement mis à jour. La version principale est la vanilla, un projet collaboratif, open-source, coordonné par Linus Torvalds, créateur originel du noyau Linux. Sur ce noyau, qui permet le fonctionnement de la machine, vient s’ajouter une distribution, dite distro. La distribution contient entre autres des logiciels préinstallés et un environnement de bureau. Son rôle est de donner une interface graphique au noyau Linux, une apparence au-delà des fonctions du noyau. Il existe beaucoup de distributions, adaptées pour divers publics et divers appareils. Certaines distributions sont dérivées d’autres, pour couvrir différents besoins. Il existe des distributions pour les entreprises, pour l’apprentissage, pour des ordinateurs plus anciens et même pour des téléphones ou des consoles.

Linux à un fonctionnement très différent de Windows et MacOS, sa division en plusieurs couches lui permet d’être customisable et d’apporter des solutions a plusieurs catégories d’utilisateurs et à leurs besoins. Également, tout le monde peut créer une distribution Linux adaptée pour ses besoins spécifiques, et grâce au noyau commun, il n’est pas requis de créer un système d’exploitation complet, ce qui diminue les prérequis pour la création. Beaucoup de logiciels ont une version fonctionnant déjà sur ce SE, ce qui ne serait pas le cas sur un système d’exploitation nouvellement créé.

Les distributions les plus utilisées sont Raspberry PI OS, pour les nano-ordinateurs Raspberry PI, RedHat, créée par l’entreprise du même nom qui appartient à IBM, Ubuntu, qui fonctionne sur plusieurs types d’appareils et Linux Mint, qui est conçue pour des ordinateurs personnels. Il existe énormément d’autres distributions moins connues et/ou plus spécialisées. Par exemple, il existe un dérivé d’Ubuntu créé spécialement pour la Gendarmerie nationale française, se nommant GendBuntu.

Linux est un excellent exemple d’un SE hors de l’environnement capitaliste, de ce qu’il est possible de créer. C’est un système d’exploitation open source, gratuit, fonctionnant sur la majorité des ordinateurs sans aucun bug. Le projet ayant débuté dans les années 1990, il a eu le temps d’évoluer progressivement vers une version plus fiable et plus stable. Il faut aussi prendre en compte que dans les années 1990, il existait encore beaucoup de SE différents, car le marché naissant était beaucoup plus ouvert et bien que Microsoft et Apple aient déjà conquis une bonne part du marché, il restait de la place pour des créateurs en marge qui souhaitaient créer des programmes alternatifs. Également, les utilisateurs d’ordinateurs étaient à l’époque une communauté plus réduite, avec des connaissances accrues dans le domaine de la technologie. Il faut aussi comprendre que Linux n’aurait pas pu exister sans GNU, qui lui-même n’aurait pu exister sans UNIX, une famille de systèmes d’exploitation ouverts qui est la source de tous les systèmes d’exploitation d’ordinateurs aujourd’hui, hors Windows. UNIX date de 1969 et sans sa diffusion dans les années 1970, il aurait été impossible, aujourd’hui, d’avoir des systèmes d’exploitation ouverts. Ce qu’il faut comprendre c’est que bien que les SE non commerciaux ne sont pas installés sur les ordinateurs d’une majorité des utilisateurs d’ordinateurs aujourd’hui, sans eux, les ordinateurs ne seraient pas du tout tels que nous les connaissons aujourd’hui. Ils ont marqué l’histoire de la technologie car il était possible pour chaque utilisateur expérimenté en numérique, sans pour autant être professionnel, avec un peu de temps, de les modifier et de créer un logiciel dérivant des leurs.

Linux apporte des solutions variées et on pourrait penser qu’il est une solution idéale, qui permet de régler toutes les imperfections identifiées dans Windows et MacOS, mais cela n’est pas tout à fait juste. Tout d’abord, Linux est complexe. Il n’est pas préinstallé sur les ordinateurs, et demande donc des connaissances techniques ou de l’aide pour être installé sur un ordinateur. Cela en fait un produit qui est majoritairement proposé à des personnes initiées. Bien que des associations agissent pour aider à la diffusion et l’installation de versions de Linux aux particuliers et entreprises, Linux reste un produit de niche [32].

Le noyau Linux en lui-même est entièrement gratuit et disponible en ligne sur le site GitHub [33], mais certaines distributions sont payantes, ou possèdent des options payantes comme Windows ou MacOS, rejoignant alors certains de leurs défauts avec l’incitation à l’achat d’options payantes et la possibilité de passer des options gratuites en options payantes. Un autre défaut est l’absence de certains logiciels sur Linux, par exemple les logiciels Adobe ne sont pas utilisables sur un appareil sous Linux, rendant différent le processus de travail de graphiste. Il faut garder en tête que ce n’est pas une option qui est disponible pour tout le monde. Il est particulièrement difficile pour les personnes concernées par la fracture numérique, manquant de connaissances sur les ordinateurs et sur le noyau de Linux, de faire le choix de son installation. L’utilisation de Linux peut ressembler à celle de Windows ou de MacOS selon la distribution, certaines étant créées pour imiter l’expérience utilisateur de ceux-ci. Les principales distributions de Linux ne sont pas complètement détachées du système, elles imitent l’apparence d’autres systèmes d’exploitation pour paraître plus familières. Comme je l’avais appuyé dans ma deuxième partie, l’habitude en elle-même n’est pas mauvaise, mais elle peut enfermer la création et limiter la réaction des utilisateurs.

Il faut rester critique des solutions que nous avons à notre disposition et bien comprendre qu’une solution parfaite n’existe pas. En revanche, une solution partielle apportera toujours plus aux utilisateurs que si elle n’existait pas. Linux permet aujourd’hui de sauver des ordinateurs qui étaient considérés obsolètes car ils ne pouvaient plus être mis à jour vers la dernière version d’un système d’exploitation. Grâce à Linux, nous pouvons également voir un renouvellement dans l’environnement capitaliste, car en étant en marge de celui-ci, il peut se permettre d’expérimenter, d’apporter des réponses nouvelles aux habitudes utilisateurs.

« Que les goûts tendent à s’enrichir à la marge du commerce des valeurs esthétiques pose le problème plus vaste de la gratuité qui sert d’un côté traditionnellement, d’appel à des consommations payantes. De l’autre, la gratuité est essentielle au développement de collaborations sociales où la dimension coopérative surpasse alors la valorisation des activités par le salariat. L’essor planétaire de réseaux de communication et la création de publics capables en partie d’échapper aux gouvernements, aux syndicats, aux leaders d’opinion, aux entreprises, aux marques, aux médias classiques, à la critique, à l’autorité des experts, appellent à une réforme des modes établis d’évaluation au profit de modalités esthétiques plus hétérogènes. » [34]

La contribution des utilisateurs est aussi importante, car ceux-ci sont finalement les décideurs finaux. Ce sont eux qui diront si oui ou non ils aiment un produit et s’ils vont continuer de l’utiliser. Linux est un système d’exploitation qui apporte aux utilisateurs un pouvoir décisionnel amplifié sur leurs machines. Malgré ses avantages, il reste cependant un outil réservé à un public avec une connaissance du numérique et un usage spécifique des ordinateurs, et qui ne peut être amélioré que par des spécialistes de l’informatique. L’apprentissage du numérique demande du temps, des efforts, et l’installation de Linux requiert d’abandonner lui aussi certains logiciels et parfois certaines fonctions. Il n’est pas une solution adaptée à tous, et n’est pas non plus l’unique solution pour les utilisateurs qui souhaitent aujourd’hui devenir plus maîtres de leurs machines.

3. Ce que peut et ce que veut l’utilisateur

Les utilisateurs ne sont pas responsables de ce qu’ont fait aujourd’hui les GAFAM avec les systèmes d’exploitation. Ils n’ont aucunement l’obligation d’user de leur temps et de leur énergie pour améliorer la situation, cependant il serait naïf de croire que les entreprises responsables de l’état des systèmes d’exploitation vont d’elles même, par philanthropie, repenser aux utilisateurs. Si ceux-ci veulent retrouver une place centrale dans la création des SE, et ainsi obtenir un contrôle sur leurs machines et leurs données, ils ne doivent pas rester passifs dans l’attente d’une solution.

Il est important avant même de parler d’actions possibles pour l’utilisateur en général de se poser la question de ce que nous, en tant qu’utilisateurs individuels, souhaitons ou ne souhaitons pas. Ce que nous acceptons, car l’alternative est plus complexe ou nous demande un effort. Les ressources que nous pouvons individuellement et collectivement déployer et ce sur quoi nous pouvons les déployer. C’est une réflexion qui me semble aujourd’hui être unique à chacun, il nous faut tous et toutes aujourd’hui, connaître nos besoins dans le domaine du numérique, nos envies, nos faiblesses et nos forces.

On peut séparer les actions possibles en plusieurs catégories. Pour commencer, on peut trouver les actions individuelles, qui impactent les personnes séparément, sans générer un impact sur une communauté ou sur tous les utilisateurs. Je pense que la première action de tout utilisateur qui souhaite se sortir de la cage créée par les entreprises créant les systèmes d’exploitation est de se renseigner. Se rendre compte de ses propres habitudes et des influences qui les guident. Comme Spinoza, je rejoins ici la conviction que la connaissance et la compréhension des causes qui amènent à nos choix est une forme de liberté et de libération, et que l’ignorance de ces causes ne mènera jamais à une véritable liberté [35]. En comprenant la raison et la manière dont nous sommes conduits vers des choix, nous pouvons prendre un meilleur recul sur ceux-ci. Il me semble également important, bien que plus compliqué, d’essayer de comprendre à nouveau l’ordinateur, non pas avec une connaissance de surface, mais plus approfondie. Comprendre comment effectuer des réglages de sa machine, afin de pouvoir la customiser et l’adapter à nos besoins personnels, sans être contraint par la volonté d’entreprises. Des fonctions que j’ai indiquées sur MacOS et Windows comme supprimées sont disponibles par exemple via des programmes créés par d’autres développeurs. Apprendre soi-même à programmer est une action qui demande bien plus d’investissement de temps et d’énergie, mais qui permet de récupérer une grande part de contrôle sur son appareil.

Là où un outil tel qu’un pinceau ne pourrait pas agir sans l’utilisateur pour s’en servir, un ordinateur est une machine, voire ce qu’on peut appeler une machine cognitive. Bien qu’elle n’ait pas de pensée ou de volonté, celle-ci peut fonctionner de manière « logique » sans un utilisateur, c’est là la distinction entre un outil qui relève de la technique et une machine cognitive, relevant de la technologie. Une technologie, si nous ne la maîtrisons pas, peut prendre la main sur l’utilisateur, pour le bénéfice de ses créateurs, dans le cas d’un ordinateur les GAFAM.

Si l’on souhaite individuellement impacter une communauté plus grande, il est possible de rejoindre des associations visant à venir en aide à des personnes avec moins de connaissances informatiques afin de les aider à mieux comprendre leur machines et comment s’en servir. Bien sûr, cela requiert du temps et des ressources, cela n’est donc pas une solution pour tout le monde, mais ce qu’il faut comprendre c’est qu’un individu seul peut agir s’il souhaite investir de son temps et de ses ressources pour ses actions. Ces actions ne changeront pas le système en place et ne motiveront pas des entreprises à faire mieux, mais il ne faut pas les négliger pour autant. Une solution imparfaite, une solution pour peu de personnes, reste mieux que rien.

Changer le système est plus complexe, mais je tiens à présenter ici un exemple d’un changement imprévu par les entreprises, et par les individus eux-mêmes, qui a marqué récemment les SE. Windows 8 est un système d’exploitation de Microsoft, sorti en 2012. Il n’a pas du tout été adopté par les utilisateurs, malgré une forte tentative de Microsoft de le présenter sous son meilleur jour. Le système était jugé incompréhensible, retirant des fonctions de Windows connues depuis les premières versions, comme le menu Démarrer. L’utilisation de Windows 7 est restée majoritaire jusqu’à la sortie de Windows 10 qui, lui, était jugé comme étant une amélioration bienvenue à Windows 7. Dans ce cas, deux éléments me paraissent intéressants. D’abord, la raison pour laquelle l’interface a été refusée par les utilisateurs était car elle n’était pas intuitive pour les utilisateurs habitués à l’interface de Windows 7 et aux versions précédentes. En effet, le bureau, usuellement l’endroit central où trouver et organiser ses applications, était accessible depuis un panneau. Le menu Démarrer à disparu, et chaque logiciel installé était présent sous forme de grande icône, comme sur une tablette.

Je reviens alors à ce concept de l’habitude dont j’ai déjà parlé dans ma deuxième partie. Les utilisateurs et les créateurs des interfaces sont tous deux bloqués par les habitudes qu’ils ont créé, et une tentative d’innovation peut se retrouver sabotée car jugée trop différente. En un sens, cela est le cas pour tous les produits, parfois le changement est trop brusque, trop soudain. Microsoft ne l’avait pas anticipé, ce qui montre une méconnaissance de ses clients, de sa cible.

Un élément intéressant de ce cas particulier est que les utilisateurs n’ont pas été poussés au changement de Windows 7 à Windows 8 par Microsoft. Aujourd’hui avec Windows 10 et 11, un cas similaire est arrivé. Windows 10 aurait dû cesser d’obtenir des mises à jour gratuites partout dans le monde en octobre 2025, or dans l’Union européenne, les particuliers recevront pendant un an gratuitement des mises à jour, et ce grâce au DMA, le Digital Markets Act [36][37]. Ici, Microsoft a dû subir une pression extérieure pour faire ce qui était auparavant un droit accordé aux consommateurs. Ce sont les pressions des associations et des gouvernements européens qui ont permis un répit temporaire pour les utilisateurs.

Les actions individuelles et les actions collectives peuvent toutes deux amener des changements bénéfiques pour tous les utilisateurs. C’est en se tenant informés et en refusant ou acceptant l’utilisation d’outils numériques que nous pouvons en tant qu’utilisateurs amener des entreprises comme les GAFAM à reconsidérer la manière dont ils produisent leurs SE pour nos ordinateurs.

III. Conclusion

Durant cet écrit, nous avons pu comprendre plus profondément en quoi mais aussi pourquoi les systèmes d’exploitations d’ordinateurs, et particulièrement leurs interfaces graphiques impactent leurs usagers. Composé de trois parties, j’ai tout d’abord posé un contexte sur la situation actuelle et l’environnement où évoluent les systèmes d’exploitation. Comprendre d’abord la situation qui impacte la création de SE d’ordinateurs et le but des entreprises dans cet environnement, ici le profit dans une marché néo-capitaliste, c’est ce qui nous permet ensuite de mieux comprendre les conditionnements d’usage de ces produits. En explorant la notion de duopole, il a été possible de comprendre la place monumentale de Microsoft et Apple sur le marché et leur étreinte sur celui-ci. Nous avons aussi pu voir que pour obtenir un bénéfice financier, les entreprises créent continuellement de nouveaux produits, sans pour autant pouvoir apporter de réelles améliorations pour leurs consommateurs. Les entreprises se cachent derrière le terme d’innovation qui leur permet de prétendre de vendre un produit de meilleure qualité.

En deuxième partie, j’ai fait état des divers problèmes que les utilisateurs pouvaient rencontrer sur leurs systèmes d’exploitation et surtout la manière qu’ont les multinationales informatiques de dissimuler ces problèmes et les cacher aux utilisateurs. L’utilisation habile des habitudes d’usage par les entreprises afin d’aliéner les utilisateurs vers des choix leur apportant un profit garanti, sous la forme d’abonnements ou d’informations. Également, ces concepts nous ont permis de voir la tendance de plus en plus forte des entreprises à vendre des produits de moins en moins qualitatifs, proposant aux utilisateurs de moins en moins de contrôle sur ceux-ci. La troisième partie est une exploration des améliorations et solutions partielles à ces problèmes rencontrés. Tout d’abord, une exploration du rôle que peuvent jouer les créateurs de ces interfaces, tout particulièrement les designers graphiques et ce qu’il faut remettre en question dans la pratique du design d’interface pour proposer un produit plus utile à ses consommateurs. Ensuite, une étude d’un SE alternatif, Linux, afin de voir les améliorations mais aussi des défauts pouvant se dégager dans les systèmes d’exploitations actuels en dehors d’un environnement capitaliste. Grâce à cette étude, nous avons pu observer que Linux offre aux utilisateurs une place plus haute que Windows ou MacOS, les invitant réellement dans la conception d’un produit qui leur correspond sans être généraliste, mais qu’il reste un produit de niche qui ne peut convenir à tous, laissant les publics néophytes isolés. Pour terminer, nous avons vu les moyens d’action, chez les utilisateurs, pour améliorer les systèmes d’exploitation, à la fois personnellement, en apprenant et comprenant leur machine, mais également collectivement avec des associations ou grâce aux gouvernements, chacun à leur échelle.

Les interfaces graphiques, particulièrement dans des situations d’outils aussi répandus que les ordinateurs et leurs systèmes d’exploitation, conditionnent intimement leurs utilisateurs, mais en retour les utilisateurs les conditionnent également. Cette synergie est aujourd’hui devenue une cage, elle enferme les utilisateurs et les designers concevant les interfaces. À chaque nouveau système d’exploitation, les habitudes des utilisateurs sont renforcées, amenant à une aliénation des utilisateurs de plus en plus accrue, à une compréhension de la machine plus restreinte. La perte de compréhension amène à une exploitation de la part des créateurs des systèmes d’exploitation pour un bénéfice monétaire au détriment des utilisateurs, encourageant la perte de leurs savoirs sur l’informatique.

Les systèmes d’exploitation d’ordinateurs ne sont pas les seuls produits où les mécaniques capitalistes impactent la qualité des objets vendus, mais là où dans beaucoup d’autres marchés, il existe une sorte de concurrence qui permet d’avoir en tant qu’utilisateurs diverses options, les SE sont dans un marché très réduit ce qui amplifie et accélère la dégradation des produits vendus. Tous les utilisateurs ne souhaiteront pas forcément dépenser du temps à questionner leurs habitudes. Cependant, si aucun utilisateur ne décide de dépenser des ressources pour le faire, tout utilisateur souffrira de plus en plus des décisions des sociétés réalisant les machines et interfaces qu’ils utilisent chaque jour. Pour obtenir une meilleure place face aux ordinateurs et leurs interfaces, il nous faut des utilisateurs qui se battent pour amener des améliorations aux produits et services et tenir les entreprises responsables de leurs décisions capitalistes. Chacun à son échelle peut devenir cette personne venant rendre l’espace numérique meilleur pour tous les autres.