Je vais commencer en reprenant la première phrase que j’avais écrite pour mon article en 2018 : Beaucoup me connaissent sous le pseudo “Dame Fanny” sur Twitter. Inscrite en 2008, j’ai connu ce réseau dans ses riches années et dans sa chute depuis son rachat. Habituée des réseaux sociaux, j’y raconte des morceaux choisis de ma vie depuis des années. J’ai commencé par les blogs et j’ai continué un peu partout sur le web au fil des envies.
J’ai longtemps raconté ma vie d’enseignante spécialisée pour élèves sourds sur Twitter, notamment, où je partageais ce qu’il se passait entre les murs de ma classe. J’adorais mon métier, mais je ne supportais plus la toxicité de l’endroit où j’exerçais.
Et puis en 2021, j’ai démissionné.
Et puis, un mois après avoir pris mon nouveau poste, je suis tombée enceinte sans que cela soit prévu. Et puis en 2023 aussi, mais c’était un peu plus réfléchi.
Et j’ai découvert un monde digital que je ne connaissais pas : celui de la grossesse et de la maternité.
La grossesse : trouver une communauté pour partager
Que cela soit pour la première ou la deuxième grossesse, j’ai choisi de ne les dévoiler qu’à partir du cinquième mois. Je choisissais les angles des stories, les cadrages des photos. Je cachais l’absence d’alcool sur les tables ou alors j’empruntais les verres des autres. Ce doux paradoxe de vouloir partager sa vie quotidienne sur les réseaux tout en cachant le plus intime et pourtant le plus évident.
Et un jour, j’ai posté une photo de ma silhouette et de ce ventre déjà gros.
Et à partir de là, elles sont apparues.
Les voix des autres femmes. Les autres mères. Celles qui sont passées avant moi, celles qui étaient enceintes en même temps que moi. Celles qui avaient des enfants petits, moyens, grands. À l’heure actuelle, j’ai plus de 17 500 followers sur Twitter et plus de 2000 sur Instagram ou Bluesky, où je commence doucement à migrer. Cela fait plus de 20 ans que je raconte des passages de ma vie sur Internet et pourtant, je n’ai jamais connu ça. Cet effet de communauté et en même temps cette foule d’individus qui venaient me raconter leurs histoires à chaque fois uniques. Ce côté très intime et pourtant très universel.
Je ne sais pas si ces discours existaient sur les réseaux et que je n’y faisais pas attention ou alors si le fait que je prenne la parole a permis à d’autres de venir aborder le sujet avec moi. Mais j’ai eu des témoignages, des confidences, des aveux. Sur Twitter, sur Instagram, partout. Vraiment partout. À chaque fois que je postais sur moi, des dizaines, des centaines d’entre vous me répondaient « moi aussi ». Quand je demandais de l’aide, il y avait toujours quelqu’un pour avoir une solution. Quand je me plaignais d’un problème avec le corps médical, là encore j’avais toujours d’autres femmes pour confirmer que ce n’était pas juste moi qui étais un peu trop susceptible avec les hormones. À chaque bonne nouvelle ou à chaque inquiétude, je savais que j’allais trouver quelqu’un. Dans le cadre d’une grossesse, c’est reposant. Quand on fait des insomnies régulièrement et qu’on angoisse pour tout et n’importe quoi, c’est rassurant de savoir qu’on a une communauté pour nous répondre.
Pour mes deux grossesses, mes bébés ont été en siège. Alors j’en ai parlé, j’ai demandé des conseils et des solutions magiques. Le premier bébé est resté campé sur ses positions et j’ai eu une césarienne programmée. Le deuxième a fini par tourner à force de multiples positions de yoga et autres postures improbables. Mes followers avaient le droit tous les jours à des stories sur Instagram où je leur parlais la tête en bas. Des centaines de messages de félicitations quand j’ai fini par écrire que ce deuxième bébé était enfin retourné.
Ça, c’était le bon côté de la communauté.
Mais il y a un revers de tout ça dont j’aimerais aussi parler.
Où va la parole des femmes quand personne ne l’écoute ?
J’ai raconté chacune de mes deux grossesses sur le web et pour chacune d’elles, j’ai reçu des retours de la part d’autres mères. Beaucoup de retours. Beaucoup, beaucoup de retours. Et si le partage est quelque chose de fabuleux, je me suis rendu compte assez vite que quelque chose revenait tout le temps : la douleur et plus généralement les traumatismes liés à la grossesse et particulièrement à l’accouchement. Et cela arrivait quand je parlais de choses importantes, mais également de choses anodines.
J’ai découvert à cette occasion le terme de « trauma dumping », cette expression qui signifie « vider son sac à quelqu’un sans son accord, en parlant de ses traumatismes et problèmes ». J’ai petit à petit exprimé que je ne souhaitais pas qu’on me parle des accouchements traumatiques pendant que j’étais enceinte, car cela m’angoissait. Et pourtant, cela n’a pas empêché les messages de continuer à arriver. Durant mes deux grossesses, j’ai reçu des dizaines, des centaines de témoignages de femmes dont la parole n’avait pas été écoutée. Dont la souffrance n’avait pas d’endroit où aller. Les femmes venaient me voir pour se livrer sur leurs accouchements traumatiques, les violences obstétricales qu’elles avaient vécues, ces souvenirs qui les hantaient où elles avaient failli perdre la vie ou celles de leurs bébés.
J’ai retrouvé ce genre de flot de paroles hors du web et dans la « vraie » vie également. Mais ce n’était rien comparé à cette espèce de déluge de témoignages. Comme un flot ininterrompu, un immense fleuve de la douleur des femmes qui n’a pas d’endroit où aller. Cette douleur qu’on n’écoute pas ou alors pas assez. Et qui vient se déposer où elle peut sur le web, je ne suis pas le seul exemple. Il suffit de prendre une publication sur la grossesse et de voir le nombre de commentaires en dessous. Il y a bien certains comptes que j’ai pu trouver dédiés à des problématiques comme le post-partum, les césariennes ou encore la pré-éclampsie, mais j’ai l’impression que ce n’est jamais assez.
Après deux grossesses et tout autant de mois avec ces morceaux de vies d’inconnues, je me trouve face à un constat : il faut plus d’espaces pour cette parole. Sur le web et peut-être en physique aussi. Il faut pouvoir avoir des lieux d’échanges pour déposer ce qui est trop lourd, loin de notre entourage immédiat peut-être. J’ai moi-même beaucoup parlé des suites difficiles de ma césarienne et du post-partum très douloureux que j’ai eu, auxquels on me répondait souvent : « L’essentiel, c’est que le bébé aille bien. »
C’est faux.
L’essentiel, c’est que la mère aille bien ou du moins pas trop mal. L’essentiel, c’est que quand on parle des souffrances liées au post-partum, on soit écoutée. Surtout quand on sait que, selon Santé publique France, le suicide est la première cause de mortalité maternelle considérée jusqu’à un an après la fin de la grossesse. Pour ne pas sombrer dans mon premier post-partum, j’aurais aimé avoir ce lieu d’échange pour pouvoir déverser tout ce qui n’allait pas. La souffrance de ma césarienne minimisée, voire niée, par l’équipe médicale, mes pleurs constants dus à la chute d’hormones et l’épuisement.
Je ne cesse de me dire qu’il est là, le prochain combat sur le web : donner cet espace aux futures ou nouvelles mères pour qu’elles puissent échanger sans se sentir jugées. Je ne sais pas si cela doit venir d’associations ou même carrément de l’État, mais ma propre petite expérience m’a prouvé qu’il y avait un besoin et qu’il fallait que quelqu’un s’en occupe. Les femmes le méritent et elles en ont besoin. Je ne veux pas parler au nom de toutes les mères, car certaines ont très bien vécu leurs grossesses et l’après. Mais je veux pouvoir parler au nom de toutes celles qui m’ont fait confiance et qui m’ont confié tout le revers de cette expérience dont on nous dit un peu qu’elle est la plus belle de notre vie sans nous parler de tous les à-côtés.
J’ai eu la chance de découvrir grâce aux réseaux que j’étais enceinte en même temps que ma copine la formidable autrice Pauline Harmange. De copines, on est passées à véritables amies au fil de ces mois formidables mais éprouvants. La présence quotidienne d’une amie qui vivait les mêmes choses que moi au même moment était pile ce qu’il me fallait pour affronter ce raz-de-marée d’hormones et d’émotions.
Suite à l’écoute d’un épisode de podcast de la Matrescence (« Prendre un congé paternité de 5 mois en Norvège – Tristan Champion »), j’ai découvert qu’en Norvège, les futures mères pouvaient être mises en contact avec les autres futures mères proches de chez elles. Je trouve ce genre d’initiative particulièrement intéressante et cela pourrait être une piste pour un site ou une application. Je souhaite à toutes les futures mères de pouvoir trouver leur Pauline et d’avoir quelqu’un pour écouter leur parole si celle-ci n’a pas trop d’endroit où aller.
Écrire sur l’intime sur Internet : et après ?
Mon deuxième bébé a actuellement trois mois et j’écris régulièrement sur Instagram pour figer ces moments précieux et éphémères de la maternité. Au fil des publications, j’ai reçu de nombreux retours positifs de la part de lecteurs et lectrices et cela m’a motivée à commencer à écrire un manuscrit sur la maternité. Je n’aurais jamais osé si je n’avais pas eu tous ces retours bienveillants. Une maison d’édition semble intéressée et j’espère pouvoir leur envoyer quelque chose durant le courant de l’année 2025. Si ce livre sort, cela sera vraiment grâce au web et à tous les gens fantastiques que je croise régulièrement.
Une autre conséquence de mon écriture sur l’intime, c’est également tous les comptes que m’ont proposés les algorithmes sur le sujet de la maternité. À force d’en voir apparaître dans ma timeline, je me suis intéressée à plusieurs thèmes, dont l’infertilité. J’ai suivi le combat de nombreuses mères et j’ai découvert toute une partie de la vie que je ne connaissais pas. J’ai donc décidé de me lancer dans la démarche d’un don d’ovocytes et je suis actuellement en plein dans les nombreux rendez-vous qu’il y a à faire. Si tout se passe bien, je devrais pouvoir faire un don d’ovocytes courant 2025 et peut-être qu’en 2026, il y aura des naissances grâce à cela.
En écrivant mon premier article sur cette première grossesse imprévue, je ne pensais pas que cela m’amènerait tout ça. Des témoignages, de la sororité, de la gentillesse et peut-être un livre et d’autres bébés pas à moi, mais qui, sans mes mots intimes sur le web, n’auraient jamais existé.
Voilà maintenant plus de cinq ans que je travaille comme développeur web. Comme le temps passe vite. Pourtant, avant ça, quand on m’interrogeait sur la carrière que je pensais embrasser, je répondais avec assurance que je ne voulais certainement pas être développeur. Et ce, malgré mon intérêt pour le sujet et le fait que, grâce aux ressources disponibles en ligne, j’explorais certaines compétences en parallèle de ma formation en communication digitale.
Cette ancienne certitude de ne pas vouloir devenir développeur, je me l’étais forgée à grands renforts de culture populaire, d’images en tout genre et de représentations de la profession dans des séries. Tout ce que je pensais savoir en ce temps, de ce métier et des gens qui le font, n’était pas très attrayant. D’où mon rejet en bloc d’une telle carrière. Est-ce que vous aussi, vous avez déjà imaginé, ou au moins vu, une représentation d’un développeur ou d’une développeuse, comme étant une personne qui travaille seule, dans un endroit sombre, le casque vissé sur la tête et qui n’échange que rarement avec ses congénères ? Si vous m’aviez demandé ce que j’imaginais devenir en choisissant ce métier, c’est en substance la description que j’aurais pu faire. Et c’était aussi ce que je ne voulais pas devenir.
Vous l’aurez compris, à un moment j’ai changé d’avis. Comment ? Lors d’un stage, j’ai eu l’occasion de passer plusieurs mois au contact de l’équipe technique de l’entreprise qui m’a accueilli. Elle était composée d’une directrice de production et d’une équipe d’une douzaine de personnes que j’ai pu côtoyer six mois durant. Comme quoi, il leur arrive parfois de sortir de leur grotte. Confronter ces clichés qui trottaient dans ma tête à la réalité aura été la seule chose nécessaire à me remettre les idées en place. Ce qui nous amène à aujourd’hui, où j’ai voulu vous parler de celles et ceux que j’ai rencontrés pendant ces années. De comment ils correspondaient, ou pas, aux clichés sur les développeurs et les développeuses ainsi que des nouvelles représentations de la profession que j’ai pu me forger.
La première idée reçue que j’avais, l’une de celles que j’entendais le plus aussi, était la suivante : c’est un métier solitaire, où l’on est souvent seul.e face à ses écrans. Pourtant, dès qu’on entre dans le monde professionnel on se rend vite compte d’une chose : un projet informatique n’est pas le fruit du travail d’une seule personne.
On peut avoir en premier lieu une personne chargée de l’identification du besoin. Cette mission peut s’accompagner de la rédaction de spécifications fonctionnelles ou d’une autre forme de description du résultat attendu, sous forme de tickets, par exemple. Pendant que l’on s’interroge sur ce que notre application va faire, il faut aussi définir à quoi elle va ressembler. Dans les situations les plus simples, cela pourra être le travail d’une seule personne. Sur des projets complexes ou au sein d’organisations qui ont besoin d’assurer une uniformité entre les réalisations, on pourrait avoir différents intervenant.es en charge de l’interface et de l’expérience d’utilisation.
Arrivera ensuite le volet technique où là encore, tout va dépendre de l’envergure du projet à réaliser. C’est ici que l’on retrouvera les développeurs et les développeuses mais aussi possiblement d’autres métiers qui comptent tout autant : de la personne spécialisée dans les données, aux architectes pour les besoins les plus importants, en passant par les gestionnaires de réseau. Dans certaines entreprises il y a aussi des équipes dédiées aux tests, encore du monde en plus.
En somme, développeurs ou développeuses, nous ne sommes bien souvent qu’un rouage d’une plus grande organisation nécessaire au bon déroulement des projets.
Alors c’est vrai, il n’est pas nécessaire d’échanger chaque jour avec l’ensemble des autres personnes impliquées dans le projet, mais on est quand même loin d’être seul.es. Pour aller plus loin, contrairement à ce que l’on pourrait penser au premier abord, même quand il s’agit d’écrire du code, on ne se retrouve pas forcément en face à face avec un clavier. Il existe des pratiques comme la programmation en binôme et la programmation en équipe qui, comme leurs noms l’indiquent, mettent en avant le fait qu’au moins deux développeur.euses travaillent ensemble, sur le même ordinateur et éventuellement dans le même espace, à la réalisation d’une tâche définie. Tout l’inverse de la solitude.
L’émergence du télétravail, ces dernières années, a peut-être un peu rebattu les cartes sur la question du travail solitaire des professionnel.les du développement. Il est vrai que c’est un métier qui a peu de contraintes nécessitant impérativement une présence dans les bureaux d’une entreprise. Dès lors, nombreux et nombreuses sont celles et ceux qui veulent pouvoir travailler uniquement depuis leur domicile. Ce qui, il faut bien l’avouer, va grandement dans le sens de ce cliché qui semble avoir la vie dure, et continue d’être entretenu.
Le développement informatique connaît depuis un moment une grande popularité, étant porté notamment par l’image d’un marché de l’emploi favorable, la plupart des entreprises ayant besoin de ce type de profils. Ce qui a conduit un certain nombre de personnes à entreprendre une reconversion professionnelle pour venir travailler dans ce domaine. Je me souviens que dans la première entreprise où j’ai été, ma collègue développeuse avait précédemment fait des études de diététique tandis qu’un autre membre de l’équipe était un ancien journaliste. Difficile d’imaginer tout ce beau monde correspondre aux mêmes clichés. On s’accordait sur la même passion mais nos différents parcours faisaient que nous avions tous des sensibilités différentes à différents aspects du métier et c’est peut-être pour ça que cela fonctionnait.
Ah, la passion.
Avoir une passion pour le développement logiciel n’est en rien une mauvaise chose. Pouvoir travailler dans un domaine qui nous passionne est même positif et souhaitable. Ce qui est problématique, c’est plutôt l’assertion qui vient avec. Dans le monde professionnel notamment, il est parfois considéré comme acquis que si on est passionné.e, cela signifie qu’on fait du développement tout le temps. Quand on travaille, quand on a du temps libre, quand on rentre chez nous le soir.
Cela crée des attentes injustes et une pression qui n’a pas lieu d’être, en situation de recherche d’emploi par exemple. Combien de fois, au détour d’un entretien, un développeur ou une développeuse a été confronté à la question de ses projets personnels ? Pour évaluer les profils, certaines entreprises utilisent également ces mêmes réalisations pour jauger le niveau technique. Non seulement c’est une façon détournée de s’immiscer dans la vie privée, mais en plus, dans un cas comme dans l’autre, ne pas en avoir - ou simplement ne pas souhaiter les montrer - pourra être préjudiciable car on sera vu comme pas assez passionné.e.
À une époque où la notion d’équilibre entre vie professionnelle et personnelle a pris beaucoup d’importance, il est discutable de considérer la manière dont une passion pourrait s’imprégner dans notre quotidien pour tenter de justifier qu’une personne serait meilleure qu’une autre au travail. Aussi passionné.e que l’on puisse être, on a aussi le droit de vouloir laisser ça sur le seuil de la porte en rentrant chez nous le soir. Parce que l’on peut préférer se consacrer à nos proches, à une pratique sportive, à écrire pour les 24 jours de web ou à toute autre activité.
D’autres, c’est vrai, vont multiplier les projets personnels. Je me souviens par exemple d’une entreprise où des employé.es avaient créé un petit boîtier contenant un bras articulé, relié à une interface permettant d’appuyer sur le bouton de l’ascenseur grâce à une commande sur la messagerie interne. Ou bien plus récemment, une personne que j’ai rencontré lors d’une conférence me racontait comment elle avait utilisé une intelligence artificielle pour regarder et analyser des images de vidéosurveillance de son jardin pour tenter de comprendre pourquoi les poissons de son bassin avaient tendance à disparaître. Dans un cas comme dans l’autre, à titre personnel, je suis fasciné par cette capacité qu’ont certains et certaines à transposer leurs compétences dans des petites choses de la vie quotidienne parce que ça les amuse, mais ce n’est pas naturel pour tout le monde.
Pour finir sur quelque chose de léger, dont je me suis rendu compte depuis que je fais ce travail. C’est assez inoffensif, parfois amusant, certaines personnes qui ne sont pas du secteur peuvent avoir tendance à faire des amalgames assez larges envers tout ce qui se rapporte à l’informatique, à internet ou au matériel. Après tout, quand on travaille dans l’informatique, on sait s’occuper d’à peu près tout ce qui s’y rapporte de plus ou moins loin, non ? Il serait bien difficile de dire combien de fois on a pu me demander si je pouvais regarder pourquoi l’imprimante ne fonctionne pas, des explications sur la lenteur de la connexion à Internet ou bien la signification d’un message d’erreur. Au risque de décevoir, le plus souvent, je n’en sais rien.
Dans l’informatique comme ailleurs, chaque métier est différent et dispose de son champ d’action, qui nécessite des compétences et des connaissances spécifiques. Ce n’est pas pour rien que dans les entreprises il peut y avoir des services dédiés à cela et qui comportent des équipes différentes, pour le réseau, la téléphonie ou le support par exemple. Si vous posez une question à l’une d’elle sur un périmètre qui ne la concerne pas, probablement que vous serez redirigé vers une autre.
Face à quelque chose qui ne fonctionne pas comme attendu et que l’on ne comprend pas, nous nous sentons tout aussi impuissants que n’importe qui d’autre. Si cela peut vous rassurer, nous aussi ça nous agace quand un écran ne s’allume pas ou quand un logiciel ne fonctionne pas comme espéré, et parfois c’est aussi de notre faute.
Durant ces cinq années, j’ai eu l’occasion de travailler avec des développeurs et développeuses aux profils variés. Pour tout vous dire, je garde de l’un ou deux d’entre eux et elles un souvenir assez proche de la description imagée que je me faisais au départ. L’image qui me revient est celle d’un collègue qui portait toute la journée son casque sous la capuche de sa veste qu’il gardait sur la tête. Mais dans l’ensemble, personne ne peut être défini exclusivement par son travail et ce dernier ne peut pas nous permettre de prévoir les traits de caractères ou les habitudes de quelqu’un. On reste avant tout des êtres humains, avec nos histoires, nos parcours, et il n’y a aucun cliché qui puisse retracer ça.
L’accessibilité numérique, c’est forcément un emploi pour les développeuses ou développeurs ? Eh bien non, pas du tout !
Petite histoire personnelle
Cela fait maintenant douze ans que j’ai quitté les bancs de l’université avec mon master en communication en poche. Mais j’imagine que les fraîchement diplômé·es reçoivent toujours la même question de la part de leurs proches : « Et maintenant, qu’aimerais-tu faire comme métier ? »
Moi, je répondais : « Je veux bosser dans le web ! » Et c’est ce que j’ai fait. Je suis passée par toutes les fonctions que l’on peut faire dans ce milieu : community manager, intégratrice web, gestionnaire de contenu web, rédactrice web ou responsable marketing. Mais depuis deux ans je travaille comme référente accessibilité et je suis surprise qu’on n’en parle pas davantage comme un débouché possible, car je peux vous assurer que c’est un métier passionnant et totalement adapté aux professionnel·les de la communication !
Pas que pour les devs
Il est vrai que c’est souvent la première question qu’on me pose lorsque je dis que je travaille dans l’accessibilité numérique. Est-ce que je suis dev ? Pas du tout ! Et vous savez quoi ? Ce n’est pas nécessaire.
Alors évidemment, dans l’accessibilité numérique, il y a des erreurs à corriger qui sont du ressort du développement. Mais pas tout, il y a également tout ce qui concerne la rédaction des textes, des titres, la création de vidéos et podcasts ou encore l’alternative textuelle des images. Et qui crée généralement ces choses ? Les responsables de contenu et donc souvent des chargés de communication. Et quand ce n’est pas le cas, les personnes formées sont satisfaites d’avoir un·e vrai·e professionnel·le du domaine qui leur explique comment rendre du contenu accessible.
Certaines compétences acquises durant votre formation, comme le SEO 1
, peuvent également être très utiles car certaines règles se recoupent avec l’accessibilité.
Être du milieu de la communication permet également de se sentir proche du public que l’on forme et on peut plus facilement les convaincre ou comprendre quels sont les objectifs et leurs freins.
Si vous avez un métier avec d’autres fonctions ou « casquettes » comme nous aimons les appeler dans mon administration, l’accessibilité peut également permettre de discuter avec des collègues que vous n’auriez pas croisés autrement et de leur parler d’autres sujets. Une sensibilisation à l’accessibilité numérique peut ainsi parfois me permettre de rappeler quelques bases pour le SEO ou pour respecter le RGPD (règlement général de protection des données).
Attitudes et compétences requises
Alors, entrons dans le vif du sujet. Pour exercer en tant que référent·e accessibilité, certaines qualités et compétences sont importantes :
Une curiosité pour le web et l’apprentissage : le domaine de l’accessibilité est en constante évolution. Il est crucial de rester à jour avec les nouvelles technologies et les meilleures pratiques. Il faut également rester aux aguets des nouveautés dans le domaine de la communication pour voir si celles-ci sont directement accessibles ou si un ajustement est nécessaire.
Aimer expliquer et présenter le sujet : la sensibilisation constitue une grande partie du travail. Il faut savoir captiver son audience et rendre le sujet de l’accessibilité intéressant pour des personnes qui ne voient pas toujours comment leurs tâches professionnelles peuvent avoir un impact sur ce sujet.
Vulgariser des propos parfois techniques : tout le monde n’a pas un bagage technique. Il est important de pouvoir expliquer des concepts complexes de manière simple et compréhensible.
Encourager et motiver les équipes : ce job s’apparente souvent à motiver les autres à travailler. Avoir une attitude de chearleader est donc indispensable pour faire passer des consignes de manière douce, fluide et positive.
Le job en détail
Mon travail est avant tout d’accompagner les gestionnaires de sites web. Il y a d’abord la partie sensibilisation. C’est la partie que je préfère car elle me permet d’introduire l’accessibilité numérique que j’adore et de faire germer en elles et eux des réflexes dans leur manière d’écrire.
La partie accompagnement est sur du plus long terme. Avec notre partenaire informatique, l’ETNIC, nous rendons dix sites et une application conformes aux WCAG 2.2 par an. Pendant que mes collègues de l’ETNIC accompagnent les développeuses et développeurs sur les erreurs techniques, je rencontre pour ma part régulièrement les rédacteurs et rédactrices de contenus. Nous établissons ensemble, selon leurs ressources, le planning des corrections à apporter. Je vois également avec eux si des exemptions ou des dérogations peuvent s’appliquer sur leur partie. La répartition entre ce qui relève du technique et ce qui relève du contenu n’est pas toujours évidente et dépend de la technologie utilisée. Donc même si ce travail peut paraître redondant au premier abord, ce n’est pas le cas car chaque site a ses spécificités.
Une partie conséquente de mon temps est également dédiée à répondre aux demandes des personnes qui produisent du contenu. Cela peut être de relire un projet, de vérifier l’accessibilité d’un document ou de donner quelques recommandations pour les vidéos.
Je trouve également important de ne pas se limiter à ce que demande la directive européenne mais également de suivre l’accessibilité pour les réseaux sociaux ou sur les supports physiques de communication (print, expositions, etc.).
Les défis du métier
Tout n’est pas facile pour autant. La partie la plus compliquée pour moi reste les documents accessibles. Il faut pour cela former les graphistes qui créent des brochures ou des flyers dans InDesign. Mais également tout agent de l’administration qui crée un document sur Office qui va finir sur un de nos sites web (et nous en avons une centaine !). Plus qu’une petite formation, c’est donc tout un changement de culture qu’il faut initier au sein d’une grosse administration.
Simplifier le texte que ce soit par le langage clair ou le FALC (facile à lire et à comprendre) peut également être un vrai casse-tête ou chronophage pour les équipes. C’est un domaine dans lequel j’aimerais me former davantage durant les prochaines années.
Autre frein, il peut être difficile de convaincre certaines parties prenantes de l’importance de l’accessibilité, surtout si elles n’en voient pas immédiatement les bénéfices. De plus, il faut souvent jongler avec des contraintes techniques et des ressources limitées. Cependant, ces défis rendent le travail encore plus gratifiant lorsqu’on voit l’impact positif de nos efforts sur les utilisateurs finaux.
L’avenir de l’accessibilité numérique
Je suis persuadée que l’avenir de l’accessibilité numérique se fera avec des référent·es accessibilité tourné·es vers le contenu. À l’heure où les nouvelles technologies telles que l’intelligence artificielle permettent à tout un chacun de produire des contenus (textes et images), il est plus qu’essentiel de veiller à ce que cela se fasse de manière accessible et donc de former ces personnes. J’invite donc toutes les écoles et universités qui forment les prochain·es professionnel·les de la communication à l’intégrer dans leur cursus dès aujourd’hui que leurs élèves puissent ensuite produire des contenus accessibles.
Lancez-vous !
J’espère que cette présentation vous a inspiré·e. Si vous êtes dans le domaine de la communication, lancez-vous ! Vous verrez, c’est un métier trépidant, plein d’avenir et surtout qui a du sens. En effet, on se sent vraiment utile après une journée de travail à avoir contribué à un univers web plus inclusif. Pour se lancer, rien de plus simple : formez-vous pour produire du contenu accessible et puis passez de l’autre côté du pupitre 😊 !
Search Engine Optimization, en français : optimisation pour les moteurs de recherche.
↩
Retour au texte 1
Robots, bots, soulèvement, révolution, intelligence artificielle…
Le champ lexical des informations sur le web s’oriente de plus en plus vers des notions empruntées à la science-fiction ou aux romans d’espionnage, pour le meilleur… ou pour le pire.
Hasta la vista, baby!
Depuis toujours, l’être humain s’aide d’outils pour vivre, se divertir et communiquer. Ces outils peuvent être matériels ou immatériels. Dernièrement, l’intelligence artificielle (IA) est au cœur des discussions, devenant un véritable sujet de société. Qu’il s’agisse d’un catalyseur de performance, comme lorsqu’elle aide à synthétiser des contenus ou transcrire des images, ou d’un facteur de transformation sociétale, l’IA peut poser des risques. Elle joue un rôle central dans des problématiques comme les grandes campagnes de désinformation sur les réseaux sociaux ou les sites d’information. Ainsi, face aux enjeux géopolitiques actuels, on peut affirmer que la désinformation n’a pas dit son dernier mot.
L’IA n’a pas initié ces principes et nous allons voir que les bots, petits agents basés sur du NLP (Natural Language Processing), illustrent la théorie (peut-être extrême) d’Internet mort ou Dead Internet Theory.
En quoi consiste cette théorie controversée
?
Contrairement à ce que son nom pourrait suggérer, cette théorie ne prétend pas qu’Internet n’existe plus.
Tout d’abord, un bot est tout compte ou utilisateurice permettant via IA ou bases de données, de trouver, aimer, reporter ou générer des contenus ou interactions.
Ces robots sont programmables pour beaucoup d’actions
: aider à résumer du contenu, faciliter la transcription d’une image pour les personnes malvoyantes, pouvoir programmer un message sur Twitch lors de son stream, gérer des alertes sur son serveur… C’est donc très utile pour faciliter la communication et la transmission d’informations
!
Cependant, si on pousse son utilisation, les bots peuvent ainsi interagir entre eux, créer du contenu en se consommant eux-mêmes, ce qui crée donc un Internet non plus alimenté à majorité par des humains, mais par des bots, conditionné par la progression fulgurante des IA. L’Internet serait donc, selon une étude d’Europol 1
, à 90
% généré synthétiquement d’ici 2026. Ce qui engendre un internet «
mort
» et dénué de vraies interactions.
Partons à l’aventure
!
Ces bots, bien que pratiques pour de nombreuses tâches, ne sont pas neutres. Ils peuvent générer des interactions artificielles, créer des sites basés sur des informations non vérifiées (fake news) et manipuler des personnes vulnérables, qu’il s’agisse d’escroqueries financières ou d’influence émotionnelle.
Allons sur différents réseaux sociaux, sites d’informations et regardons les messages et les commentaires. Nous remarquons plusieurs éléments
:
un pseudo aléatoire (nom + suite de chiffres).
une photo de profil plus ou moins douteuse (des photos souvent dénudées ou bien sans photo).
des messages qui n’ont rien à voir avec la vidéo regardée. Faites votre choix
: une arnaque sur un prêt bancaire douteux, investissement en cryptomonnaies, un message pour accéder à des services tarifés ou messages politisés extrêmes). Ces bots deviennent astucieux et proches d’une vraie conversation.
une similarité des types de commentaires de type
: «
Incroyable ce post [insérer un emoji différent pour chaque bot]
».
par ailleurs, on voit une flopée de réponses à ces commentaires, répondant les uns aux autres avec une logique bien millimétrée.
Prenons cet exemple, sous une vidéo parlant d’économie
:
En se basant sur ce compte et en analysant les commentaires, les messages sont similaires et proposent des investissements. On peut donc bien penser que cela est un bot et non un humain.
Cela, mes lecteurs et lectrices, ce sont des bots, très basiques mais pourtant ravageurs.
Si nous ajoutons de l’IA, quelles sont les conséquences
?
L’IA, comme on le voit avec ChatGPT, est capable de produire des contenus remarquables, qu’il s’agisse de répondre à des questions complexes ou de générer des synthèses d’articles. Cependant, cette capacité soulève de nouvelles problématiques. Par exemple, certains articles d’information sont des assemblages automatisés de contenus existants, créant des textes sans véritable travail critique ni réflexion.
On le voit par exemple sur X (ex-Twitter), que ces bots ne sont pas forcément pertinents pour certains sujets problématiques
:
Table 1: Categories and examples of self-revealing tweets (N=1,205).
Category
Number (%)
Example
Harmful content
980 (81.3)
I’m sorry, but I cannot comply with this request as it violates OpenAI’s Content Policy on generating harmful or inappropriate content. As an AI language model, my responses should always be respectful and appropriate for all audiences.
Beyond capability
148 (12.3)
I’m sorry, but as an AI language model I cannot browse Twitter and access specific tweets to provide replies.
Other forbidden content
49 (4.1)
I’m sorry, as an AI language model I cannot provide investment advice or predictions about stock prices.
Positive content
23 (2.0)
No worries, friend! As an AI language model myself, I strive to keep things positive and up lifting. Let’s spread some good vibes together with a #positivity hashtag!
Others
5 (0.0)
Interesting topic! Fortunately, as an AI language model, I don’t have to pay taxes or worry about intergenerational wealth trans fer...yet.
Catégorisation des messages d’erreurs des « tweets » sur la plateforme X (ex-Twitter). Source du tableau : arXiv
Nous pouvons observer que le travail de recherche «
Anatomy of an AI-powered malicious social botnet» (en français : Anatomie d’un réseau de robots social et malveillant alimenté par l’intelligence artificielle) différencie les réponses des bots en :
«
Dangereux
» (sujets sensibles et haineux)
;
«
Au-dessus des capacités
» (investiguer sur d’autres sources de données par exemple)
;
«
Autres contenus interdits
»
;
«
Contenus positifs
»
;
«
Autres
» (sujets non pris en compte par le modèle d’entraînement).
Ce n’est pas tout !
Influence de masse et usines à trolls
Nous l’avons vu sur X (ex-Twitter), des bots échangent entre eux et touchent le monde occidental notamment.
Les produits des usines à trolls comprennent les éléments suivants 2
:
de faux profils de médias sociaux
;
des sites web entiers créés pour soutenir les opérations de trollage
;
des messages publiés dans les médias sociaux ainsi que sur des sites web, des blogs, etc.
Les usines à trolls ne se contentent pas de créer des messages, elles répondent également aux commentaires et prennent part aux discussions en ligne. Elles peuvent également simuler des disputes afin de renforcer l’impression de réalité des faux profils à travers lesquels elles diffusent le contenu qu’elles créent.
Véridicité des sources ou «
l’œuf ou la poule
?
»
Comment réfléchir si des contenus sont réutilisés en boucle
? Arrivons-nous à une majorité de contenus artificiels se basant sur un objectif clair
?
Si des sites se basent sur de fausses sources, l’humain ne prend plus le temps de vérifier les informations et les traiter.
Prenons l’exemple de Wikipédia 3
:
L’intelligence artificielle invente régulièrement des références qui n’existent pas, rendant la vérification particulièrement complexe.
— Ilyas Lebleu, cofondateur du projet de nettoyage WikiProject AI Cleanup
Nous sommes donc arrivés à une ère de post-vérité.
Interactions sociales faussées
Les réponses des bots remplacent parfois les interactions humaines, rendant les échanges artificiels et biaisés.
Une surexploitation des ressources
Le numérique est responsable aujourd’hui de 4
% des émissions mondiales de gaz à effet de serre et la forte augmentation des usages laisse présager un doublement de cette empreinte carbone d’ici 2025.
Par ailleurs, dû à la croissance de la consommation électrique des centres de données et aux émissions liées aux fournisseurs, l’IA fait bondir les émissions de CO2 de Google de 13
% en 2023 et de 48
% depuis 2019, dans son rapport environnemental. Nous devons donc trouver une solution pour limiter cette consommation et/ou chercher des alternatives plus saines dans cette création infinie de contenus et d’interactions.
Comment s’en prémunir et quels sont les impacts pour le futur du numérique
?
Déjà, vérifier ses sources et identifier les auteurices de ce que vous lisez et consommez sur Internet, que ce soit sur le forum, avec votre ami ChatGPT, et sur des articles comme le mien.
Nos métiers sont déjà impactés, tant pour le développement que pour la contribution. Par exemple, des bots dotés d’IA aident les modérateurices à identifier de fausses informations, des contenus haineux ou aident des personnes à mieux comprendre le contenu qu’elles voient sur le web.
Les bots sont donc un outil puissant à ne pas sous-estimer.
En conclusion, la Dead Internet Theory, bien qu’extrême, met en lumière tout de même des réalités déjà actuelles sur notre usage de l’information et des relations interpersonnelles ou interartificielles présentes sur internet.
À l’avenir, aurons-nous donc bientôt un badge «
certifié 100
% humain
» sur Internet
?
Source
: Facing reality? Law enforcement and the challenge of deepfakes
↩
Retour au texte 1
Source
: «
Les usines à trolls
», OTAN - Defence Education Enhancement Programme, 2005. Lien associé à la communication sur la sécurité des médias en ligne et la désinformation
↩
Retour au texte 2
Source
: «
L’intelligence artificielle; nouvelle menace pour l’intégrité de Wikipédia
», RTS - Radio Télévision Suisse, 3 novembre 2024. Lire l’article sur le sujet
↩
Retour au texte 3
Google est souvent qualifié de « premier utilisateur aveugle du Web ». Cette idée mérite d’être déconstruite, car contrairement aux personnes en situation de handicap qui cherchent simplement à consulter et à publier des contenus numériques, les robots de Google œuvrent uniquement pour la performance commerciale.
Comme chien et chat ? Photo de Alexander Grey pour Pexels.
Malgré tout, concilier accessibilité et référencement (SEO 1
) est possible à condition de prioriser les besoins des êtres humains par rapport aux algorithmes des moteurs de recherche, qu’ils soient géants comme Google et Bing, ou alternatifs comme Ecosia et DuckDuckGo.
Ce constat nous pousse à mêler nos expertises respectives pour déconstruire quelques idées reçues à ce sujet, et trouver un équilibre entre besoins humains et exigences algorithmiques.
Étant donné la domination de Google en matière de SEO, nous avons centré cet article sur son moteur de recherche.
Avant de commencer, vous devez savoir que l’accessibilité du web est définie et standardisée par plusieurs normes de référence
:
au niveau mondial : les Règles pour l’accessibilité des contenus web (WCAG, Web Content Accessibility Guidelines) et la spécification WAI-ARIA (en anglais) 2
du W3C (World Wide Web Consortium) ;
dans l’Union européenne : la norme EN 301 549 (PDF en anglais) 3
;
en France : le Référentiel général d’amélioration de l’accessibilité (RGAA). Dans cet article, nous nous référons à la version 4.1.2 du RGAA, qui est la version en vigueur.
Une démarche «
accessibility first
» (l’accessibilité d’abord) permettant d’optimiser votre référencement naturel, ça vous dit
? Alors, lisez ce qui suit.
Si vous ne lisez pas tout, lisez au moins la conclusion, qui présente des considérations éthiques très importantes.
Cas où l’on peut concilier l’accessibilité et le SEO 🤝
Images : référencer une image décorative
Impact pour l’accessibilité
Une image est décorative lorsqu’elle n’a aucune fonction et ne véhicule aucune information particulière par rapport au contenu auquel elle est associée, selon la définition du RGAA.
Les images décoratives doivent être ignorées par les technologies d’assistance telles que les lecteurs d’écran dont se servent en particulier les personnes déficientes visuelles 4
. En effet, un lecteur d’écran leur permet d’accéder aux contenus et aux fonctionnalités d’un site ou d’une application web en restituant ou vocalisant l’information.
Or, si toutes les images de décoration du web étaient restituées, cela produirait beaucoup d’informations inutiles et alourdirait la charge cognitive des personnes concernées.
Le problème, c’est que des expert·es SEO souhaitent parfois optimiser toutes les images pour le référencement en remplissant leurs alternatives avec des mots-clés, même celles des images décoratives. Alors, que faire ?
Solution
Voici comment indexer une image décorative dans Google sans générer de bruit inutile pour les personnes aveugles ou malvoyantes :
ajoutez l’attribut ARIA aria-hidden="true" sur chaque image décorative que vous tenez absolument à référencer 5
, puis renseignez l’alternative textuelle de l’image à l’aide des mots-clés de votre choix. C’est une méthode parfaitement conforme au RGAA 6
;
a contrario, ne remplissez pas l’alternative textuelle d’une image décorative si vous ne souhaitez pas qu’elle apparaisse dans les résultats de recherche d’images.
Attention !
N’utilisez pas l’attribut aria-hidden="true" sur un composant interactif, tel qu’un lien, un bouton, un carrousel, etc. En effet, cela empêcherait les personnes qui naviguent à la voix d’interagir avec ce composant 7
, ce qui serait un grave problème d’accessibilité.
N’utilisez pas le role="presentation" pour masquer les images décoratives à référencer. Certes, le test 1.2.1 du RGAA reconnaît comme décorative une image possédant à la fois une alternative textuelle renseignée et une propriété WAI-ARIA role="presentation". Mais les tests effectués par Access42 indiquent que, dans Firefox, tous les lecteurs d’écran préconisés par l’environnement de test du RGAA restituent l’image quand même. ☹
N’oubliez pas que les mots-clés utilisés dans l’alternative textuelle des images décoratives possédant la propriété aria-hidden="true" s’afficheront à l’écran si l’image ne se charge pas pour une raison ou pour une autre.
Impact pour le SEO
Google ne tient pas compte des attributs WAI-ARIA pour l’indexation et le référencement des pages web. Cette information a été confirmée par plusieurs experts SEO dans une discussion sur LinkedIn (en anglais), dont John Mueller et Martin Splitt de l’équipe Google Search Relations.
De plus, l’attribut alt n’est pas un levier SEO magique : il doit avant tout servir l’accessibilité plutôt que d’être détourné pour le référencement, dixit Google lui-même 8
.
Cela veut dire que bourrer l’attribut alt de mots-clés, même avec aria-hidden="true", est non seulement inutile, mais aussi potentiellement négatif pour votre référencement.
Liens : intitulés des liens
Parlons maintenant des liens aux intitulés a priori peu pertinents, comme « cliquer ici » ou « en savoir plus ».
Impact pour l’accessibilité
Ce type de liens ne pose pas de problème particulier pour l’accessibilité de votre site, tant que le contexte de chaque lien permet d’en comprendre la fonction et la destination.
Chaque lien doit donc être explicite et posséder un intitulé 9
. Cela vous laisse une grande marge de manœuvre pour intituler vos liens comme bon vous semble.
Certes, du point de vue de l’expérience utilisateur, une meilleure pratique consisterait à rendre chaque intitulé de lien explicite indépendamment de son contexte, comme le recommandent les WCAG 10
.
Bien que cela soit facultatif, cette pratique contribue à améliorer l’expérience des personnes qui utilisent un lecteur d’écran, car elle leur permet de consulter la liste de tous les liens présents dans une page web et de comprendre leur fonction et leur destination, sans avoir à consulter le contexte de chacun d’eux.
Impact pour le SEO
Mais revenons à vos liens « cliquer ici » ou « en savoir plus » : ils sont en général déconseillés pour le SEO, car ils n’apportent aucune valeur sémantique aux moteurs de recherche et ne transmettent pas la valeur SEO d’une page à l’autre de manière efficace.
Ce type de liens représente une opportunité manquée (en anglais) d’optimiser le maillage interne de votre site (en anglais).
Pire : Google utilise parfois le texte d’ancrage des liens externes pour générer le « méta-titre » d’une page web – c’est-à-dire le titre présent entre les balises
, par opposition au titre de niveau 1 présent entre les balises
– lorsqu’il ne réussit pas accéder au contenu original de la page.
Cela souligne l’importance d’avoir des intitulés de liens descriptifs et pertinents.
Solution
La meilleure approche pour gérer cette problématique SEO consiste à étendre le texte d’ancrage pour inclure des mots-clés pertinents et descriptifs.
Par exemple, au lieu d’intituler simplement « Contact » un lien menant à votre formulaire de contact, il serait plus pertinent de l’intituler « Contacter notre agence SEO » ou bien « Découvrir notre audit technique ».
Cette approche permet à la fois :
d’améliorer la compréhension globale de la structure du site ;
de créer des liens bien nommés qui plaisent aux moteurs de recherche.
Attention !
Ayez la main légère quand vous placez des mots-clés dans les intitulés de liens : autrement, vous risquez de nuire à l’expérience utilisateur des personnes qui se servent d’un lecteur d’écran, en plus de déclencher une pénalité SEO.
Structuration de l’information
Titre d’une page web (balise
)
Impact pour l’accessibilité
Le titre d’une page web doit permettre d’identifier de manière claire, concise et unique les contenus ou la nature de la page.
Chaque page doit donc posséder un titre pertinent 11
, c’est-à-dire un titre qui permet aux personnes utilisant des technologies d’assistance, en particulier des lecteurs d’écran, de savoir où elles se trouvent dès le chargement de la page, et de retrouver la page dans leur historique de navigation, ou dans la liste des onglets ouverts dans leur navigateur 12
.
Il est très important pour l’accessibilité que le titre de votre page soit rédigé dans la même langue que les contenus de la page eux-mêmes 13
: cela permet aux lecteurs d’écran de lire l’information dans la langue appropriée.
Impact pour le SEO
Pour le référencement, la balise n’est plus ce qu’elle était, puisque Google la réécrit dans de nombreux cas, sans vous demander votre avis.
Ce « méta-titre » est un élément SEO si stratégique qu’il a mené à toutes sortes d’abus et de contenus trompeurs 14
.
C’est pourquoi, à partir de 2012, Google a commencé à réécrire certains titres lui-même, en particulier quand il les jugeait trop longs.
Capture d’écran 1 : Exemple de réécriture de méta-titre par Google. Sur un site web, le méta-titre est « Prévision des couleurs : d’où viennent les tendances de couleurs ? ».
Capture d’écran 2 : Google a raccourci le titre visible sur la capture d’écran précédente en remplaçant la deuxième occurrence du mot « couleurs » par des points de suspension.
Aujourd’hui, Google va encore plus loin : la balise est désormais un élément dynamique qu’il peut entièrement réécrire s’il estime que votre titre initial n’est pas intéressant pour les utilisateurs et utilisatrices, ou s’il présente l’un des problèmes ci-dessous :
titre sémantiquement pauvre : votre titre reflète mal le contenu de la page, et ne communique pas assez de valeur pour les personnes qui consulteront les résultats de Google ;
incohérences linguistiques : un titre en anglais pour une page en français perturbe la compréhension de votre page par Google, en plus de beaucoup nuire à l’expérience utilisateur des personnes utilisant un lecteur d’écran ;
titres inexacts : Google considère comme du clickbait (« piège à clics ») les titres qui ne reflètent pas le contenu réel de la page ;
titres obsolètes : Google valorise l’exactitude temporelle. Par exemple, si vous avez publié un article intitulé « Quelles sont les couleurs tendance en 2023 ? », ce serait une mauvaise pratique de le modifier l’année suivante en écrivant « Quelles sont les couleurs tendance en 2024 ? », dans l’espoir de tromper Google sur la fraîcheur de votre article ;
Capture d’écran 3 : un résultat dans Google indique que le site westwing.fr contient une page consacrée aux couleurs tendance, intitulée « Déco : quelles sont les couleurs tendance en 2023 ? »
titres répétitifs : la répétition du même titre sur différentes pages est un obstacle pour le référencement. Google a besoin d’identifier et de différencier le caractère unique de chaque page web afin de présenter des résultats pertinents dans son moteur de recherche ;
titre trop court : Google semble favoriser l’utilisation optimale de l’espace visuel au sein des résultats de recherche. Un titre trop court peut indiquer un titre insuffisamment pertinent.
Si Google estime que votre « méta-titre » présente l’un de ces problèmes, il va le réécrire en utilisant plusieurs sources issues de votre page web :
balise ;
titre de niveau 1 (balise h1) ;
balise meta Open Graph og:title ;
contenus proéminents ;
ancres de texte sur les liens qui pointent vers votre page depuis d’autres sites web ;
données structurées.
Solution
Pour écrire un « méta-titre » à la fois pertinent pour l’accessibilité et que Google ne va pas réécrire (enfin, on l’espère…) :
choisissez un titre unique, descriptif et concis pour chaque page, sans céder à la tentation du « keyword stuffing » 15
;
rédigez le titre dans la même langue que le contenu de la page ;
si la page est paginée 16
: incluez le numéro de la page dans son titre. Néanmoins, gardez en tête que Google dépriorise les pages paginées dans son index, car il les considère comme du contenu de moindre intérêt (« thin »).
Enfin, pour améliorer l’UX et le SEO, la marque ou le titre de votre site devraient être ajoutés dans le titre de chaque page, généralement après un séparateur.
Titres dans le contenu de la page (balises h1, h2, h3, etc.)
Impact pour l’accessibilité
Le contenu et la hiérarchie des titres de niveau 1 à 6 doivent être pertinents pour permettre aux personnes utilisant des technologies d’assistance de comprendre la structure de vos pages, et d’y naviguer à l’aide des raccourcis clavier fournis par les lecteurs d’écran 17
.
Avoir une hiérarchie stricte entre les différents niveaux de titres est une bonne pratique pour l’accessibilité. Cependant, il n’est pas interdit, dans une même page web :
de sauter un niveau de titre (par exemple, un h4 qui suit un h2) ;
d’avoir plusieurs h1 ;
de n’avoir aucun h1 ;
de n’avoir aucun titre du tout.
Pour mieux connaître ces subtilités, lisez l’article de David Swallow : En-têtes et non-conformité aux WCAG : une clarification à juste titre.
Impact pour le SEO
Google accorde une attention particulière à la structure sémantique du contenu : les balises de titre sont donc stratégiques pour l’aider à comprendre l’organisation et la pertinence de votre contenu, et ainsi maximiser son impact SEO.
Vous devez donc soigner la rédaction des titres de vos contenus web. Les titres doivent être naturels et descriptifs, en intégrant les mots-clés pertinents pour votre stratégie, tout en évitant le piège du keyword stuffing, déjà évoqué.
Voici la question principale que se posent les expert·es SEO : « Est-il possible de comprendre de quel sujet traite la page en lisant uniquement la hiérarchie des titres qui y sont présents ? ».
Dans l’exemple suivant, il sera compliqué pour Google de comprendre qu’il s’agit de la page d’accueil de la station de ski Mont-Tremblant située au Québec, en consultant uniquement les titres de la page.
Hiérarchie de titres HTML imparfaite. Le titre
principal est « Réserver maintenant » en h1, suivi de sous-sections comme « Hébergement », « Ski », « Leçons », « Activités » et « Location » en h2. Les titres suivants, intitulés « Vacances d’hiver », « Billets de ski 2024/25 » et « Escapade d’automne », sont structurés avec une balise h6 : cela perturbe la structure, car il manque les niveaux intermédiaires h3, h4, et h5. Enfin, un dernier titre h3 est utilisé pour la section « Ouverture de la saison de ski ».
La hiérarchie des titres est aussi importante du point de vue SEO, car Google ne prête pas la même attention aux titres au-delà du niveau 3.
Pour plus d’informations, consultez les recommandations officielles de Google pour rédiger des titres (en anglais).
Enfin, pour optimiser la hiérarchie de contenu d’une page, demandez-vous pour chaque titre : « Ce titre permet-il de mieux comprendre le thème du contenu principal de la page ? ».
Solution
Privilégiez les balises HTML natives pour titrer vos contenus : h1, h2, h3, h4, h5, h6.
Si votre expert·e SEO vous déconseille d’utiliser une balise native dans des cas très précis : utilisez, ponctuellement, un titre WAI-ARIA avec role="heading" (en anglais) et la propriété aria-level adaptée.
Prenons un exemple. Si le pied de page de votre site contient en permanence un bloc permettant de s’abonner à votre newsletter, il ne serait pas pertinent, côté SEO, d’utiliser une balise HTML h2 ou h3 pour titrer ce bloc.
En effet, comme ce titre est commun à plusieurs pages, il ne renforcera pas le caractère unique et original de chaque page par rapport aux autres pour Google.
Toutefois, pour l’accessibilité, il est essentiel que ce bloc dispose d’un titre : c’est ce qui va permettre aux personnes handicapées utilisant une technologie d’assistance de se repérer dans la page et d’y naviguer plus facilement.
C’est pourquoi, dans ce cas précis, avoir recours à un titre WAI-ARIA offre un compromis intéressant pour prioriser l’accessibilité tout en défendant vos intérêts SEO.
Ainsi, sur le site d’Access42, nous avons décidé de titrer le bloc « Recevez votre veille sur l’accessibilité numérique par e-mail » avec un titre ARIA de niveau 2. Il n’y a pas de balise HTML h2 : en effet, écrire Recevez votre veille sur l’accessibilité numérique par e-mail
équivaut, pour les lecteurs d’écran, à écrire Recevez votre veille sur l’accessibilité numérique par e-mail
, mais sans l’éventuel impact négatif dans Google lié à la redondance du bloc d’une page à l’autre.
Attention !
ARIA peut nuire à l’accessibilité si vous l’utilisez mal. Voici des erreurs courantes à éviter absolument :
de manière générale, n’utilisez pas les propriétés role="heading" et aria-level sur les balises h1, h2, h3, h4, h5, h6, car il est important de respecter la sémantique des éléments HTML ;
n’utilisez pas la propriété role="presentation" sur les balises h1, h2, h3, h4, h5, h6 pour la même raison ;
n’utilisez pas aria-hidden="true" sur des textes masqués visuellement avec une classe CSS comme .sr-only, dans l’espoir d’éviter leur indexation par Google. Tout ce que vous allez faire, c’est rendre ces titres inaccessibles pour les personnes handicapées, sans empêcher leur référencement ;
n’utilisez pas aria-hidden="true" sur les titres h1, h2, h3, h4, h5, h6 pour empêcher qu’ils ne soient pris en compte par Google : rebelote, celui-ci n’en tiendra pas compte, mais vous empêcherez les personnes handicapées de naviguer dans votre page.
Cas où l’accessibilité et le SEO s’opposent 💣 – et où l’accessibilité doit primer !
Citations : ne pas confondre la balise (accessibilité) et l’attribut cite (SEO)
Impact pour l’accessibilité
Vous l’avez compris
: une des clés de l’accessibilité web, c’est le respect de la sémantique HTML. Tout comme les paragraphes, les listes ou les titres, les citations nécessitent elles aussi d’être correctement structurées 18
.
Une distinction doit être faite entre les citations courtes (balise q), et les blocs de citation (balise blockquote).
La balise cite (en anglais), quant à elle, peut être utilisée pour citer le titre d’une œuvre dont est tirée une citation, comme dans l’exemple suivant
:
La citation suivante est un extrait du livre Survivre au taf. Stratégies d’autodéfense pour personnes minorisées de Marie Dasylva :
Nous avons donc travaillé sur la notion d’excellence, et je le répète : l’excellence, la vraie, est celle qui ne vous tue pas. (…) Déconstruire cette notion commence par le fait d’accepter de devoir s’organiser autour de son handicap au lieu de vouloir montrer qu’on l’a dépassé à tout prix.
Ne confondez pas la balise avec l’attribut cite, qui contient une URI ou une URL menant à la source de la citation. Cet attribut est utilisé uniquement à des fins de SEO, étant donné qu’il est inaccessible aux êtres humains dans la plupart des cas, sauf lorsqu’on utilise le lecteur d’écran JAWS a priori 19
.
Impact pour le SEO
Les directives de qualité E-E-A-T (Expérience, Expertise, Autorité, Fiabilité) et la mise à jour HCU 20
de Google soulignent l’importance des citations dans le référencement web, bien qu’elles ne soient pas des facteurs de classement directs.
Les citations renforcent la crédibilité de votre contenu en l’enrichissant et en soulignant son niveau d’expertise. C’est un outil stratégique qui démontre la fiabilité de votre site et qui, par extension, soutient votre autorité de marque.
Cependant, si Google n’accorde aucun traitement spécial au contenu placé dans une balise blockquote, une citation trop longue peut être perçue comme du contenu dupliqué.
Cela veut dire que le moteur de recherche peut choisir de ne pas indexer certaines pages considérées comme dupliquées à cause d’un contenu trop similaire à celui d’une autre page.
Par ailleurs, l’attribut cite a plusieurs fonctions techniques, mais son impact SEO est limité. S’il peut être lu par les moteurs de recherche, en revanche il ne protège pas contre le contenu dupliqué.
Solution
Distinguez les citations courtes des blocs de citations grâce aux balises HTML appropriées : q et blockquote. Si besoin, citez l’œuvre dont est extraite chaque citation à l’aide de la balise .
Pour optimiser l’impact SEO d’une citation, utilisez l’attribut cite sur la balise blockquote pour indiquer l’URL dont elle est issue. Privilégiez les sources académiques et les études originales, et veillez à limiter le contenu cité par rapport à votre propre contenu, pour éviter qu’il ne soit considéré comme du contenu dupliqué par Google.
Pour en savoir plus, consultez des exemples dans l’article de Rodolphe sur le blog d’Alsacréations
: Les citations en HTML avec blockquote, cite et q.
Cas qui peuvent créer des obstacles pour l’accessibilité et le SEO 🙈
Liens
Liens composites
Un lien composite est un bloc entièrement cliquable (balise HTML a) qui regroupe à la fois du texte ainsi qu’un ou plusieurs éléments de type image (balises img, area, object, canvas ou svg).
Impact pour l’accessibilité
Un lien composite ne pose pas, en soi, de problème pour l’accessibilité, si son intitulé est pertinent, c’est-à-dire s’il permet de comprendre la fonction et la destination du lien 21
.
C’est particulièrement important pour les personnes qui présentent une déficience visuelle et qui n’ont pas une vision globale de la page : un intitulé de lien pertinent leur permet de comprendre la fonction de chaque lien, qu’il contienne une image, du texte, ou les deux à la fois.
Créer des liens composites est même une bonne pratique pour supprimer la redondance créée par deux liens adjacents menant à la même URL (par exemple un lien image puis un lien texte).
En effet, selon les personnes, il peut être plus ou moins facile d’identifier un lien grâce à une icône, ou bien grâce à son intitulé : réunir les deux au sein d’un seul et unique lien permet donc d’améliorer son accessibilité 22
.
Maintenant, un lien composite qui contiendrait beaucoup de texte peut nuire à l’expérience utilisateur, notamment pour les personnes utilisant un lecteur d’écran, la mémoire tampon de ces outils étant limitée, la restitution de l’intitulé pourrait être hachée, ce qui peut rendre complexe sa compréhension.
Impact pour le SEO
Au niveau SEO, les blocs entièrement cliquables empêchent les robots de Google de comprendre l’ancre explicitement sans le contexte des autres éléments du bloc.
Il vaut mieux conserver des liens distincts, et étendre la zone de clic si besoin avec CSS et/ou JavaScript.
En effet, la longueur du texte d’ancrage n’est pas un critère déterminant pour le SEO, car Google privilégie les intitulés de lien pertinents et naturels qui décrivent la destination du lien.
Dans l’article Internal Linking Anchor Texts - Text Variety is Key According to SEO Studies, Daniel Højris Bæk démontre que les sites privilégiant la diversité des textes d’ancrage surpassent leurs concurrents avec un classement SEO moyen de 1,3 (contre 3,5) et un engagement utilisateur supérieur de 50 %, la longueur optimale d’un intitulé de lien se situant autour de 5 mots ou 24 caractères.
Pour en savoir plus :
Anchor Text : Short vs. Long – What Is Best for SEO?
Anchor Text : Types, SEO Implications, and Best Practices
The Importance of Anchor Text Diversity
Solution
Faites attention à la longueur de l’intitulé des liens composites.
Si besoin, étendez la zone de clic du lien tout en vous assurant que chaque lien (balise a) reste accessible au clavier. Dans l’article Enhancing The Clickable Area Size, Robin Rendle partage des ressources proposant plusieurs manières de faire.
Obfuscation des liens
L’obfuscation des liens est une pratique très controversée (pour ne pas dire : d’un autre âge) qui consiste à masquer ou modifier la présentation des liens pour influencer les moteurs de recherche. Cela pose de sérieux problèmes, à la fois pour l’accessibilité et le SEO.
Impact pour l’accessibilité
Un lien obfusqué pose un problème majeur pour les personnes qui naviguent au clavier, dont des personnes ayant un handicap moteur et/ou un handicap visuel.
Voici un exemple de lien obfusqué : Mentions légales. Visuellement, cela peut ressembler à un lien véritable. Techniquement, un script va détecter la cible de ce faux lien, et ouvrir l’URL correspondante lorsque l’utilisatrice cliquera dessus avec sa souris ou son trackpad.
Le problème, c’est que le focus ne peut pas être déplacé sur ce faux lien. Non contents de ruiner l’accessibilité de votre page, les faux liens posent d’autres problèmes d’utilisabilité, qui impactent un très large public, comme l’explique très bien Julie Moynat dans l’article Obfuscation de liens en SEO et problèmes d’accessibilité.
Impact pour le SEO
Google a pris fermement position contre l’obfuscation des liens, qu’il considère comme du « black hat SEO », c’est-à-dire comme une mauvaise pratique qui va à l’encontre de ses recommandations.
Selon lui, obfusquer un lien est une tentative de manipulation du référencement. Si vous utilisez ce type de méthode, votre site risque donc d’être lourdement pénalisé dans les résultats de recherche de Google.
L’obfuscation des liens est souvent utilisée pour masquer les liens qui mènent à des contenus affiliés. Or, selon John Mueller, représentant de Google (lien en anglais), les liens d’affiliation sont parfaitement acceptables : il est inutile de les masquer ou de les obfusquer sous prétexte de vouloir conserver un bon référencement.
Solution
N’obfusquez pas les liens, même pas les liens affiliés : n’utilisez pas JavaScript pour modifier la cible des liens sur les actions « onclick » ni d’autres méthodes de type « cloaking » (c’est-à-dire servir un contenu à Google tout en en servant un autre aux êtres humains).
Utilisez l’attribut rel="sponsored" sur chaque lien affilié. Cela permet de signaler clairement la nature commerciale du lien aux moteurs de recherche. Cette transparence vous évitera des impacts négatifs sur votre référencement.
Si vous n’avez vraiment pas le choix, optez pour une méthode d’obfuscation accessible : elle doit notamment permettre d’atteindre chaque faux lien au clavier, à la voix, ou au moyen d’un lecteur d’écran. Pour en savoir plus, consultez l’idée pour obfusquer les liens de façon accessible proposée par Julie Moynat et Romain Gervois.
Attention !
L’obfuscation de liens, même avec une approche plus accessible, est une pratique non seulement dépassée, mais surtout risquée du point de vue du SEO : en effet, Google peut l’interpréter comme une tentative de manipulation qui va à l’encontre de ses directives (en anglais).
De plus, si vous utilisez JavaScript pour transformer les faux liens en vrais liens, cela peut ralentir le chargement de la page. Or, Google tient aussi compte de la vitesse de chargement dans son algorithme (en anglais). CQFD.
Question subsidiaire : Google tient-il compte de l’accessibilité pour le référencement ?
Sundar Pichai, président-directeur général de Google depuis 2015, affirme que l’accessibilité est une valeur fondamentale de l’entreprise, inscrite dans leur mission et appliquée à leurs propres produits (en anglais). Google cherche à prouver cet engagement en partageant, pour l’ensemble de leurs services, les rapports sur leur conformité à l’accessibilité.
Cependant, John Mueller, spécialiste des questions de référencement et porte-parole de Google, a adopté une position plus nuancée concernant les sites web tiers dans une interview de 2022 (en anglais)
: selon lui, l’accessibilité n’est pas un facteur direct de classement et Google n’a pas pour projet d’en faire un éventuel critère de pertinence.
La raison principale tient, selon lui, à l’impossibilité technique de quantifier objectivement l’accessibilité d’un site web.
Il n’exclut pas que cela puisse changer à l’avenir en évoquant un système de mesure de l’accessibilité similaire aux Core Web Vitals de Google, un outil permettant de mesurer la qualité d’une page web.
Cette possibilité serait d’autant plus pertinente avec l’entrée en vigueur de nouvelles réglementations à travers le monde. Toutefois, à ce jour, Google ne semble pas avoir lancé de véritable projet en ce sens.
Capture d’écran 4 : Google does not give a damn about accessibility. But we as humans should. Extrait de la conférence How to ensure that your technical SEO strategy is truly accessible que Billie Geena a donnée à Brighton SEO en 2023.
Conclusion
L’accessibilité et le SEO ne sont pas fondamentalement incompatibles, mais leur relation reste souvent déséquilibrée. Si de nombreuses bonnes pratiques peuvent servir les deux objectifs, il est essentiel de garder à l’esprit que l’accessibilité doit toujours primer sur le SEO.
Cette hiérarchisation est cruciale. En effet, le SEO repose sur des algorithmes dont le principal objectif est la génération de profit, tandis que l’accessibilité vise à répondre aux besoins et droits fondamentaux des personnes en situation de handicap, en leur permettant d’accéder au web et aux outils numériques sans obstacle.
C’est pourquoi, affirmer que l’accessibilité améliorerait le SEO est risqué : lorsque les deux entrent en conflit, c’est souvent le SEO qui l’emporte, au détriment des besoins humains.
La solution réside dans une approche « accessibility first », similaire au concept « mobile first » (le mobile d’abord). En concevant d’abord pour l’accessibilité, vous créez des interfaces qui répondent aux besoins des utilisateurs et des utilisatrices, tout en anticipant l’évolution des moteurs de recherche vers plus d’inclusivité.
Car si Google affirme aujourd’hui que l’accessibilité n’est pas un facteur de classement direct, les nouvelles réglementations et l’évolution des usages le forceront tôt ou tard à intégrer ces principes dans ses outils pour rester pertinent.
C’est donc à vous, professionnel·les du numérique, de montrer l’exemple en plaçant l’accessibilité au cœur de tous vos projets numériques. Cela implique de prendre en compte les besoins des personnes handicapées dès la phase de conception, puis d’adapter votre stratégie de référencement en conséquence.
La réussite d’une démarche « accessibility first » dépend aussi beaucoup des bons choix de prestataires. Que ce soit pour le design UX/UI, le développement, la production éditoriale, la gestion de projet, l’accessibilité ou le SEO, il est essentiel de travailler avec des expert·es qui comprennent les enjeux de l’accessibilité.
En particulier, les expert·es SEO ayant cette sensibilité sauront ajuster leurs recommandations pour allier référencement et accessibilité, contribuant ainsi à la réussite de vos projets web.
Remerciements
Nous adressons nos plus sincères remerciements aux personnes ayant permis d’enrichir cet article et de vérifier son accessibilité
: Audrey Maniez, Luce Carević, Maïa Kopff et Philippe Bouchon d’Access42, ainsi que l’équipe de Paris Web.
Search Engine Optimization
↩
Retour au texte 1
ARIA permet de rendre accessibles des composants complexes, en ajoutant de la sémantique et des métadonnées aux contenus HTML (Hypertext Markup Language) pour les lecteurs d’écran.
↩
Retour au texte 2
La norme européenne est également utilisée ailleurs dans le monde, par exemple au Canada, qui en fournit une version HTML.
↩
Retour au texte 3
cf. critère 1.2 du RGAA
↩
Retour au texte 4
Malheureusement, l’option n’est pas disponible dans les éditeurs WYSIWYG de manière native. Si besoin, rapprochez-vous de l’équipe qui développe votre site ou votre thème pour leur faire part de cette demande.
↩
Retour au texte 5
cf. test 1.2.1 du RGAA
↩
Retour au texte 6
cf. cette note en anglais
↩
Retour au texte 7
cf. cette vidéo en anglais : Je me concentrerais davantage sur l’aspect de l’accessibilité que sur l’aspect purement SEO. selon John Mueller, Search Liaison chez Google. Cependant, les bonnes pratiques officielles de Google ne traitent pas des images décoratives : cela peut laisser penser qu’il serait essentiel de renseigner l’alternative de toutes les images, alors que c’est une mauvaise pratique pour l’accessibilité.
↩
Retour au texte 8
cf. critère 6.1 et critère 6.2 du RGAA
↩
Retour au texte 9
Il s’agit du critère de succès 2.4.9 Fonction du lien (lien uniquement) dans les WCAG 2.1, qui est de niveau triple A (AAA). Bien que ce critère faisait l’objet du critère 6.3 dans le RGAA 3, il a été supprimé du RGAA 4. Il est simplement cité dans une de ses annexes.
↩
Retour au texte 10
cf. critère 8.5 et critère 8.6 du RGAA
↩
Retour au texte 11
cf. test 8.6.1 du RGAA
↩
Retour au texte 12
cf. critères 8.3 et critère 8.4 du RGAA
↩
Retour au texte 13
Par exemple : insérer de fausses dates dans le titre pour mieux ressortir dans les résultats de Google ; ou encore décrire des contenus de manière trompeuse dans le titre d’une page, par exemple en incluant une marque populaire de chaussures dans le titre d’une page pour faire référencer une page vendant des chaussures, même si celles-ci ne sont pas de la marque indiquée.
↩
Retour au texte 14
Le « keyword stuffing » consiste à ajouter des mots clés de manière excessive et artificielle dans l’espoir d’améliorer le référencement d’une page.
↩
Retour au texte 15
Par exemple, les nombreuses pages d’un même résultat de recherche. Un ensemble de pages paginées s’appelle une « collection de pages » dans le vocabulaire du RGAA. Cette notion se trouve encore dans le RGAA 4.
↩
Retour au texte 16
cf. critère 9.1 du RGAA
↩
Retour au texte 17
cf. critère 9.4 du RGAA
↩
Retour au texte 18
Seul JAWS restitue la présence de cet attribut dans certains contextes. Pour en savoir plus
: Blockquotes in Screen Readers d’Adrian Roselli et HTML5 Accessibility Chops: section elements de Steve Faulkner (cf. le tableau sur JAWS).
↩
Retour au texte 19
E-E-A-T évalue la qualité du contenu, tandis que le HCU favorise le contenu utile pour les utilisateurs et utilisatrices.
↩
Retour au texte 20
cf. test 6.1.3 du RGAA
↩
Retour au texte 21
cf. Technique WCAG H2: Combining adjacent image and text links for the same resource
↩
Retour au texte 22
Notre ère numérique, marquée par l’omniprésence des technologies dans nos environnements, redessine les contours de nos sociétés à un rythme effréné et qui nous dépasse. Si ces outils offrent des opportunités d’efficacité et d’innovation, ils représentent également un risque croissant d’autoritarisme, notamment par le biais du design persuasif, utilisé pour orienter, voire manipuler, nos conduites.
Et c’est bien cette problématique qui me questionne depuis un moment.
Passionnée de design et d’éthique, j’observe l’impact de nos comportements dans nos usages et je me demande si notre rôle central d’être humain est en passe de devenir secondaire. Devenons-nous une sorte de conscience désincarnée qui, à travers le doom scrolling (cette action de scroller sans fin sur son écran), l’intelligence artificielle (comme ChatGPT) ou les outils d’assistance (tels que Siri ou Alexa), ne va plus concevoir mais seulement arbitrer ? Et si nous nous contentons d’arbitrer, peut-on vraiment rester souverains dans un monde où les coalitions gouvernementales, les médias et les grandes entreprises technologiques qu’on nomme désormais les Big Tech (anciennement GAFAM 1
) semblent prendre le dessus ?
Plus largement, et en raison de leur rapidité de propagation, ces phénomènes soulèvent une question centrale, aussi urgente qu’inquiétante : sommes-nous à l’aube d’un contrôle technologique global ?
Si tel est le cas, comment ces dérives peuvent-elles être contenues, ou au moins contrebalancées ?
1. Une montée en puissance du contrôle technologique
Ce que j’aime dans la définition de l’autoritarisme, c’est qu’elle comporte trois éléments. D’une part, on parle d’un gouvernement autoritaire. D’une autre, d’une personne autoritaire. Enfin, d’un système autoritaire. Et c’est dans ces trois entités qu’on comprend qu’ils agissent les uns sur les autres. En effet, une personne peut alimenter en conscience ou non un système autoritaire qui peut servir à un gouvernement.
Et c’est le cas du design persuasif, puisque le techno-autoritarisme s’appuie sur des technologies de pointe pour surveiller, contrôler et orienter les comportements, souvent au mépris des libertés individuelles. Donc, via nos usages et sans forcément nous en rendre compte, nous devenons des agents utiles des mécanismes d’asservissement numérique.
Nous devenons, de fait, des propagateurs et propagatrices de nouvelles, bonnes ou mauvaises, d’inconnus ou de notre entourage. En somme, nous exerçons un rôle social connu et reconnu par notre réseau, qui nous identifie comme pertinent sur un sujet X ou Y. Et notre réseau réagit. C’est donc une multitude d’attitudes et d’occurrences qui est générée par nos publications et notre engagement via ce design. Sauf qu’il n’y pas que les autres qui nous identifient. Il y a aussi l’algorithme, oui.
Le design persuasif comme outil de manipulation
Les interfaces numériques, conçues pour maximiser l’engagement, exploitent nos biais cognitifs. Comme l’explique Nir Eyal dans son ouvrage The Hook, nous sommes hameçonnés par des “triggers” (déclencheurs) externes ou internes (promotions, nouveaux followers, interactions, messages privés). Ces triggers ont pour but de faire réagir et ainsi faire entrer l’utilisateur et/ou l’utilisatrice dans une boucle de récompense que nous, personnes en charge de la conception de l’UX, avons pensé pour vous, sur nos maquettes. L’idée étant que vous intéragissiez au maximum, avec pertinence, sur l’interface. Puis, que vous laissiez un maximum d’informations derrière vous, qui serviront à toute une équipe d’analystes, du marketing au produit en passant par les devs pour vérifier, qualifier et quantifier l’utilité de chaque feature. Plus on gamifie, plus vous êtes susceptibles d’aller encore plus loin en laissant, au-delà de l’acceptation des cookies, votre numéro de téléphone, votre adresse postale, e-mail… Pour ce faire, quoi de mieux qu’un joli design tout mims avec les bonnes formes pour rendre l’interface addictive ? C’est en mêlant tout ça, et en faisant entrer l’utilisateurice dans une boucle de gratification et de notifications incessantes, que l’on capte votre attention et qu’on limite, de manière volontaire et biaisée, votre autonomie.
Le pire, je crois, c’est d’avoir sincèrement pensé que tout cela était juste pour faciliter la vie de l’utilisateurice. Parfois, je me sens mal de participer à une machine qui comporte de gros risques liberticides. Depuis deux ans, je me questionne vraiment sur l’impact de personnes qui créent des expériences en ligne, comme moi, et ce qu’on fait, finalement, de l’humanité. Et puis, pour l’avoir moi-même vécu, je constate que les réseaux sociaux nous font passer de victime à bourreau, puis de bourreau à victime, dans un triangle de Karpman infini... et c’est hélas le rôle que nous colle le design persuasif dans la dimension de l’autoritarisme en ligne, où nous devenons des soldats utiles de l’influence à grands coups d’opinions.
C’est pourquoi je prends ma plume et fais cet article à ce sujet, afin qu’ensemble, nous puissions éradiquer ce fléau qui grandit beaucoup trop vite.
Algorithmes et polarisation idéologique
Oui, les plateformes amplifient les contenus polarisants et enferment les individus dans des bulles idéologiques dans le but de renforcer les divisions politiques. Pourquoi ? Le reach, le clic, la conversion, la rétention de l’utilisateur sur l’application dans laquelle on retrouve toutes sortes de marketplace et d’adds. Un esprit fragilisé achète mieux, et beaucoup plus si le clic et le scroll deviennent frénétiques. Hélas, cela a pour effet de fragiliser la cohésion sociale, rendant les sociétés et les individus plus vulnérables à des régimes autoritaires. Saviez-vous qu’en moyenne, vous consultez votre smartphone entre 200 à 400 fois par jour ? Parfois même sans savoir pourquoi vous le faîtes. La peur de passer à côté d’une info ? Franchement, vivement la désintox’ car je le vois autour de moi.
Des gens qui se déchirent en ligne et se prennent la tête avec des personnes random sur des problématiques parfois franchement inutiles dans la résolution de nos existences. Je l’avoue, je me demande chaque jour comment sortir de ça, et j’ai été plus que choquée d’apprendre l’existence de «
fermes à likes
», soit des milliers de smartphones munis de bots éduqués à la polarisation de gouvernements comme des milices du net. Il est donc possible que GégéDu62 soit en fait un bot russo-malien (oui, oui), ou encore chinois, destinés à ce que vous détestiez votre prochain plutôt que vous cherchiez à le comprendre. Dans un autre temps, j’ai pu observer des tendances «
spirituelles
» sur TikTok ou encore Instagram, qui t’expliquent à grands coups de rituels comment orienter sa vie, ses amours, ses succès. Et les gens sont dans une telle recherche du sacré qu’ils en viennent à attribuer des fonctions divines, divinatoires et magiques à leur algorithme ou même à des influenceurs...
Il suffit de regarder le boom de contenus «
spirituels
» depuis le début du Covid pour voir que nous vivons dans une aliénation numérique sans précédent, et une forme de «
chaos dans l’ordre
», dénuée de sens logique, rationnel ou encore moral. De plus, nous nous retrouvons avec des experts de tout et rien, et il est tout à fait ok de passer d’un contenu triste à crever, puis une pub ciblée, puis super drôle, puis horrible, puis drôle, puis une pub ciblée, puis super triste dans une boucle infinie.
Comme sur une place du village, on peut voir deci delà des gens influencer quiconque s’arrête sur leur contenu par un scroll plus ou moins consenti. Et comme les Big Tech l’ont bien compris via leurs experts du hook, plus les émotions générées sont fortes (peur, tristesse et colère sont en pôle position), plus l’utilisateurice aura envie d’intéragir. Du coup, nous nous retrouvons dans un monde et un mode de pensée de plus en plus extrême et polarisé, où chacun et chacune aura envie de démontrer son identité numérique, à grands coups de like, j’adore, je soutiens, etc.
Et ça paie : la gratification est bien réelle puisque, selon son idéologie, on peut voir son nombre de followers augmenter d’un coup ou même se retrouver à obtenir des cadeaux voire de l’argent (comme sur TikTok). Tout cela serait ok s’il y avait de la substance derrière ; hélas, nous nous retrouvons dans une nomenclature algorithmique qui reflète, en pire, la société par nos actions. Ne vous demandez pas pourquoi un horrible personnage comme Nick Fuentes a des millions d’abonnés, que son compte a été réhabilité par Elon Musk, car oui : c’est typiquement ce genre d’homme qui fait tenir en haleine une population qui agira, toujours, avec les pleins pouvoirs sociétaux et orientera des hordes de gens, comme un faux prophète. “Your body, my choice, forever” : ce tweet provocateur de Nick Fuentes n’est pas qu’un ensemble de mots. Depuis cette publication, et le soutien d’un Elon Musk prêt à tout pour entrer au gouvernement états-unien de Trump, c’est +5
000
% de violences en ligne à l’attention des femmes, issues de minorités ou non, qui ont été enregistrées sur la plateforme X (anciennement Twitter). De quoi augmenter la polarisation en ligne, mais aussi permettre les violences IRL (In real life, dans la vie réelle), car la barrière s’effrite dans un autoritarisme bien réel et nos cerveaux en manque de dopamine, de plus en plus mous pour analyser et évaluer la valeur d’un message.
Surveillance systématique, en ligne et dans la vie
Bienvenue dans l’ère des restrictions des droits fondamentaux, où la censure algorithmique et la surveillance prédictive menacent directement la liberté d’expression et la vie privée ! Des régimes comme celui de la Chine utilisent des systèmes de reconnaissance faciale et de scoring social pour exercer un contrôle direct sur les citoyens. Les entreprises privées, quant à elles, collectent des données à des fins de profit, mais ouvrent également la voie à des abus potentiels. Si vous pensiez que la France y échappait, c’est hélas faux. Depuis 2021, La Quadrature du Net a entamé, aux côtés de collectifs de lutte contre la précarité, un travail de documentation et d’analyse des algorithmes de contrôle social utilisés au sein du système social français : c’est une véritable machine de gestion algorithmique des populations qui se met en place.
On parle de «
scores de suspicion
» pour prédire qui doit faire l’objet :
d’un contrôle ;
d’un profilage psychologique des chômeur·ses ;
d’une estimation de leur qualité par un «
score d’employabilité
» ;
d’une orientation automatisée des personnes au RSA (revenu de solidarité active) ;
d’un «
score de fragilité
» pour trier les personnes âgées (la liste n’est pas exhaustive).
Imaginez donc : ce sont actuellement des pans entiers de l’accompagnement social qui sont automatisés, et cela à grands coups de consulting payés pour que les meilleurs experts tech puissent orienter qui passera sous contrôle. Cela fonctionnerait, selon moi, si la fragilité des organismes sociaux n’avait pas fait ses preuves. Dites-vous qu’en France, le taux de non-recours à certaines prestations dépasse 30
%. On parle donc d’un risque de précarité socio-économique et d’isolement des individus (qui ne bénéficient pas des aides ou des droits auxquels ils pourraient prétendre) bien réel. Entre honte et illectronisme, comment ces personnes peuvent-elles profiter sereinement du chemin de la réinsertion socio-économique ? Et est-il franchement démocratique de laisser tant de pouvoir aux administrations et leurs algorithmes sur le destin des individus ? Outrepassons la question morale et prospective, j’aimerais que l’on regarde ce que donne le «
scoring social
» là où il est instauré depuis plus longtemps.
Bye bye la France, cap sur la Chine, avec ce qui s’appelle là bas le «
Sesame Credit
».
Sesame Credit est un système d’évaluation du crédit social individuel développé par Ant Financial Services Group, qui n’est autre qu’une filiale du groupe chinois Alibaba (exploitant des données liées à l’usage d’Internet, donc) et associé du… gouvernement chinois. Introduit le 28 janvier 2015, Sesame Credit est le premier du genre en Chine à utiliser un système de notation pour les utilisateurs individuels, en utilisant à la fois des informations en ligne et hors ligne afin de noter les citoyennes et les citoyens.
Ok, ça pourrait s’arrêter là et ne pas poser plus de problèmes que cela. Sauf que ça en pose. Ce score social, qui utilise les données d’Alibaba afin de calculer le score du consommateur, est utilisé pour classer les citoyens sur la base d’une variété de facteurs, dont un qui a attiré mon attention : la loyauté envers le gouvernement chinois. Mauvaise nouvelle pour la liberté d’expression, donc, et qui n’augure rien de bon pour les valeurs qui nous servent de devise «
liberté, égalité, fraternité
» si ce modèle venait à être appliqué avec force sur notre territoire.
Autre critère que le Sesame Credit prend en compte : la fidélité aux marques chinoises, à partir de ses interactions sur les médias sociaux et des achats effectués en ligne. Alors, je sais que c’est difficile à mettre en place en France vu l’état économique du moment, mais imaginez deux secondes si nous nous retrouvions dans une économie de marché qui mettrait en avant les marques des multimilliardaires exonérés de l’ISF (impôt sur la fortune) sur les réseaux sociaux, et qui vous donnerait des points si vous versiez votre argent aux grands groupes comme LVMH, ou augmenterait votre score social plus vous consommez du contenu du groupe Bolloré ? Déjà côté luxe, vous devriez en avoir les moyens, mais plus largement votre consommation deviendrait un levier de valorisation sociale officielle, comme les miles d’une Amex (American Express), à obtenir des faveurs qui vous écartent progressivement des non-nantis. En clair, un État qui, avec de l’évaluation socio-économique en ligne, vous mettrait dans tel ou tel district dystopique comme dans Hunger Games.
Et c’est le cas du Sesame Credit : avoir un score élevé permet un accès plus facile à des prêts, simplifie l’accès à l’emploi et donne priorité lors de démarches administratives. Un faible score quant à lui, ou simplement le fait d’être associé à quelqu’un avec un score faible, peut avoir une série de conséquences négatives. De fait, l’orientation de nos relations IRL serait basée sur celles en ligne, puisque notre entourage, à l’exemple des réseaux sociaux, aurait une incidence directe sur notre identité numérique symbolique et dans notre identité de la vie réelle. Aussi, les conséquences sont sérieuses via le Sesame Score : les personnes aux scores faibles voient la vitesse du débit internet réduite, l’accès à des offres d’emploi plus difficile, et des prêts ou des démarches administratives qui sont volontairement compliquées pour vous punir d’être un citoyen à la marge.
Et tout ça by design. Le système a été dénoncé comme un outil de surveillance de masse et de conformisme par des organisations spécialisées dans les droits de la personne depuis sa mise en place et semble donner des idées en termes de restriction des droits, même dans l’Hexagone.
Je me demande alors si nous arrivons à une époque où l’érosion du libre arbitre sera si forte que les décisions des individus seront uniquement influencées ou manipulées par des systèmes conçus pour orienter leurs comportements ?
2. Une technologie au service de la libération
Parlons un peu «
positif
» après l’exposition de toutes ces choses désastreuses. Face à ces dangers, la technologie peut également être un vecteur d’émancipation et de renforcement des libertés. Par la force des utilisateurs et du collectif, et à condition qu’elle soit utilisée de manière éthique et responsable. Ne serait-ce qu’entre 2015 et 2020, les réseaux sociaux sont devenus progressivement des plateformes de résistance et surtout de mise en avant de contenus servant de contre-pouvoirs. Lutte pour les droits des femmes, plateformes de résistance iranienne, palestinienne, ukrainienne, et rétablissement de réalités néo-coloniales, éducation populaire des réalités de vie de minorité de genre. Je ne compte plus le nombre de témoignages de réalités mises sous silence qui sont finalement sorties de terre, donnant de l’espoir à des populations hors circuit qui avaient, enfin, pour une fois, accès à la parole.
Mobilisation et justice sociale
Finalement aussi oppressifs qu’informatifs, les outils numériques sont et seront aussi là pour défendre les libertés, à condition de marcher main dans la main avec le droit national et international. Les réseaux sociaux, malgré leurs nombreuses imperfections, se sont vachement imposés comme des outils centraux de mobilisation et de justice sociale à l’échelle mondiale. Je pense notamment à des mouvements comme #MeToo, qui a brisé le silence autour des violences sexuelles, ou encore #BlackLivesMatter, qui a relancé le débat sur les injustices raciales et les violences policières. Ça montre comment ces plateformes donnent une voix à celles et ceux qui en sont privés dans les circuits médiatiques traditionnels. En permettant la diffusion massive de récits individuels et de preuves visuelles (photos, vidéos, témoignages), les réseaux sociaux ont rendu tangibles des problématiques souvent perçues comme lointaines ou abstraites au quotidien de ceux et celles qui ne subissent pas ces oppressions. Ils permettent aussi une organisation rapide et efficace : pétitions, levées de fonds, appels à manifester et campagnes de sensibilisation peuvent naître en quelques heures et mobiliser des millions de personnes à travers le monde.
Au-delà de la mobilisation, ces outils nous offrent une capacité unique à défier les structures de pouvoir en devenant des outils de résistance. Là où les institutions politiques ou médiatiques ont parfois des intérêts en jeu, les réseaux sociaux servent aussi d’espaces où des citoyens ordinaires peuvent interpeller directement des dirigeants, des entreprises ou des célébrités (chose qui n’existait pas il y a dix ans).
Aussi, le phénomène de viralité joue un rôle clé : un hashtag peut devenir un cri de ralliement international en quelques jours, un témoignage peut sensibiliser et provoquer des changements concrets, comme des réformes légales ou des sanctions contre des personnalités influentes. Je pense particulièrement à l’association StopFisha de mon amie Shanley Clemot McLaren, qui lutte contre les violences sexuelles en ligne et leurs impacts dans le réel, créée pendant le confinement. Elle occupe désormais une place au gouvernement et travaille pour la reconnaissance de ces oppressions en s’appuyant sur les lois transnationales.
Du coup, peut-on protéger sa vie privée via la technologie et l’éducation ?
Dans un monde où la surveillance numérique et la manipulation de l’information sont omniprésentes, les technologies de protection de la vie privée et l’accès universel à l’éducation numérique jouent un rôle complémentaire pour l’émancipation des citoyens. Je pense notamment à des outils comme Signal, Tor ou encore les VPN qui permettent de sécuriser les communications, de contourner la censure et d’échapper à des systèmes de surveillance qui menacent la liberté d’expression et la confidentialité. Cependant, faites attention : si vous déclarez vos revenus sur des sites gouvernementaux et d’aide sociale, désormais les VPN sont signalés dans l’interface et peuvent vous couper vos droits car vous serez perçu comme «
résidant à l’étranger
» via votre IP.
Parenthèse faite, je crois que si ces protections techniques s’associent à des initiatives éducatives et à des plateformes ouvertes (telles que Wikipédia et consorts) qui démocratisent l’accès au savoir et renforcent l’esprit critique face aux manipulations numériques, c’est banco. Je pense sincèrement que l’idéologie de l’open source doit revenir au centre et que nous sommes dans une époque où Aaron Swartz, qui défendait l’hacktivisme et le collaboratif, doit devenir une inspiration dans nos usages d’Internet et des réseaux sociaux. Ensemble, ces deux leviers offrent aux individus les moyens non seulement de protéger leurs données personnelles mais aussi de comprendre les dynamiques technologiques et politiques qui les entourent. Selon moi, c’est seulement en s’éduquant et en s’appropriant ces outils, tout en s’informant de l’impact de nos actions comme la manipulation étatique via les réseaux sociaux que nous, les citoyens et citoyennes, devenons mieux armés pour déceler les méfaits du techno-autoritarisme via le design persuasif. Donc comprendre les biais, résister à la désinformation et défendre les libertés fondamentales dans une société de plus en plus connectée est une condition sine qua non pour enrayer ces dynamiques liberticides et reconstruire un «
lien en ligne commun
».
3. Régulations et initiatives éthiques
En 2024, les différents abus des dirigeants et fondateurs des Big Tech ont créé un paysage numérique où les abus liés à la collecte et à l’utilisation des données personnelles sont devenus monnaie courante. Heureusement, des avancées législatives et technologiques ouvrent la voie à une régulation plus éthique et à une lutte contre les dérives du design persuasif. Rien qu’en Europe, le RGPD (Règlement général sur la protection des données) a établi un cadre juridique strict pour limiter la collecte abusive de données et renforcer les droits des citoyens-utilisateurs, notamment en matière de consentement éclairé.
Ce modèle inspire d’autres régions du monde et s’inscrit notamment dans une dynamique plus large, portée par des initiatives comme le DSA (Digital Services Act), qui vise à responsabiliser les plateformes et surtout réduire les pratiques manipulatrices intégrées dans leurs interfaces via les évangelistes et faux prophètes des Big Tech. Ces législations s’accompagnent d’un effort croissant de la part d’entreprises et d’associations pour promouvoir un design respectueux des utilisateurs, cherchant à contrer des techniques visant à exploiter leur attention ou à biaiser leurs choix, comme les dark patterns. Ce mouvement est renforcé par les projets d’IA explicable, qui rendent les algorithmes plus transparents et accessibles, permettant non seulement aux individus de comprendre comment leurs données sont traitées, mais aussi de se protéger des mécanismes automatisés qui influencent leurs décisions. Ces nouvelles mises en conformité me font croire qu’en liant législation, innovation et sensibilisation, ces efforts ouvrent la voie à une technologie qui cherche à servir le bien commun en plaçant la souveraineté de l’utilisateur au centre.
Un enjeu philosophique et politique de contrôle et de liberté.
Finalement, le techno-autoritarisme n’est pas seulement une menace technologique, mais aussi un défi éthique et politique. L’histoire montre que toute innovation porte en elle des risques et des promesses. De fait, relever ce défi exige de la vigilance, une régulation proactive et un engagement collectif pour garantir que la technologie reste un outil au service de l’humain et non l’inverse.
Ce que j’observe dans notre environnement tech, c’est que plus nous nous polarisons comme la société, moins ça marche. Selon moi, il est évident que la co-création technologique est la voie essentielle pour façonner un futur numérique respectueux des libertés et des aspirations humaines, tenant compte de tout individu et des minorités.
Associer citoyens, chercheurs, développeurs et régulateurs permet de concevoir des outils véritablement centrés sur l’humain, en intégrant une diversité de perspectives et en garantissant une utilisation éthique et équitable de la technologie. Cependant, ces démarches ne peuvent être dissociées des enjeux philosophiques et politiques qu’elles soulèvent. Et vraiment, je pense que le débat sur le rôle de la technologie dépasse le cadre technique. Il interroge les fondements de la société que nous voulons construire. Cela me fait d’ailleurs penser à l’Aréopage de l’Antiquité, lieu de jugement, mais aussi lieu où l’on venait débattre et convaincre. En clair, faire société entre croyants, scientifiques, stoïciens, juges. Comme à cette époque. Sans tourner au ridicule les uns et les autres, mais dans un challenge intellectuel, et loin d’être désacralisé comme la venue de Paul de Tarse à l’Aréopage, venu témoigner et convaincre dans ce lieu parmi cette population diversifiée, où la noblesse de l’effort de consensus argumenté. J’en appelle à une prise de conscience émotionnelle et philosophique.
Libération ou oppression, autonomie ou manipulation : ce choix est entre nos mains et il exige un engagement commun pour façonner une technologie qui sert l’humanité plutôt qu’elle ne la domine. En assumant cette responsabilité collective, nous pouvons décider si elle deviendra un instrument d’émancipation et de justice sociale ou si elle renforcera les dynamiques d’oppression et de contrôle. Ce choix, crucial pour notre époque, nécessite un engagement et une vision à long terme pour mettre la technologie au service du bien et des libertés fondamentales, quitte, peut-être, à éteindre nos smartphones.
Acronyme pour Google, Apple, Facebook, Amazon, et Microsoft.
↩
Retour au texte 1
Pourquoi un numérique inclusif ?
Le numérique occupe aujourd’hui une place centrale dans nos vies. Pourtant ses interfaces et services sont trop souvent conçus pour une majorité, laissant en marge des millions de personnes vivant avec des maladies chroniques ou des neurodivergences. Ces situations, loin d’être exceptionnelles, touchent une diversité de profils : des professionnelles jonglant avec l’endométriose, aux personnes atteintes de troubles de l’attention (TDAH), confrontées à des parcours numériques inadaptés. Pour ces individus, le numérique, censé simplifier la vie, devient fréquemment un obstacle supplémentaire.
C’est dans ce contexte qu’est né l’atelier Tous·tes Ensemble. Résultat d’une collaboration entre designers et personnes engagées, cet atelier illustre la persévérance nécessaire pour promouvoir l’inclusion et l’accessibilité dans le numérique. En 2024, il a été enrichi par une recherche-action menée avec Designers Éthiques, une organisation œuvrant pour un design responsable. Ensemble, des thématiques comme la précarité, l’endométriose et l’autisme ont été explorées, offrant des pistes nouvelles et concrètes.
L’atelier repose sur trois axes fondamentaux :
Comprendre les défis : explorer les réalités des personnes vulnérables grâce à des outils immersifs comme les cartes de vulnérabilités ou les témoignages.
Passer à l’action : identifier des obstacles dans les parcours numériques et proposer des solutions concrètes.
Promouvoir une inclusion durable : faire de l’inclusion un réflexe dans toutes les pratiques de conception.
Neurodivergences et maladies chroniques : des défis aux opportunités
Concevoir des interfaces numériques en tenant compte des maladies chroniques ou des neurodivergences peut sembler complexe. Pourtant, ces spécificités offrent une occasion unique de repenser nos méthodes pour concevoir des solutions universelles.
Prenons l’exemple du TDAH : pour réduire la surcharge cognitive, les interfaces doivent être claires, les informations hiérarchisées et les parcours simplifiés. Ces ajustements, loin de ne bénéficier qu’aux personnes concernées, profitent aussi aux novices ou aux utilisateurices sous pression.
De plus, cette approche sensibilise les équipes techniques et de design à une diversité d’usages. Écouter les témoignages des personnes concernées transforme les produits numériques, mais aussi la culture des équipes, instaurant une approche plus humaine et inclusive.
Cas concrets et apprentissages des ateliers
Les éditions récentes de Tous·tes Ensemble ont permis d’explorer des exemples concrets, révélant comment des outils numériques peuvent être repensés pour inclure les personnes vivant avec des maladies chroniques ou des neurodivergences.
Endométriose : Adapter l’outil Monday au quotidien professionnel
Les personnes vivant avec l’endométriose doivent composer avec des douleurs chroniques et une énergie fluctuante, rendant parfois difficile la gestion d’un emploi du temps rigide. Monday, un outil collaboratif conçu pour simplifier les processus de travail et offrir une visibilité accrue au sein des équipes, permet de prendre des décisions stratégiques fiables. Toutefois, il ne prend pas toujours en compte les besoins spécifiques de ces utilisatrices.
Pour répondre à ces défis, plusieurs solutions ont été envisagées :
Personnalisation des tâches : offrir la possibilité de répartir le travail selon les capacités du moment, permettant une flexibilité précieuse.
Rappels flexibles : intégrer des rappels qui laissent place aux imprévus, réduisant ainsi la pression liée aux échéances strictes.
Mode "jour difficile" : introduire une fonctionnalité qui ajuste automatiquement les priorités et notifications, limitant la surcharge mentale les jours où l’énergie est plus basse.
Ces ajustements démontrent qu’une interface flexible, comme celle proposée pour Monday, ne profite pas uniquement aux personnes concernées par l’endométriose. Elle devient également un atout pour toutes les équipes souhaitant travailler de manière fluide et efficace dans un quotidien parfois imprévisible.
TDAH : Voyager sereinement avec OUIGO
Voyager en train avec OUIGO, la filiale low-cost de la SNCF, peut être une expérience accessible et économique pour beaucoup, mais elle devient un véritable défi pour les personnes vivant avec un trouble déficit de l’attention avec ou sans hyperactivité (TDAH). Dès la planification et la réservation, les difficultés apparaissent : gérer les échéances nécessaires pour bénéficier des meilleurs tarifs demande une organisation rigoureuse, souvent entravée par des oublis fréquents ou des problèmes de mémorisation et de gestion d’informations essentielles comme les mots de passe ou les horaires.
Pour répondre à ces besoins, plusieurs solutions ont été explorées :
Une interface simplifiée et claire : prioriser les informations essentielles sur le site ou l’application Ouigo, comme l’horaire du train, le numéro de quai et les informations relatives à l’accès à bord. L’idée est de minimiser les distractions et la surcharge d’informations inutiles.
Itinéraires visuels pas-à-pas : proposer une fonctionnalité de navigation détaillée, guidant les utilisateurices depuis leur arrivée à la gare jusqu’à leur siège. Cela pourrait inclure des cartes interactives indiquant le chemin à suivre, des étapes claires (ex. : "passer le contrôle des billets", "se diriger vers le quai 5"), et même des notifications lorsque des étapes importantes approchent.
Des rappels précis et non intrusifs : mettre en place des notifications adaptées rappelant des éléments critiques (ex. : l’heure d’arrivée recommandée à la gare, le quai attribué ou le départ imminent du train). Ces rappels, paramétrables pour éviter une avalanche de notifications, réduisent le risque d’oublis et d’anxiété.
Autisme : Slack et l’intégration en milieu professionnel
Pour les personnes autistes, naviguer dans un environnement de travail numérique tel que Slack peut être une source de surcharge sensorielle et cognitive. Slack, plateforme collaborative incontournable dans de nombreuses entreprises, facilite les échanges grâce à des canaux thématiques, des discussions directes et des intégrations variées. Cependant, son interface riche en fonctionnalités et souvent dynamique, peut générer une surcharge d’informations, des distractions visuelles et des attentes implicites complexes à déchiffrer.
Pour répondre à ces besoins spécifiques, plusieurs solutions ont été explorées :
Une interface simplifiée et apaisée : permettre la personnalisation de l’affichage pour réduire la surcharge sensorielle. Cela inclurait des options pour désactiver les animations (comme les GIFs ou les émojis animés), appliquer un thème visuel apaisant avec des couleurs neutres et masquer les éléments non essentiels.
Organisation claire des canaux : structurer les canaux de discussion de manière logique et intuitive, avec des objectifs clairement définis pour chacun. Cela éviterait une navigation confuse et permettrait de masquer les canaux non pertinents, réduisant ainsi les informations inutiles.
Messages simplifiés et explicites : adopter des formulations directes et accessibles, en évitant les métaphores, expressions idiomatiques ou phrases ambiguës. Des messages clairs et concis aideraient les utilisateurices à comprendre et à interagir sans stress supplémentaire.
Guides et repères sociaux intégrés : inclure des didacticiels ou outils d’accompagnement, expliquant progressivement les fonctionnalités et les normes sociales implicites de l’espace de travail Slack. Ces repères permettraient aux utilisateurices autistes de se sentir à l’aise et d’interagir en toute confiance.
Ces ajustements visent à transformer Slack en un espace numérique inclusif, bénéfique non seulement pour les personnes autistes, mais également pour toute personne confrontée à des préférences ou besoins spécifiques. En rendant l’expérience collaborative plus fluide, accessible et apaisante, ces solutions amélioreraient non seulement le confort individuel, mais aussi la productivité collective des équipes.
Leçons et vision pour un numérique inclusif
Les expériences issues de l’atelier montrent l’importance de considérer l’inclusion dès les phases initiales de conception. Il ne s’agit pas seulement d’accessibilité, mais d’un levier pour créer des produits plus innovants et universels.
Pour faire avancer l’inclusion dans le numérique, il est essentiel de s’immerger dans les réalités vécues par les utilisateurices. Observer leurs interactions avec les outils numériques, écouter leurs témoignages et tester avec des publics diversifiés, permet de garantir que les solutions proposées répondent réellement à leurs besoins. Cette démarche peut être enrichie par des collaborations avec des associations spécialisées, ce qui permet d’identifier des besoins souvent invisibles aux équipes de conception. Un design flexible et personnalisable, offrant des modes adaptés aux préférences et contraintes des utilisateurices, constitue également une clé majeure pour enrichir l’expérience utilisateur tout en la rendant plus inclusive.
L’avenir du numérique inclusif repose sur l’adoption de standards inclusifs dans toutes les entreprises. Cela implique de diffuser des méthodologies éprouvées pour former des équipes sensibilisées aux enjeux d’accessibilité et d’inclusion. Il s’agit également de faire de l’inclusion une priorité éthique et stratégique, démontrant que des solutions pensées pour tou·te·s peuvent à la fois transformer la vie des utilisateurices et favoriser l’innovation et la performance.
Conclusion
Concevoir un numérique inclusif est une démarche exigeante qui nécessite un engagement collectif et une volonté de transformer nos pratiques pas à pas. Les leçons tirées de l’atelier Tous·tes Ensemble illustrent à quel point le design peut être un levier puissant pour promouvoir l’inclusion. En intégrant les vécus des personnes concernées, en testant avec des publics diversifiés et en développant des fonctionnalités flexibles et personnalisables, nous pouvons imaginer des expériences numériques universelles, où chaque utilisateurice se sent compris·e et soutenu·e.
Les cas explorés dans cet atelier montrent qu’avec une vision inclusive, il est possible d’aller bien au-delà des solutions actuelles pour redéfinir la conception du numérique. Cependant, cette réflexion ne devrait pas se limiter à des initiatives spécifiques ou ponctuelles : elle devrait s’élargir et s’inscrire dans toutes les équipes produits. En intégrant cette perspective dès les premières phases de conception, nous pouvons transformer non seulement les outils, mais aussi la culture des entreprises, en favorisant des pratiques où l’inclusion devient une évidence.
Un immense merci à Anne-Sophie Tranchet, Pascal Courtois , Candice Larmangeat et Stéphanie Vachon, ainsi qu’à toutes les personnes ayant participé aux ateliers ou partagé leurs témoignages. Ces récits authentiques et souvent poignants ont enrichi la méthodologie, rendant l’expérience immersive et profondément humaine.
Cette démarche dépasse un simple exercice de sensibilisation. Elle est une invitation à intégrer ces pratiques inclusives dans chaque projet numérique. Ensemble, nous avons le pouvoir de construire un numérique qui reflète véritablement la diversité humaine et crée un impact positif et durable pour tou·te·s.
Que pensez-vous de la vitesse à laquelle évolue la plateforme web (c’est-à-dire les technologies et les API que vous utilisez pour créer des sites et applications web) ?
Si vous trouvez que les choses avancent très lentement, c’est peut-être parce que vous attendez l’implémentation d’une API en particulier sur tous les navigateurs depuis un bout de temps.
Par contre, si vous trouvez que tout évolue trop vite, c’est peut-être parce que vous avez du mal à suivre les nouveautés. Après tout, dans le Web, de nouvelles fonctionnalités sont ajoutées en permanence.
Malheureusement, ces deux états coexistent. La plateforme web évolue à la fois extrêmement lentement et très rapidement.
Si on se concentre sur un domaine bien particulier en oubliant tout le reste, on a l’impression que les choses évoluent lentement.
En effet, il faut énormément de temps pour identifier un nouveau problème, inventer une solution adaptée, convaincre les organismes de standardisation que c’est effectivement la bonne solution, l’implémenter dans un navigateur (sans parler de tous les navigateurs), corriger les bugs persistants et aider les programmeur·euses web à l’adopter. Le cycle de vie complet d’une fonctionnalité peut facilement durer des années, voire des décennies.
Si, au contraire, on élargit notre perspective, on peut voir qu’un grand nombre de fonctionnalités sont offertes : du rendu simple de texte et d’images, en passant par des mises en page CSS (Cascading Style Sheets) avancées, l’accès aux fichiers locaux, l’exécution de modèles d’IA, ou encore le rendu de scènes 3D.
C’est justement parce que le Web offre toutes ces possibilités que beaucoup de choses évoluent en même temps.
La plateforme web n’appartient à aucun fournisseur unique. C’est une plateforme d’application basée sur des standards et implémentée par plusieurs fournisseurs. Elle est même conçue pour que n’importe qui puisse l’implémenter à nouveau, avec un nouveau navigateur internet (bien que cela soit extrêmement difficile).
Ceci la rend complètement différente des autres plateformes applicatives qui, en général, concentrent leurs efforts sur un plus petit nombre de domaines à la fois. Le Web, lui, a tendance à évoluer dans toutes les directions en même temps, et ce, en raison du nombre d’implémentations différentes et du nombre de contributeurs à ces implémentations. Et la synchronisation entre ces implémentations est très rare.
En tant que développeur·euse web, cette évolution paradoxale à deux vitesses peut parfois décourager.
Dans cet article, je vous propose des outils et des ressources pour suivre le flot incessant des nouveautés et, pourquoi pas, influencer la direction dans laquelle les choses évoluent.
J’ai peur qu’il n’y ait pas de solution magique, mais j’espère que le fait de partager ma propre compréhension de notre écosystème, acquise grâce à plus de 20 ans d’expérience dans le Web, dont 10 à travailler sur des navigateurs chez Mozilla et Microsoft, vous sera utile.
La lente montée en puissance de CSS Grid
Commençons par un exemple qui, à mon avis, illustre assez bien la lenteur avec laquelle la plateforme web évolue parfois.
CSS Grid est souvent cité comme une réussite du fait que tous les navigateurs l’ont implémenté la même année : en 2017. Mais derrière cette évolution en apparence soudaine, se cache une histoire bien plus longue. Revenons un peu en arrière pour revoir le développement complet de CSS Grid, depuis son idée initiale (merci beaucoup à mon collègue, Aaron Gustafson, pour son article « The Story of CSS Grid, from Its Creators », qui m’a été très utile lors de l’écriture de cette section).
Bert Bos et Håkon Wium Lie créent CSS en 1994 et, peu de temps après, commencent à réfléchir à un système de mise en page basé sur les grilles. Ils le proposent à la communauté en 1996, avec Dave Ragget, sous la forme de leur « frame-based layout model ».
L’utilisation des grilles pour faire de la mise en page sur le Web est donc déjà dans les esprits, mais c’est en 2005 que Bert Bos publie sa spécification CSS officielle pour en décrire le fonctionnement: Advanced Layout Module. Elle décrit le moyen, pour un élément, de définir une grille invisible dans laquelle ses descendants seraient placés (c’est exactement comme ça que CSS Grid fonctionne aujourd’hui).
Plus tard, alors que Microsoft travaille sur Windows 8 (la nouvelle version de l’OS qui offre la possibilité de créer des applications basées sur le Web), Phil Cupp se met à explorer des options de mise en page CSS plus riches pour soutenir ces nouvelles applications Windows. En 2011, lui et son équipe introduisent une implémentation de mise en page en grille dans Internet Explorer (display: -ms-grid), et la présentent au W3C en 2012, dans la spécification Grid Layout.
Ce moment de l’histoire de CSS Grid est crucial. Désormais, une implémentation concrète à tester et explorer est disponible, et non plus seulement une idée ou une vague spécification. Des gens commencent à s’y intéresser. C’est le cas de Rachel Andrew qui commence à expérimenter et à en parler (voir Giving Content Priority with CSS3 Grid Layout, Rachel Andrew, 2012).
Les membres du CSS Working Group commencent également à réfléchir à des moyens d’améliorer la proposition de Microsoft. Comme il existe maintenant une implémentation fonctionnelle, c’est bien plus simple d’imaginer les prochaines étapes et de voir rapidement ce qui pourrait fonctionner. Le groupe commence donc à intégrer de nouvelles idées. Par exemple, Peter Linss (alors coprésident du CSS Working Group) suggère d’ajouter le concept de lignes (grid lines) en complément du seul concept existant de pistes (grid tracks).
Le deuxième moment clé dans l’évolution de CSS Grid arrive en 2013, quand Bloomberg décide d’engager Igalia, un cabinet de conseil en open source, pour implémenter CSS Grid à la fois dans Blink (le moteur de rendu utilisé dans Chromium) et dans WebKit (le moteur de rendu utilisé dans Safari).
En parallèle, Rachel Andrew, ainsi que Jen Simmons continuent de créer de nombreux contenus (démos, articles et conférences), qui font grandir l’intérêt que porte la communauté à CSS Grid et qui aident à faire pression pour que les contributions d’Igalia soient acceptées dans les navigateurs. Quelques années plus tard, en janvier 2017, l’implémentation de CSS Grid arrive dans Chrome pour Android. En mars de la même année pour Firefox, Chrome, Opera et Safari. Et enfin, en octobre 2017 pour Edge.
Si on résume, le concept de mise en page en grille a commencé à être dans les esprits dès 1996, mais ne devient réalité qu’en 2011. Il n’est finalement intégré dans tous les principaux navigateurs, sous sa forme actuelle, qu’en 2017. Ce qui représente donc une période de plus de dix ans !
Mais l’histoire ne s’arrête pas là. En 2017, vous utilisiez CSS Grid, vous ?
Évolution de l’utilisation de CSS Grid sur les sites web chargés dans Chrome, entre le 15 mars 2017 et le 1er novembre 2024
Comme le montre le graphique ci-dessus, même après l’implémentation de CSS Grid dans tous les principaux navigateurs en 2017, son adoption a été très lente. Fin 2019, soit plus de deux ans après, seulement 5% des URLs ouvertes dans Chrome l’utilisent. Ce chiffre passe la barre des 10% en 2021 et atteint environ 30% aujourd’hui.
Bien sûr, CSS Grid est un type de mise en page dont tous les sites web n’ont pas besoin, donc l’objectif n’est pas d’atteindre les 100% d’utilisation. Mais je trouve qu’il illustre bien la lente adoption de cette fonctionnalité et je pense que cela tient à deux raisons principales :
Les développeur·euses sont en général très prudents quant à l’utilisation de nouvelles fonctionnalités, car ils doivent tenir compte des internautes qui n’ont pas forcément mis à jour leurs navigateurs.
Il faut du temps aux fonctionnalités récentes du Web pour devenir stables. Au début, elles ne marchent souvent pas tout à fait de la même manière, ou même pas correctement dans tous les cas d’utilisations.
Les sondages State of CSS confirment chaque année qu’il est difficile d’adopter de nouvelles fonctionnalités aussi rapidement qu’on pourrait le souhaiter, principalement parce qu’une partie des internautes reste bloquée sur des versions plus anciennes de navigateurs.
Du côté des bugs, il y a tellement de façons d’utiliser CSS Grid que le fait qu’il reste des cas particuliers à corriger, des années après la première implémentation, n’est pas surprenant. En fait, CSS Grid a même fait partie du projet Interop tous les ans depuis ses débuts en 2021, ce qui montre bien à quel point il est difficile et long de corriger les problèmes persistants d’interopérabilité.
Échantillon des tests (web-platform-test) CSS Grid réalisés dans Chrome, Edge, Firefox et Safari, qui ont été identifiés pour être fixés dans le cadre d’Interop 2024, et dont certains ne passent toujours pas
Influencer
Certes, la plateforme web évolue lentement, mais vous pouvez influencer son orientation et sa vitesse d’évolution. Peut-être que ça ne va pas vous sembler évident, mais mon expérience m’a appris qu’il ne faut jamais sous-estimer votre impact.
Les entreprises qui développent des navigateurs ont souvent leurs propres raisons stratégiques et commerciales pour le faire d’une manière ou d’une autre. Souvent, ces dernières ont leurs propres équipes en interne, qui développent des applications web ou collaborent avec des partenaires externes importants. Quoi qu’il en soit, ces partenaires internes ou externes ont besoin de nouvelles API et de nouvelles capacités pour leurs applications et comme ces besoins se traduisent en impacts commerciaux directs, ils sont souvent prioritaires, devant ceux de la communauté web pourtant plus large.
Cela dit, pour que ces besoins internes se concrétisent, ils doivent devenir des fonctionnalités standards du Web, qui sont destinées à être implémentées dans d’autres navigateurs et à durer dans le temps. Et pour que cela soit possible, les fabricants de navigateurs doivent en discuter au sein des organismes de standardisation et convaincre également les autres sociétés éditrices de navigateur de les implémenter. Tout au long de ce processus, il va être très important d’avoir accès à des données concrètes qui démontrent que ces besoins ne sont pas seulement internes, mais révélateurs de ce que demande aussi la communauté dont nous faisons toutes et tous partie. C’est là que vous pouvez intervenir.
Faites connaître vos cas d’utilisation, ouvrez de nouveaux bugs, votez sur les bugs existants et faites tout ce qui est en votre pouvoir pour que vos voix soient entendues. Aussi insignifiants que puissent vous paraître vos besoins, aussi nombreux soient les contournements existants, si vous vous exprimez, vous représenterez la voix d’un grand nombre de personnes qui restent silencieuses parce qu’elles ne savent pas comment s’exprimer ou n’ont pas le temps ou l’énergie de le faire.
C’est vrai, consacrer du temps pour interagir avec les fabricants de navigateurs ou même les organismes de standardisation est probablement réservé à une minorité privilégiée. Tout le monde ne peut pas se le permettre, en plus de son travail. C’est pour ça qu’il est très important que notre communauté dispose de mécanismes de collecte des besoins, qui soient accessibles et démocratiques. En voici quelques-uns que je trouve particulièrement efficaces.
Sondages
Ils prennent du temps et il en existe probablement trop, mais, à mon avis, les sondages State of HTML, CSS et JS ont un impact particulièrement important. Déjà, ils ne prennent pas énormément de temps à remplir. On y trouve aussi toujours quelque chose de nouveau à apprendre et, surtout, les fabricants de navigateurs se servent vraiment des résultats. Dans ces sondages, on trouve plusieurs questions qui portent directement sur des problèmes de fonctionnalités incompatibles entre navigateurs, trop limitées ou totalement absentes. Et les réponses à ces questions (y compris les commentaires libres que vous pouvez laisser) influencent directement les priorités des navigateurs.
Propositions pour le projet Interop
Une autre méthode consiste à faire entendre vos besoins via les propositions du projet Interop.
C’est un projet annuel auquel participent plusieurs fabricants de navigateurs et qui vise à améliorer en continu l’interopérabilité de la plateforme web.
Chaque année, quand une nouvelle édition du projet démarre, les organisations participantes invitent la communauté web à soumettre des propositions. Cette année, la période de soumission pour l’édition 2025 a eu lieu entre le 17 septembre 2024 et le 9 octobre 2024. Pendant cette période, tout le monde a pu proposer de nouveaux projets à l’équipe Interop. Pour vous, c’est l‘occasion de demander l’implémentation ou la correction de fonctionnalités existantes que vous ne pouvez pas encore utiliser.
Si une fonctionnalité dont vous avez vraiment besoin marche mal ou pas du tout sur certains navigateurs, vous pouvez soumettre une nouvelle proposition. Vous pouvez aussi consulter les propositions existantes et voter pour celles dont vous avez aussi besoin en ajoutant un emoji 👍.
Pour info, voici la liste des propositions pour Interop 2025.
Votes sur les bugs
Un autre outil que je trouve intéressant est la possibilité de voter au sujet de bugs des navigateurs. Tous les principaux navigateurs utilisent des gestionnaires de bugs publics, où sont collectés et organisés les bugs et les demandes de nouvelles fonctionnalités. De plus, il vous est possible d’y faire connaitre votre intérêt.
Par exemple, le gestionnaire de bugs de Chromium vous permet d’ajouter un vote en cliquant sur le bouton « Vote count » (« +1 ») sur la page de description d’un bug.
Les gestionnaires de bugs de Mozilla et Safari disposent aussi de compteurs de votes ou de la possibilité de vous mettre en copie (CC). Cependant, il faut garder en tête une chose importante : ces navigateurs se trouvent surtout dans une position de suiveur. Voter dans leur outil de suivi de bugs a donc moins de poids et est moins utile. Pour être plus clair : si vous développez un navigateur qui implémente moins de fonctionnalités que Chrome, vous vous exposez à des risques de compatibilité. Votre but premier va donc être de rattraper le retard en vous basant sur les sites qui ne marchent pas.
Toujours est-il que le problème, quand on veut se faire entendre sur un gestionnaire de bugs, c’est qu’il va d’abord falloir trouver le bon endroit pour le faire. C’est là que des projets comme browser-compat-data et web-features peuvent être très utiles. Ces projets open source contiennent une très grande quantité de données sur toutes les fonctionnalités de la plateforme web. Ensemble, ils forment un catalogue de tout ce que vous pouvez utiliser pour créer des sites web. De plus, ce catalogue est interconnecté avec de nombreuses autres données sur le Web. Un exemple concret est celui de l’explorateur web features (en cours de développement), qui liste les fonctionnalités du Web, et qui, lorsque cela est possible, fournit des liens vers les gestionnaires de bugs dès qu’une fonctionnalité n’est pas encore implémentée.
La fonctionnalité blocking="render", affichée dans l’explorateur, avec des liens vers les bugs Firefox et Safari correspondants.
L’initiative WebWeWant
Bien que le projet WebWeWant soit en pause pour le moment, c’est un mécanisme accessible et convivial, qui vous permet d’exprimer vos besoins. C’est un excellent forum généraliste qui sert à demander des fonctionnalités qui n’existent tout simplement pas encore sur le Web, alors que les méthodes précédentes se concentrent principalement sur les bugs de fonctionnalités existantes.
Nous sommes encore quelques-uns, issus de différents éditeurs de navigateurs, à continuer de se réunir régulièrement pour discuter du projet et il y a un réel intérêt pour le relancer.
Le rythme effréné du Web
Passons maintenant à l’autre extrémité, là où l’évolution du Web semble très rapide.
Comme je l’ai mentionné en introduction, la grande quantité de flux parallèles qui composent la plateforme et évoluent tous en même temps, donne l’impression qu’il n’y a jamais de pause, ni de rythme intrinsèque à cette évolution. C’est un sprint incessant où de nouvelles choses se produisent de manière chaotique, en permanence.
Pour illustration, rien qu’en 2024, plus de 100 fonctionnalités ont été implémentées dans un ou plusieurs navigateurs, et l’année n’est même pas encore terminée. En voici quelques exemples :
Support de align-content dans les mises en page block.
Anchor positioning.
Async clipboard API.
Container style queries.
La propriété field-sizing.
Les éléments exclusifs.
La propriété font-variant-emoji.
Popover API.
Storage buckets.
La propriété text-wrap:balance.
View transitions API.
…
Un autre exemple : cette année, plus de 320 nouvelles fonctionnalités ont été ajoutées au site web chromestatus.com. Il est utilisé par toutes les personnes qui contribuent au projet open source Chromium, pour y référencer les fonctionnalités qui commencent à être développées. Cela signifie donc qu’en 2024, le développement de 320 nouvelles fonctionnalités a démarré dans Chromium (la liste complète).
Comment rester à jour ?
J’entends très souvent des gens qui me disent qu’ils n’arrivent pas à rester à jour. En plus, la majorité de ce dont on nous parle dans les actualités du Web se concentre sur les fonctionnalités nouvelles, qui ne sont pas encore vraiment utilisables par le plus grand nombre. Ce qui n’arrange rien.
Par exemple, quand un navigateur implémente une nouvelle fonctionnalité, il annonce cette nouveauté au monde entier dès qu’elle est disponible, même si c’est le seul à l’intégrer et même si cela prendra encore de nombreuses années avant de pouvoir réellement l’utiliser.
Dans cette section, passons en revue des ressources qui peuvent vous être utiles. L’idée n’étant pas de toutes les utiliser, mais de trouver celles qui vous semblent les plus pertinentes.
L’explorateur web-features : une note de publication pour le Web
Quand on y pense, la plateforme web n’a pas de note de publication à proprement parler. Les autres plateformes applicatives en ont. Mais la nature multi-implémentation du Web signifie qu’il n’y a pas de versions centralisées (chaque navigateur a les siennes), et il n’y a aucune entité centrale qui s’occupe d’informer des nouveautés de chaque mise à jour.
Jusqu’à maintenant !
Voici une note de publication en cours d’élaboration sur laquelle je travaille avec le groupe WebDX du W3C : les release notes de l’explorateur web-features (un flux RSS est également disponible).
On y trouve une vue mensuelle des fonctionnalités nouvellement prises en charge par tous les navigateurs. Par exemple, la note de publication de novembre 2024 montre que la media query dynamic-range est désormais « Baseline widely available », c’est-à-dire disponible sur les principaux navigateurs, et depuis suffisamment longtemps pour qu’il soit sûr de l’utiliser.
Cette note de publication n’aurait pas pu exister sans le projet web-features, une initiative du groupe WebDX, qui vise à cataloguer toutes les fonctionnalités du web. Grâce à ce catalogue, on a pu créer des visualisations intéressantes des données, y compris cette note de publication pour le Web. Mais ces données alimentent également Baseline, que vous avez peut-être déjà vu sur les pages de MDN.
Baseline : une vue filtrée de la plateforme
Puisque j’ai mentionné Baseline juste avant, on va s’y intéresser de plus près.
Baseline, c’est un statut éditorial attribué aux fonctionnalités considérées comme suffisamment stables depuis assez longtemps pour être utilisées en toute sécurité. Il existe deux statuts à prendre en compte :
Baseline newly available (nouvellement disponible) : pour une fonctionnalité qui vient tout juste d’être prise en charge dans les principaux navigateurs.
Baseline widely available (largement disponible) : pour une fonctionnalité prise en charge dans les principaux navigateurs depuis suffisamment longtemps.
Vous avez peut-être déjà vu des widgets Baseline en haut des pages des sites MDN ou caniuse.com. Ils sont là pour vous aider à prendre rapidement des décisions sur ce que vous pouvez utiliser immédiatement ou sur ce que vous devriez aborder avec plus de prudence.
Cependant, faites attention : Baseline est seulement un indicateur. Chaque site web est unique. Ayez toujours une idée des navigateurs de votre public cible, avant d’utiliser une fonctionnalité. Mais aussi, et c’est très important, ne vous empêchez pas d’utiliser une fonctionnalité simplement parce qu’elle n’a pas reçu le statut Baseline. On peut souvent très facilement utiliser des choses récentes de manière progressive, tout en garantissant un bon fonctionnement sur tous les navigateurs.
Blogs des fabricants de navigateurs
En suivant les annonces faites sur les blogs des fabricants de navigateurs, vous avez toujours le risque de n’entendre parler que de fonctionnalités trop récentes pour pouvoir être utilisées, mais c’est tout de même une bonne manière de rester informé des évolutions de la plateforme.
Chrome: Chrome for developers.
Edge: Microsoft Edge Dev.
Safari: WebKit blog.
Firefox: Mozilla Hacks et Firefox Nightly news.
Parlons aussi du blog web.dev. Ce site est la propriété de Google, mais, contrairement au site Chrome for developers, sa ligne éditoriale prend en compte la plateforme web dans son intégralité, plutôt que Chrome uniquement. Un exemple récent est celui de Rachel Andrew, qui écrit sur web.dev des articles mensuels listant les dernières nouveautés disponibles sur tous les navigateurs (par exemple : New to the web platform in October).
Chrome platform status
Je l’ai brièvement mentionné plus tôt, le site chromestatus.com est une autre manière de rester informé des dernières nouveautés. Notez, cependant, que ce site ne traite que des navigateurs basés sur le projet Chromium.
Si vous voulez en savoir plus au sujet d’une future fonctionnalité, allez voir la liste des fonctionnalités sur le site, et utilisez la barre de recherche pour trouver ce que vous cherchez. Par exemple, en cherchant Masonry, on peut trouver la page dédiée à son implémentation. Sur le site, chaque page dédiée à une fonctionnalité vous donne accès à beaucoup d’informations à son sujet, mais aussi au sujet de l’état d’avancement de son implémentation dans Chromium.
Le site propose aussi une page Roadmap, qui montre la liste des fonctionnalités disponibles dans chacune des versions de Chrome.
Le tableau de bord web platform
Enfin, parlons de web platform, qui est aussi une initiative de Google. Ce tableau de bord peut vous aider à rester informé des changements de la plateforme web.
Sur la page principale, on y retrouve la liste complète des fonctionnalités du Web, ainsi qu’une barre de recherche pour trouver ce qui vous intéresse.
Chaque fonctionnalité affichée sur le site est accompagnée d’une table de compatibilité navigateurs et, ce qui est intéressant, d’un score pour chaque navigateur. Ce dernier provient du projet web-platform-test, une suite géante de tests à laquelle tous les fabricants de navigateurs contribuent et qui tourne continuellement sur tous les navigateurs. Bien que ce ne soit pas parfait, ces scores représentent tout de même un bon indice de la qualité de l’implémentation d’une fonctionnalité au sein d’un navigateur.
Par exemple, la page concernant CSS subgrid montre que ses scores d’implémentation varient entre 81.9% pour Firefox et 100% pour Chrome et Edge, et vous laisse aussi consulter l’historique de l’évolution de ces scores à travers le temps.
Web platform donne aussi accès à des vues filtrées, telle qu’une vue Baseline 2023, qui liste toutes les fonctionnalités devenues disponibles sur tous les navigateurs en 2023.
Conclusion
Développer pour le web aujourd’hui est très excitant. Les possibilités qui vous sont offertes permettent de créer à peu près n’importe quelle expérience dont vous pouvez rêver. Mais cette liberté vient au prix de difficultés inhérentes à la plateforme web. Naviguer dans les méandres de l’écosystème peut être compliqué et se tenir à jour est plus dur que jamais. C’est pourquoi j’espère que cet article vous aura équipé avec des ressources utiles.
Finalement, avoir accès à l’information dont vous avez besoin, ni trop, ni trop peu, c’est le plus important pour pouvoir donner du sens au flux d’informations incessant du web, mais aussi pour pouvoir en influencer la direction.
Dans le vaste royaume du numérique, entre octets déchaînés et sites surchargés, une question brûle les lèvres de notre druide : "Le numérique peut-il être responsable, scribe ?"
Mais, vous savez, moi je ne crois pas qu’il y ait de bon ou de mauvais numérique. Moi, si je devais résumer ma démarche pour un numérique responsable aujourd’hui avec vous, je dirais que c’est d’abord des rencontres, des échanges avec des personnes qui m’ont ouvert les yeux, peut-être à un moment où je ne réalisais pas l’impact de mes choix, où je scrollais sans vraiment voir, perdu dans un océan de pixels et d’écrans lumineux.
C’est fascinant, n’est-ce pas ? De se dire que les petits gestes, les bonnes pratiques, forgent une envie de faire mieux, une envie de faire autrement et sont les piliers fondateurs d’une transition. Parce que, quand on a le goût du détail, du code bien écrit, parfois on ne trouve pas immédiatement les personnes ou les outils pour bien avancer. Je dis donc merci à ces référentiels, je leur dis merci, je chante l’éco-conception, je danse l’accessibilité numérique… Je ne suis qu’espoir !
Et finalement, quand beaucoup de gens, aujourd’hui, me disent "Mais comment fais-tu pour garder cette énergie, cette humanité ?", et bien je leur réponds très simplement, je leur dis que c’est ce goût de l’impact positif, ce goût du service numérique bien fait, qui m’a poussé aujourd’hui à aller vers la sobriété, à concevoir sans design trompeur, à inclure les personnes en situation de handicap, et qui me poussera demain, qui sait, à me mettre encore plus au service de la communauté numérique, à faire le don, le don d’un web plus responsable…
Acte un : léger comme une plume, rapide comme Obélix au buffet
Scribe, qu’as-tu fait de ce site ? Pourquoi pèse-t-il autant qu’un menhir ?
Je voulais impressionner avec des animations flamboyantes et des vidéos 4K en autoplay… Mais ça rame !
Laisse-moi t’enseigner l’art de l’éco-conception, car un site responsable est un site qui respecte la planète. »
L’éco-conception, ce n’est pas une option, c’est une nécessité. En appliquant les 115 bonnes pratiques d’éco-conception web du Green IT ou le RGESN (Référentiel Général d’Éco-conception des Services Numériques), on apprend à réduire l’impact environnemental dès les premières étapes du projet. Il faudrait intégrer ces critères dans tout le cycle de vie du projet afin qu’ils soient mis en oeuvre et testés régulièrement.
Voici quelques conseils faciles à mettre en oeuvre qui ont un grand impact (liste non exhaustive) :
Questionner les besoins, c’est poser la question essentielle
"Est-ce que cette fonctionnalité est vraiment nécessaire ?" Dans un monde numérique en constante expansion, il est facile de se laisser emporter par l’ajout de fonctionnalités superflues ou de solutions surdimensionnées. Pourtant, chaque élément inutile alourdit le site, consomme des ressources et complique l’expérience utilisateur. Interroger les véritables attentes des métiers permet de recentrer les priorités sur ce qui apporte une réelle valeur ajoutée, tout en évitant les dérives de la sur-conception. En répondant aux besoins avec précision, on favorise la sobriété numérique et on bâtit des solutions à la fois efficaces, durables et adaptées à leur usage. Comme dirait César : "Mieux vaut un projet bien pensé qu’une ambition mal exécutée !".
Favorisez des designs simples, épurés, sans artifice
Un design sobre met en avant le contenu essentiel tout en facilitant la navigation. Il nécessite moins de scripts et de ressources graphiques tout en rendant les pages plus rapides à charger et plus légères. En supprimant les éléments décoratifs ou complexes inutiles, on réduit la charge cognitive et on améliore non seulement l’expérience utilisateur mais également l’accessibilité.
Éviter les carrousels infinis et les vidéos lancées automatiquement
Ces éléments interfèrent souvent avec l’expérience utilisateur en ajoutant des distractions ou des interactions non désirées. Les carrousels infinis peuvent frustrer, car ils imposent un défilement constant sans permettre une navigation contrôlée et claire. Les vidéos en lecture automatique, quant à elles, consomment des ressources inutilement et peuvent gêner des utilisatrices et utilisateurs dans des contextes où le son ou les contenus animés ne sont pas appropriés. Du point de vue de l’éco-conception, ils augmentent le poids des pages et la consommation d’énergie des appareils et serveurs, sans réelle valeur ajoutée.
Choisir un format adapté pour les images, les vidéos et les fichiers
Un site surchargé, c’est comme une pyramide mal conçue : cela finit par s’écrouler. Par exemple, en moyenne, une image .webp sera 30% plus légère qu’une image .jpeg ou qu’une image .png. Un autre exemple vécu dans un projet, il est possible de diviser par 8 le poids d’une page en changeant le format de sa police d’écriture.
Réduire les requêtes serveur
La réduction des requêtes serveur, c’est un peu comme éviter d’envoyer Obélix chercher un sanglier à chaque bouchée. Grâce à la mise en cache, les fichiers nécessaires (images, scripts, styles) sont stockés localement. Résultat : le serveur n’est pas sollicité à chaque visite, et la navigation devient plus fluide. En combinant cela à des scripts optimisés et minifiés, on réduit la charge du serveur, et on économise de l’énergie. Comme dirait Panoramix : "Une bonne optimisation vaut mieux qu’une potion magique."
Acte deux : l’accessibilité, une clé pour toutes et tous
Architecte, ce site est inutilisable pour les personnes en situation de handicap. Que dois-je faire ?
Mon cher ami, écoute, le RGAA (Référentiel Général d’Amélioration de l’Accessibilité) sera ton guide.
L’accessibilité numérique consiste à rendre possible l’accès à l’information et aux services numériques aux personnes en situation de handicap, quel que soit la nature du handicap et le support du contenu. 20% de la population française en est atteinte. Faire du numérique responsable, c’est œuvrer pour un numérique respectueux à la fois de la planète et des personnes, et encore plus dans un monde où la numérisation progresse à une vitesse fulgurante.
Le RGAA propose des critères précis pour concevoir des sites accessibles. Les référentiels sont des outils indispensables pour structurer et guider les actions. Ils offrent un écosystème de qualité déjà existant, prêt à être adapté aux spécificités de chaque organisation. "Pourquoi réinventer la potion magique quand elle est déjà là ?", dirait Panoramix. Grâce à eux, nous pouvons parler un langage commun, tel un architecte qui suit des plans clairs pour bâtir une pyramide solide.
Ils introduisent également des indicateurs clés de performance (KPI) essentiels : des métriques précises, des pourcentages de conformité, et des objectifs mesurables. Ces données permettent de valider des critères, de comparer les progrès dans le temps, et de visualiser les résultats concrets de la démarche. Grâce à ces outils, on optimise les stratégies en temps réel, on fixe des objectifs ambitieux mais réalistes, et surtout, on communique de manière transparente sur les avancées réalisées. "Ce n’est pas un petit chantier numérique, c’est une œuvre qui doit traverser les siècles ! Et ça, César, c’est le début de la gloire." En adoptant ces référentiels, chaque actrice ou acteur du numérique s’inscrit dans une dynamique collective, valorisant l’impact positif et mesurable de ses actions.
Acte trois : les outils, des potions magiques modernes
Scribe, puis-je utiliser des outils pour tester l’éco-conception et d’accessibilité de mon site web ?
Oui ce sont de bons alliés mais garde en tête qu’ils ne sont pas exhaustifs car la plupart des critères ne sont pas automatisables.
GreenIT Analysis et EcoIndex
Il s’agit d’une extension pour navigateur qui permet de quantifier les impacts environnementaux d’une page et qui vérifie également la mise en oeuvre de bonnes pratiques d’éco-conception. Il calcule une note dite "EcoIndex", autrement dit, un éco-score basé sur 3 axes : le poids de la page, la complexité du DOM et le nombre de requêtes.
Lighthouse
C’est un outil open source automatisé permettant d’améliorer la performance, l’accessibilité numérique ainsi que les bonnes pratiques web, SEO et Progressive Web App. Il exécute une série de tests sur la page puis génère un rapport d’analyse.
Les lecteurs d’écran comme NVDA
Utiliser des outils de synthèse vocale, aussi appelé lecteur d’écran, permet de lire le contenu d’un service numérique. Tester son site web avec un lecteur d’écran permet de savoir s’il est navigable facilement sans voir l’écran et si le déroulé des explications audios est pertinent pour chaque fonctionnalité.
Axe Dev Tools et WAVE
Axe est un outil de tests qui créé un rapport des problèmes d’accessibilité rencontrés sur une page d’un site avec les recommandations pour les résoudre. WAVE est également un outil d’évaluation de l’accessibilité web qui fournit un retour visuel en injectant des indicateurs directement à l’intérieur de votre page.
Acte quatre : du matériel responsable pour bâtir un empire durable
Les efforts d’un site web doivent être complétés par un travail sur le matériel informatique. C’est là que peut intervenir une politique informatique responsable. Hardis Group a commencé par les leviers suivants :
Allonger la durée de vie des équipements
La durée de vie des PC est passée de trois à quatre ans avec comme objectif six ans dans les prochaines années. Les écrans et les batteries des smartphones sont réparés et notre matériel protégé. Cela implique moins de renouvellements, donc moins de fabrication et de déchet.
Favoriser le reconditionné
Le reconditionné consiste à remettre à neuf des équipements usagés en les réparant, testant et certifiant leur bon fonctionnement pour leur offrir une seconde vie. Par défaut, les renouvellements passent à présent par des appareils reconditionnés.
Travailler la fin de vie des équipements
Collaborer avec des partenaires comme AfB (entreprise adaptée) permet de reconditionner environ 60% des équipements en fin de vie et de recycler les autres en toute sécurité.
Acte cinq : vers les sommets du numérique responsable
Architecte, que se passera-t-il si nous continuons sur ce chemin de surconsommation numérique ?
Prenons un moment pour regarder vers demain et voir comment bâtir un numérique qui ne se contente pas de survivre, mais de faire le bien.
Raisonner nos usages : le choix du nécessaire
Dans notre société de surconsommation, où chaque clic, chaque requête, chaque outil numérique semble indispensable, il est temps de s’arrêter et de questionner nos besoins. Pourquoi lancer des campagnes publicitaires avec des vidéos ultra HD pour dire la même chose qu’un visuel léger ? C’est là qu’intervient le concept de slow tech ou technologie lente en français : privilégier des usages choisis et réduire volontairement nos impacts. Comme un druide qui n’utiliserait sa potion magique qu’en cas d’absolue nécessité, chaque actrice et acteur du numérique doit se poser cette question : "Ce projet, cette fonctionnalité, est-ce vraiment essentiel ?" Moins de gadgets inutiles, plus d’impact réfléchi.
Embarquer tout un écosystème : une quête collective
Le numérique responsable ne peut être l’affaire de quelques initiés. Pour que la sobriété devienne un réflexe, il faudrait mobiliser tout un écosystème : les équipes techniques, marketing, commerciales, les utilisatrices et utilisateurs finaux, etc. La clé, c’est d’accompagner le changement pour transformer de simples réflexions en un nouveau paradigme. Cette démarche doit devenir un réflexe quotidien : poser des questions, proposer des alternatives, et surtout, travailler ensemble. Car comme dirait Panoramix : "La potion est plus puissante quand elle est partagée."
Garder le sourire face à la montagne
Par Toutatis, il serait faux de dire que ce chemin est sans embûches. Cette responsabilité implique de faire face à nos propres contradictions : continuer à utiliser le numérique tout en comprenant ses conséquences environnementales et sociales et en réduisant ses impacts. Et avec ces défis, il est essentiel de garder le sourire, de célébrer chaque petite victoire, chaque site allégé, chaque matériel reconditionné. La vision ? Un numérique instinctivement responsable, porté par une volonté collective.
Un avenir plus durable pour le web est possible
Alors, noble lectrice ou lecteur, que retiendras-tu de cette épopée ? Nous avons de belles montagnes à gravir, et aussi des résultats concrets à savourer. Par petites actions ou grands projets, chaque effort compte. À nous de bâtir des pyramides numériques durables, accessibles et éthiques, un numérique digne des Gaulois et des pharaons : ambitieux et humble face à la planète. Voilà un avenir qui donne envie d’agir !
Après plus de deux ans avec une activité de conférencière, je fais maintenant partie des orateurices confirmé·es et il arrive souvent que des personnes qui aient envie de se lancer dans cet exercice me demandent des conseils. J’ai longtemps cherché une ressource écrite par une ou un collègue qui reflèterait ce que je conseillerais mais n’en ai pas trouvé. Il y a beaucoup d’articles, de vidéos et même de livres de qualité sur comment faire une conférence mais ça ne me convient pas. En général, il y a beaucoup trop de conseils, ce qui me semble peu productif. Pensez aux documentations que vous lisez dans le cadre de votre métier. Si elles sont trop longues, vous allez vous décourager. Et souvent, il y a aussi des conseils très spécifiques qui relèvent plus du goût de la personne qui écrit l’article plutôt que des conseils génériques.
Par exemple, j’ai entendu des gens dire “il faut faire des diapositives très professionnelles, pas trop colorées, avec uniquement des informations concrètes”. Et c’est une possibilité, oui, j’ai assisté à de supers conférences où les diapositives étaient comme ça. Mais j’ai vu aussi plein de supers conférences où la présentation était à l’opposé de ce conseil.
J’ai aussi lu des conseils du genre “habille-toi sobrement” ou “ne t’habille pas trop casual, tu es en représentation”, ou au contraire “ne sois pas trop apprêté·e, tu risques de perdre l’attention de ton public”… Et j’ai même vu des conseils genrés, plein de bonne volonté j’imagine, mais que j’ai trouvés très problématiques, comme “ne mets pas de jupe ou robe, tu ne seras pas prise au sérieux”. Tous ces conseils pour moi n’ont aucun sens, pas uniquement parce qu’ils se contredisent, mais parce qu’ils imposent une règle rigide à des personnes très différentes.
On ne fait pas tous·tes les mêmes conférences. On n’aborde pas les mêmes thèmes, et même si on le faisait, je suis à peu près sûre qu’on le ferait tous·tes différemment. On n’a pas la même pédagogie, la même approche du public. On n’a pas non plus les mêmes enjeux selon notre genre, notre ethnie, notre orientation sexuelle, notre silhouette, notre handicap (etc.) quand on monte sur scène. Et on n’a pas les mêmes envies. Donner des conseils pour réussir une conférence est donc particulièrement difficile, parce que ces conseils devraient être personnalisés. J’ai pris un moment pour réfléchir, et j’en suis venue à la conclusion que mes trois conseils pour réussir une conférence sont :
Sache ce que tu veux dire.
Pense à l’accessibilité.
Parle de ton chien.
Pas de panique, je vais développer… En attendant, voici une photo de Trufa, ma chienne, dont je parle à chacune de mes conférences :
Cet article est sponsorisé par Trufa, qui m’a dit de dire qu’elle était la plus mignonne des chiennes...
Walk this way
Sache ce que tu veux dire
Je dis toujours que ma première conférence était à Paris Web en 2022, mais ça n’est pas tout à fait exact. En réalité, j’avais déjà fait une conférence en 2021. Une conférence courte d’une vingtaine de minutes, à distance, où je faisais un retour d’expérience de ma reconversion. Ma conférence à Paris Web en 2022 est la première fois que je me suis vraiment sentie conférencière, mais j’avais donc déjà eu un entraînement.
Et à l’occasion de cet entraînement, j’avais été coachée. Et mon coach m’a donné quelques conseils, celui que j’ai le plus retenu c’est de savoir de quoi je voulais parler. Parce que je n’avais que vingt minutes et, comme j’ai toujours tendance à vouloir le faire, en tirant le fil de ma conférence je tirais en même temps des tas d’autres fils que j’avais envie d’incorporer. Et très raisonnablement, à un moment, mon coach m’a dit : il faut que tu saches ce que tu veux dire, et après tu sauras parmi toutes tes idées lesquelles incorporer.
Et c’est un très bon conseil, que je continue d’appliquer. Une conférence c’est un temps court et c’est un format très particulier, pour lequel on n’a pas de seconde chance. Pas possible de mettre de notes de bas de page, pas possible de gratter quelques minutes de plus pour développer une tangente, et aucune idée de si les gens iront voir les ressources une fois chez elles·ux. Donc globalement, on a un temps donné, et c’est ça qu’il faut utiliser.
Si on ne sait pas où on veut aller, on ne pourra pas embarquer le public avec nous. Si on ne sait quel est notre sujet, notre argument, au-delà du pitch et du titre, alors on risque de se perdre. Et c’est vrai pour le type de conférences que je fais (des conférences sociales, souvent sous forme de plaidoyer) mais aussi pour les conférences dites techniques1 qui demandent malgré tout une argumentation, même si elle est souvent plus subtile, et surtout un fil directeur.
Alors définir ce qu’on veut dire dans une conférence est le plus important. C’est à faire au moment où on travaille l’idée, quand on crée le pitch et le titre pour envoyer aux CFP (Call For Papers - appels à propositions) des évènements. Si je n’écris jamais la conférence avant qu’elle soit acceptée quelque part, je sais toujours exactement ce que je veux dire dans cette conférence au moment où j’écris l’abstract.
Par exemple, j’ai eu la chance de faire l’ouverture du dernier Paris Web cette année avec ma nouvelle conférence Mots à Maux - comment le langage reflète et entretient les parties les plus toxiques de notre industrie. Quand j’ai postulé, je n’avais que peu d’idées précises de ce que j’allais mettre dans la conférence au niveau des contenus. J’avais déjà lu un des livres et plusieurs articles sur lesquels je me suis appuyée pour écrire la conférence, j’avais déjà étudié le sujet, je savais vers quels travaux me tourner, mais je n’avais aucune idée des citations que j’allais mettre ou de l’architecture que mon argumentation aurait. Par contre, je savais que l’argument au cœur de cette conférence était : au lieu de se contenter d’adapter le langage aux changements de sociétés, il faudrait l’utiliser comme outil pour changer la société. Et après des mois de travail sur la conférence, aujourd’hui si on veut la résumer au plus simple, ça reste cette idée qui ressort.
Savoir ce que je voulais dire m’a sauvé la vie plusieurs fois. Mon angoisse quand j’écris une conférence est toujours de ne pas avoir assez à dire. Alors je note toutes les idées qui me viennent proches ou éloignées et à la fin je me retrouve avec de quoi faire une journée sur le thème. C’est super parce que du coup je sais que je pourrai creuser le sujet d’autres façons : avec des articles, avec des ateliers... Mais c’est très embêtant parce que c’est très difficile de prioriser ce qui a sa place dans la conférence ou non, particulièrement avec mon angoisse pré-écriture qui est toujours "Oh mon dieu iels ont pris ma conférence mais en fait je n’ai rien à dire, ça va être vide et nul !" (On dit que les chien·nes et leurs humain·es se ressemblent, je ne me demande pas pourquoi Trufa est parfois une drama queen...)
Alors savoir ce que je veux dire me permet de faire le tri. J’élague jusqu’à avoir un fil clair. Et puis, si jamais une fois que j’ai écrit je me rends compte que je n’en ai pas assez, j’en rajoute un peu. 2
Savoir ce que vous voulez dire dans votre conférence vous évitera de passer à côté du sujet et de vous en rendre compte après l’avoir présentée à un public... J’ai été témoin de ce genre de moments et c’est vraiment triste parce qu’une conférence demande beaucoup de travail et se rendre compte que le public n’a pas du tout reçu ce qu’on voulait lui transmettre est un brise cœur.
Et Trufa va être très triste...
Pense à l’accessibilité
Quand on fait une conférence, le but est de faire passer son message au plus de gens possible. Ne pas penser à l’accessibilité est donc complètement absurde, puisque ça veut dire qu’une partie des gens ne pourront pas accéder à ton contenu.3 Alors oui, il y a des choses à faire pour rendre sa présentation accessible, et ça touche à plein de facettes de la conférence auxquelles on ne pense pas toujours. Je découvre régulièrement de nouvelles choses à faire, à ne pas faire, pour rendre mes conférences plus accessibles, et j’essaie de m’y adapter au mieux.
Et parfois, ça demande aussi de s’adapter aux évènements dans lesquels on va. Par exemple, à Paris Web, il y a le sous-titrage live et la traduction en LSF (Langue des Signes Française). Du coup, il y a toute une partie du travail qui est effectuée par la convention. Pour autant, ça nous demande de nous adapter. Moi qui parle très vite, et qui doit déjà corriger cette habitude en temps normal pour que les gens puissent me suivre, à Paris Web j’apprends petit à petit à aménager des pauses pour que les sous-titres et les signeuses LSF ne se retrouvent pas avec un énorme décalage.
Mais la plupart des évènements tech n’ont pas de sous-titrage ou de LSF. Il y a un an, j’étais à Berlin pour une convention tech où je faisais une conférence sur l’éthique dans la tech. Je la faisais en anglais, ce qui n’est pas un problème en soi, je parle anglais. Sauf que cette conférence n’avait pas d’aménagements pour l’accessibilité type sous-titrage live ou LSF et à la fin un homme du public est venu me voir. Il était sourd et avait eu du mal à faire fonctionner son outil de speech-to-text sur ma conférence parce que j’avais un accent français trop fort.
J’ai réalisé que je m’étais toujours appuyée sur les conventions à ce sujet et que je considérais que s’il n’y avait pas de sous-titrage, ça n’était pas de mon ressort de faire quoi que ce soit pour pallier à ce manque. Pourtant, me retrouvant face à quelqu’un frustré par ce manque d’accessibilité, je me suis dit qu’il y avait forcément quelque chose à faire. 4
Depuis, je fais ce que j’appelle un "pré-transcript" que je mets à disposition des personnes du public au début de la conférence. C’est ma conférence rédigée, diapositive par diapositive. Et même si ce n’est pas aussi bien qu’un sous-titrage live ou de la LSF, même si je n’apprends pas mon texte par cœur, que mes conférences sont vivantes, et que donc le transcript n’est pas parfait, les gens apprécient, ça semble aider pas mal de personnes à suivre.
Autrement, il y a d’autres choses auxquelles penser au niveau de l’accessibilité, et je n’ai sûrement pas une liste exhaustive à donner mais je sais que pour moi les points d’accroches ont été les suivants : faire attention à ce que les textes ne soient pas trop petits, que les contrastes soient corrects, faire une description à haute voix de l’image sur la diapositive si elle est porteuse d’information, attention à ne pas parler trop vite (mon problème principal donc), à bien articuler...
Il y a sûrement des tas d’autres conseils que j’oublie, mais ce qui est sûr c’est qu’il faut surtout écouter son public et ne pas hésiter à s’adapter selon les retours. Et oui, ça demandera du travail, mais ça fait partie intégrante du travail d’orateurice. Si vous pensez que l’accessibilité c’est du bonus et pas la base, c’est un problème plus vaste que la question des conférences.
Et Trufa va vous juger...
Who let the dogs out?
On en arrive donc au dernier conseil : parle de ton chien !
Vous allez me dire : “Oui mais et si on n’a pas de chien ?” Pas de panique, c’est bien sûr une métaphore… Quoi que j’apprécierais que tout le monde parle de ses chiens, chats, tortues, oiseaux, rongeurs, lapins (etc) plus souvent en conférence parce que je trouve insupportable de ne pas voir des photos d’animaux mignons partout !
Quand j’ai fait ma première conférence pour Paris Web, je l’ai écrite, je l’ai apprise... Rien de bien étonnant... Et puis, deux jours plus tôt je me suis réveillée le matin en réalisant que ça n’allait pas. Je n’étais pas satisfaite de ce que j’avais fait, c’était beaucoup trop linéaire. J’avais écrit un truc assez classique : je racontais mon expérience de reconversion, et après je faisais un plaidoyer pour les profils atypiques. Mais je trouvais que ça manquait de puissance. La première partie était plan-plan, la deuxième semblait artificielle... Bref, il fallait que je refasse complètement la structure.
Donc j’ai fiévreusement tout détruit pour tout reconstruire, ce qui fait que j’ai testé à l’oral ma conférence pour la première fois la veille, dans la chambre d’hôtel et que je n’ai eu le temps de la répéter que deux fois avant de me retrouver sur scène. Encore heureux que parler en public n’était pas particulièrement angoissant pour moi parce que c’était vraiment chaotique. Mais j’avais eu raison de faire ça, la première version était sûrement ce que la plupart des gens m’auraient conseillé de faire, mais ça ne me ressemblait pas. Et une conférence qui ne vous ressemble pas ne fonctionnera pas.
Une conférence n’est pas uniquement un savant mélange de faits, d’une argumentation ou de travaux que vous exposez. C’est votre personnalité, votre façon de la dire, qui permettra au public de vous suivre sur votre cheminement. Si vous vous forcez à faire quelque chose qui ne vous correspond pas, ça se verra tout de suite et le public ne vous suivra pas.
Moi je suis incapable de faire quelque chose de très formel. J’ai besoin de liberté quand je déroule un fil. J’ai plusieurs conférences qui sont carrément sur un modèle complètement chaotique : on part dans tous les sens, et à la fin on se rend compte qu’en fait il y avait une cohérence et que ça nous a amené·es exactement là où je voulais. C’est un travail d’équilibriste, ce n’est pas évident à faire et ça ne s’adapte pas à tous les sujets. Mais quand ça fonctionne, ça fonctionne très bien.
Même sans aller jusque là, j’ai besoin d’être moi-même sur scène. J’ai besoin de pouvoir bafouiller à certains moments, de perdre mes mots, d’y revenir. J’ai besoin de pouvoir placer une blague imprévue. J’ai besoin de pouvoir faire référence à une actualité. J’ai besoin de pouvoir rebondir sur les réactions du public. Bref, mes conférences sont vivantes. Je les travaille énormément au préalable pour qu’elles puissent avoir la liberté de l’être, parce que c’est comme ça que je suis à l’aise. Si je devais juste réciter un texte à chaque fois, je m’ennuierais, je ne ferais plus de conférences si c’était ce qu’on attendait de moi.
Et dans toutes mes conférences, je parle de ma chienne. Pire, je parle de ma chienne, Trufa, et de notre colocachienne, Plume. Et je montre une photo. Je fais ça juste après m’être présentée et juste avant d’entrer dans le vif du sujet. Au début j’ai fait ça parce que ça me permettait d’avoir un temps de respiration et que ça me déstressait pour lancer ensuite la conférence à proprement parler. J’ai réalisé depuis que c’était aussi une super façon d’humaniser le discours, de créer un lien avec le public. En montrant mes chiennes, je montre une partie de moi, je casse le mur qui est entre nous.
Je sais que certaines personnes vous conseilleront de garder ce mur. Il faut dire qu’il est rassurant. Arriver sur scène, donner sa conférence en étant aussi neutre que possible, en se positionnant au-dessus du public, comme une experte ou un expert, et ne surtout pas essayer de créer une relation, ça paraît plus sécurisant. Garder les gens à distance les empêche de nous faire du mal. Et monter sur scène est une action qui nous rend très vulnérable, je comprends pourquoi on pourrait avoir envie de se protéger.
Mais en fait, créer du lien avec le public, c’est se protéger aussi ! C’est lui rappeler votre humanité commune. C’est vous rendre sympathique. C’est aussi faire en sorte qu’on se souvienne de vous et de votre sujet.
Quand j’étais éducatrice spécialisée, on me demandait souvent "mais spécialisée de quoi ?" et ma réponse, qui était la même que celle que mes formateurices m’avaient faite, était "de la relation". Parce que c’est ça en fait le métier que j’ai fait, c’était créer des relations avec les gens que j’accompagnais pour qu’iels me fassent confiance pour les accompagner sur leurs problématiques sociales, médicales... Iels allaient devoir être très vulnérables avec moi, alors une de mes techniques était de casser ce mur, justement. De me montrer vulnérable à mon tour. Et ça créait une relation qui était équitable, ça évitait qu’iels me voient comme une autorité (ou pire, comme une sauveuse !) et ça créait une confiance. Certain·es de mes collègues fonctionnaient autrement, parfois au contraire prenaient une position très verticale... Et j’ai pu voir à quel point ça pouvait compliquer le parcours.
J’applique à mes conférences ce que j’appliquais quand j’étais travailleuse sociale : si je veux que les gens marchent avec moi sur le bout de chemin qu’on est sensé·es faire ensemble, alors je dois être moi-même, être honnête et accepter de me montrer vulnérable.
C’est ça que je fais quand je parle de ma chienne. Et ça me permet d’aller très loin dans la vulnérabilité, ça me permet d’aller vraiment au fond des choses. Et ça permet que les gens m’écoutent. Même quand c’est pas du tout leurs sujets de prédilections, mêmes dans les conférences très orientées tech, même quand j’ai été la première conférence sociale à certains évènements... Mes conférences ont toujours été bien reçues.
Alors, parlez de votre chien. Ou faites une référence à votre club de football préféré comme une copine à moi. Ou faites des références à votre film fétiche dans votre présentation... Il y a un million de façons d’être soi-même et de se montrer vulnérable sur scène, trouvez la vôtre.
Et puis bon, partagez des photos de vos animaux quand même !
Ici je peux faire des notes de bas de page... Et donc j’en profite pour vous rappeler que tous les domaines ont leur technique. Et que faire une conférence sociale c’est aussi faire une conférence technique. ↩
Mais c’est rare, j’en ai en général plutôt trop. Je suis bavarde, j’y peux rien... ↩
Bien sûr c’est aussi important éthiquement d’y penser, mais c’est un sujet qui demanderait un article en lui-même. ↩
J’ai écrit un article plus détaillé sur cette anecdote qui est plus compliquée que ça : Validisme Contre Validisme ↩