The political effects of X's feed algorithm 💡

A randomized field experiment conducted on X (formerly Twitter) in 2023 examined the political effects of the platform’s feed algorithm. Researchers assigned active US-based users randomly to either an algorithmic or chronological feed for 7 weeks, measuring political attitudes and online behaviour. The study found that switching from a chronological to an algorithmic feed increased engagement and shifted political opinion towards more conservative positions, particularly regarding policy priorities, perceptions of criminal investigations into Donald Trump, and views on the war in Ukraine. The algorithm promotes conservative content and demotes posts by traditional media. Participants exposed to the algorithmic feed were more likely to follow conservative political activist accounts, which they continued to follow even after switching off the algorithm. In contrast, switching from the algorithmic to the chronological feed had no comparable effects on political attitudes, suggesting that initial exposure to the algorithm has persistent effects on users’ political attitudes and account-following behaviour.

Baromètre du numérique - Édition 2026 💡

Le Baromètre du numérique est une étude annuelle qui mesure la diffusion des équipements et usages numériques en France. L’édition 2026 (enquête réalisée en juin 2025 par le CREDOC auprès de 4 145 personnes de 12 ans et plus) met en lumière la montée en puissance de l’IA générative et l’évolution des pratiques numériques des Français. Près de la moitié de la population (48 %) utilise désormais des services d’IA générative, soit une hausse de 15 points en un an — un niveau d’adoption atteint en trois ans, là où le smartphone en avait nécessité sept. Plus d’un utilisateur sur trois y a recours quotidiennement. Les cas d’usages les plus populaires sont la recherche d’informations (73 %), l’aide à la rédaction et traduction de texte (58 %) et la génération de nouvelles idées (57 %). L’usage est massif chez les jeunes adultes (85 %) et les cadres (76 %). Dans la plupart des cas d’usages, l’IA est préférée aux moteurs de recherche. Une large majorité des jeunes l’utilise pour l’aide aux devoirs (68 % des 12-17 ans, 73 % des 18-24 ans). La méfiance vis-à-vis de l’IA diminue mais reste un frein : 52 % de la population se déclare méfiante (−5 points en un an). Une majorité (46 %) estime que l’impact environnemental de l’IA est supérieur à celui des moteurs de recherche. Par ailleurs, 86 % de la population dispose d’un abonnement internet fixe, dont 78 % en fibre optique, avec une homogénéisation sur l’ensemble du territoire. Près d’une personne sur quatre a fait réparer au moins un appareil numérique au cours des trois dernières années.

Étude sur le modèle économique de l'information en France

L’Arcom et la direction générale des médias et des industries culturelles (DGMIC) du ministère de la Culture publient une étude sur le coût de production de l’information en France et la soutenabilité des modèles économiques des acteurs concourant à son financement. L’étude a été réalisée par le cabinet de conseil en stratégie PMP Strategy. L’information des citoyens est essentielle à l’effectivité des mécanismes démocratiques. Or, produire une information honnête, indépendante et pluraliste est une activité coûteuse. Dans un contexte marqué par l’érosion des revenus publicitaires des médias producteurs d’information, l’étude interroge la soutenabilité de leur modèle économique. Principaux enseignements : Volume d’information : 40 000 numéros parus en 2024 pour les titres IPG (toutes catégories confondues) ; 180 000 heures d’information diffusées sur l’audiovisuel (radio et télévision) en France ; 34 000 ETP contribuant à la production d’information, dont les trois quarts sont des journalistes. Plus de 70 % des coûts sont liés à la masse salariale des médias. Coût de production : le coût de la production d’information politique et générale est estimé à 2,9 milliards d’euros en France en 2024, dont près d’un tiers est porté par l’audiovisuel public et près d’un quart par 9 groupes diversifiés hors média. Modèle économique des médias : 62 % des recettes publicitaires en France en 2024 sont captées sur des canaux numériques, dont les trois quarts par les grandes plateformes (Alphabet, Meta, Amazon, TikTok, LinkedIn, Snap, X, Pinterest). 56 % des médias interrogés sont déficitaires, et plus de 80 % ont une marge faible ou négative (< 6 %). Les trois principales sources de revenus — publicité, abonnements et dotations publiques — sont en baisse ou menacées. Impact de l’IA : l’IA redéfinit l’accès à l’information et intensifie la pression sur les médias. Google AI Overview a entraîné une baisse moyenne de 10 % du trafic pour les éditeurs de presse (jusqu’à 25 %). 15 % des jeunes de moins de 25 ans utilisent l’IA générative pour s’informer. Les médias anticipent une augmentation des coûts liés à l’intégration de l’IA, mais aussi des gains de productivité allant jusqu’à 10 % dans les années à venir.

RESIL IT : Mon entreprise résiliente - Guide par et pour les TPE et PME

Face aux polycrises environnementales, géopolitiques et sociales, Digital League a réuni un écosystème d’experts numériques engagés pour co-concevoir un guide d’adaptation à destination des TPE et PME. Ce guide, intitulé « RESIL IT : Mon entreprise résiliente », a été co-construit lors d’une journée de sprint d’idéation le 10 octobre 2024 à la Métropole de Lyon, avec plus de 40 contributeurs issus d’associations, clusters, entreprises technologiques, collectivités, écoles, reconditionneurs et experts. Le guide est organisé autour de 5 grands axes : Souveraineté & Responsabilité : identifier ses dépendances critiques, anticiper les risques, renforcer son autonomie stratégique. La juste place de l’IA : évaluer l’adéquation entre ses valeurs et les usages d’IA, anticiper les impacts organisationnels. Green IT vs IT for Green : distinguer les impacts environnementaux du numérique et son potentiel d’action au service de la transition. Reconditionnement : allonger la durée de vie de son parc IT, intégrer des pratiques circulaires à sa stratégie. Compétences en numérique responsable : faire monter ses équipes en maturité, diagnostiquer ses besoins, s’auto-positionner. Ce guide s’adresse aux TPE, PME et ETI du numérique, mais aussi à toutes les structures souhaitant accompagner leur transition vers un numérique plus durable et stratégique. Il est le fruit de plus de 700 participants impliqués depuis 2020 dans des ateliers, conférences et formations autour du numérique responsable au sein de l’écosystème Digital League.

La CNIL cartographie le déploiement des outils RGPD en Europe

Pour faciliter l’identification des outils de conformité disponibles, la CNIL met en ligne deux cartes qui recensent les certifications et les codes de conduite approuvés par les autorités nationales ou par le Comité européen de la protection des données (CEPD) depuis l’entrée en application du RGPD. Les certifications et les codes de conduite sont des outils opérationnels facilitant la démarche de mise en conformité des professionnels. Ils permettent d’harmoniser les pratiques au sein d’un secteur d’activité et apportent des garanties appropriées en matière de protection des données. On en dénombre aujourd’hui une trentaine, tant au niveau national qu’européen : lorsqu’ils sont à portée européenne, ils sont conçus pour être proposés dans toute l’Union européenne. La certification (article 42 du RGPD) permet d’attester qu’un produit, un service ou un traitement de données respecte des critères de protection des données fixés dans un référentiel approuvé. Elle constitue un outil volontaire de preuve de conformité et renforce la confiance entre professionnels et usagers. Les certifications peuvent concerner des organisations (ex. prestataires de formation en protection des données) ou des personnes (comme la certification des compétences des DPO). Un code de conduite (article 40 du RGPD) traduit les obligations du règlement en règles concrètes adaptées à un secteur d’activité particulier. Élaboré par des fédérations ou associations professionnelles, il vise à harmoniser les pratiques et à faciliter la conformité collective. Une fois approuvé par les autorités nationales ou après avis du CEPD pour les codes européens, le code s’impose à ses adhérents. La conformité au code est assurée par des organismes de contrôle agréés. Les cartes de la CNIL offrent une vue d’ensemble des dispositifs approuvés dans les États membres de l’Union européenne. Elles permettent aux organisations d’identifier les certifications et codes de conduite existants selon leur domaine d’activité ou leur pays, et d’envisager plus facilement leur propre démarche de conformité.

The carbon and water footprints of data centers and what this could mean for artificial intelligence

Although there are ways to estimate the global power demand of AI systems, it remains challenging to quantify the associated carbon and water footprints. The lack of distinction between AI and non-AI workloads in the environmental reports of data center operators makes it possible to assess the environmental impact of AI workloads only by approximating them through data centers’ general performance metrics. The environmental disclosure of tech companies is, however, often insufficient to determine even the total data center performance of these companies. The carbon footprint of AI systems alone could be between 32.6 and 79.7 million tons of CO2 emissions in 2025, while the water footprint could reach 312.5–764.6 billion liters. The shortcomings in the environmental disclosure of data center operators could be remedied with new policies mandating the disclosure of additional metrics. Because the environmental impact of data centers is growing rapidly, the urgency of transparency in the tech sector is also increasing.

Prospective d'évolution des consommations des data centers à court, moyen et long terme de 2024 à 2060

Cette étude de l’ADEME, réalisée par le groupement CLIK et Hubblo, répond à trois objectifs : État des lieux : dresser l’état des lieux de la consommation électrique actuelle des centres de données en France. Modèle prospectif : proposer un modèle prospectif détaillé permettant de modéliser des scénarios d’évolution des consommations des centres de données dans le temps. 5 scénarios jusqu’en 2060 : un scénario tendanciel et 4 scénarios envisageant les chemins possibles de transition écologique. L’étude prend en compte les émissions de gaz à effet de serre, la pression sur les ressources en eau, l’artificialisation des sols, la concurrence avec d’autres usages de l’électricité, ainsi que les enjeux de souveraineté numérique. Elle distingue également les consommations en France des consommations à l’étranger pour un usage français.

Quelle juste place du numérique dans nos sociétés actuelles et à venir, sous l'angle de l'éthique de l'environnement ?

Ce dossier de la revue Interfaces numériques interroge la juste place du numérique dans nos sociétés actuelles et à venir, sous l’angle de l’éthique de l’environnement. Il part d’un paradoxe fondamental : le numérique est omniprésent et pénètre tous les aspects de la vie humaine, tout en étant synonyme de « désastre écologique » par son importante empreinte énergétique et matérielle. Les auteurs identifient deux postures face à ce paradoxe : la sobriété numérique comme changement de modes de vie, et une « politique de renoncement » ou « écologie du démantèlement » de certains imaginaires et infrastructures. Ils avancent l’hypothèse d’une mise en tension heuristique entre deux concepts quasi paradigmatiques : l’« hyperbien écologique » et l’« hypersystème techno-numérique ». Le dossier est organisé autour de deux axes majeurs : Axe 1 — Récits et imaginaires : analyse des plateformes numériques dans la production de récits écologiques (Netflix, applications d’identification de la nature), et des représentations visuelles médiatisées des récits « éco-numériques ». Axe 2 — Engagements individuels et collectifs : étude des pratiques dans le secteur des organisations (métiers RSE, entrepreneurs à impact, « perma-entreprise ») et dans le secteur éducatif (écologie ordinaire chez les étudiants, sobriété numérique chez les enseignants, éthique Ubuntu et éducation à la sobriété numérique). Le dossier inclut notamment un entretien avec Thomas Breuzard (Norsys) sur la « perma-entreprise » et un entretien avec Étienne Mineur (Arts décoratifs de Paris) sur les intelligences artificielles génératives. Il plaide pour une approche de « composition » inspirée de Bruno Latour afin d’inventer un numérique juste, à travers des arrangements, négociations et modus vivendi collectifs.

From FLOPs to Footprints: The Resource Cost of Artificial Intelligence

As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB GPU was analyzed using inductively coupled plasma optical emission spectroscopy, identifying 32 elements. Results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals — copper, iron, tin, silicon, and nickel dominate by mass. Using a multi-step methodology integrating these measurements with computational throughput per GPU across varying lifespans, the study finds that training GPT-4 requires between 1,174 and 8,800 A100 GPUs depending on Model FLOPs Utilization (MFU) and hardware lifespan — corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can significantly reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, extending lifespan from 1 to 3 years yields comparable savings, and implementing both measures together reduces GPU needs by up to 93%. The study highlights that incremental performance gains — such as those between GPT-3.5 and GPT-4 — come at disproportionately high material costs, and underscores the necessity of incorporating material resource considerations into discussions of AI scalability.

Accessibilité numérique : cartographie du niveau d'accessibilité des sites web des communes françaises - Édition 2

La Direction interministérielle du numérique (DINUM), le réseau Déclic et l’ADULLACT publient la deuxième édition de la cartographie du niveau d’accessibilité des sites internet des communes françaises. Faisant suite à une première édition de juillet 2025 portant sur 6 568 communes, cette nouvelle analyse s’étend à l’échelle nationale avec 23 000 sites internet analysés, offrant un état des lieux quasi exhaustif de l’accessibilité numérique sur l’ensemble du territoire. Méthodologie : la démarche s’appuie sur le jeu de données des « noms de domaine du secteur public » de la DINUM (plus de 37 000 sites publics) et utilise le logiciel libre Asqatasun, qui teste chaque page d’accueil selon 117 tests du RGAA (soit environ 1/3 du référentiel). Une note indicative de A (conforme) à F (non conforme) a été attribuée à chaque commune. Résultats : les données révèlent un niveau de conformité très faible sur l’ensemble du territoire : 95 % des sites audités obtiennent une note comprise entre D et F ; Plus de 60 % (plus de 14 000 communes) se situent au niveau de conformité le plus faible (F). Cette initiative rappelle que l’accessibilité numérique est un droit fondamental et une obligation légale, conditionnant l’accès aux droits et aux services publics pour des millions de citoyens en situation de handicap, âgés ou éloignés du numérique. Une cartographie interactive est disponible en ligne et une démarche participative permet aux communes de signaler corrections et mises à jour.