Revue de presse - Avril 2026

Une personne travaille devant un écran dans un bureau chaleureux et encombré de livres, avec une vue nocturne sur une ville futuriste, accompagnée d’un panda roux endormi et de petits robots.

Frontend🔗

Announcing npmx: a fast, modern browser for the npm registry🔗

#NPM #Node.JS #Frontend

Annonce officielle de npmx.dev, qui est pour l'instant un frontend alternatif à npmjs.com. Je dis pour l'instant, car l'article parle de frustration autour du CLI npm aussi donc peut-être qu'ils tenteront quelque chose aussi.

Personnellement ça fait quelques semaines que j'utilise npmx.dev en remplacement de npmjs.com au quotidien (sauf pour la partie privée de gestion de package) car :

Ce n'est évidemment pas parfait (parfois des pages que je dois refresh pour que ça fonctionne, etc) mais ça me facilite la vie, donc je recommande. Surtout que ça n'a aucune incidence sur vos projets !

Absorbing unknown Into the Type Realm🔗

#TypeScript #Frontend

L'intro donne une bonne idée du problème

Every as in your TypeScript is a tiny lie. Sometimes a necessary one, but a lie nonetheless — you're telling the compiler "trust me" about data it can't verify. The question is: when can you avoid it?

La conclusion résume assez bien l'article :

When unknown data arrives at your boundary:

  1. Can you validate it? Use zod (or any schema library). This is the best option for JSON from APIs, databases, localStorage, URL params. 2. Can you narrow it? Write a type guard or assertion function. Best for discriminated unions, string literals, set membership, preconditions.
  2. Is it a generic boundary? One as in the utility, validation at the call site.
  3. Is it structural plumbing? (Proxies, generated code) Inline disable, move on.

The goal isn't zero as — it's zero unexamined as. Every cast should be a conscious decision, not a reflex.

Faut vraiment que j'utilise plus Zod de mon côté ! Et je découvre better-result c'est intéressant !

human.json🔗

#Web #Frontend

L'idée c'est que chaque humain qui publie en ligne peut ajouter un fichier human.json qui a cette forme :

{
  "version": "0.1.1",
  "url": "https://example.com/~alice",
  "vouches": [
    {
      "url": "https://bob.example.com",
      "vouched_at": "2026-01-15"
    },
    {
      "url": "https://example.com/~charlie",
      "vouched_at": "2025-11-02"
    }
  ]
}
JSON

Qui permet d'indiquer qu'on affirme être un humain qui écrit un site et qu'on atteste que d'autres sites sont rédigés par des humains. Si quelqu'un d'autres attestent qu'on est un humain on a donc une chaîne de confiance qui se crée brique par brique.

Pour suivre cette chaîne de confiance :

  • on doit indiquer dans nos pages web <link rel="human-json" href="/path/to/human.json"> ;
  • on peut utiliser l'extension dédiée pour suivre cette chaîne de confiance avoir une indication dans son navigateur de la confiance ;

J'aime bien l'idée même si c'est purement basé sur la confiance.

Backend🔗

Evolving the Node.js Release Schedule🔗

#NodeJS #Node.JS #Backend

Changement historique et majeure pour l'écosystème Node.js : le cycle de release va radicalement changer pour le mieux !

On passe d'un modèle où 2 versions majeures sortaient chaque année mais une seule considérée comme stable (exemple en 2025 : la 24 sortie en mai était stable, la 25 sortie en octobre ne l'était pas) à un modèle où on aura une seule version chaque année, à date à peu près fixe (avril) et où toutes les versions deviendront stables.

Timeline de sortie des versions à partir de maintenant
Timeline de sortie des versions à partir de maintenant

La version 26 est la dernière à suivre l'ancien modèle (sur une LTS donc pour permettre aux utilisateurs de prendre en compte le changement en douceur), la 27 la première version à suivre le nouveau modèle.

Pour la version 27 :

  • en octobre 2026, sortie en "Alpha" : phase de test préparation à la release ;
  • en avril 2027, sortie de la release en "Current" : la version sort comme les versions actuelles, on peut encore voir des mineurs et patchs mais c'est pour améliorer / corriger en fonction des retours sans casser de fonctionnalité ;
  • en octobre 2027, passage en LTS (pour 30 mois) : on s'assure que la version reçoit les patchs de sécurité pour garantir que les utilisateurs en productions sont tranquilles ;

Point utile à noter : les versions seront alignées sur l'année de release, la version 27 en 2027, la version 28 en 2028, etc.

Il va falloir prendre le pli de mettre à jour Node.js chaque année, et tester les versions Current, même Alpha si possible, pour pouvoir remonter les problèmes au plus tôt

IA🔗

How to Kill the Code Review🔗

#IA

Je cite le sous-titre qui résume bien l'idée :

Human-written code died in 2025. Code reviews will die in 2026.

L'article nous explique qu'on tend à tuer la code review, car si on utilise un agent pour coder le produit et un autre agent pour coder les tests du produit tous les deux à partir des specs, on peut ne review que les specs, ce qu'on fait déjà en tant que développeur agentique. Que de toutes façons le volume de code généré entraîne un goulet d'étranglement sur la délivrabilité, du fait qu'en tant qu'humain on est lent à relire du code, que souvent ça incombe aux techs leads et que ça les épuise.

Qu'il faut viser :

The future is ship fast, observe everything, revert faster.

Premier point : l'auteur de l'article est le fondateur d'Aviator, qui se décrit comme "multiplayer AI coding platform". Donc je cite aussi un vieil adage :

Pendant la ruée vers l’or, ce n’est pas les chercheurs d’or qui se sont le plus enrichis, mais les vendeurs de pelles et de pioches…

Ce que nous dit ce monsieur : ne faites plus rien vous-même, utilisez une IA pour coder le produit, une autre IA pour tester le produit, et déployer le tout avec des briques construites avec des IAs. Donc en gros "donnez-moi de l'argent".

Ensuite on nous rabâche qu'avec l'IA on peut aller, plus vite, plus loin, avec une meilleure qualité. Mais du coup : comme on s'assure que toute l'équipe comprend ce qu'elle fait ? La première raison d'être de la code review ce n'est pas de garantir qu'aucun bug n'arrivera, mais de partager la connaissance dans l'équipe sur comment fonctionne le produit et éviter des mauvaises pratiques. Si on enlève la code review, seul le dev qui a défini la fonctionnalité saura comment elle fonctionne (et encore vu le mouvement actuel qui dit qu'on devrait ne même plus regarder le code et faire confiance aux specs…), et personne n'aura regardé s'il a suivi les bonnes pratique sur la définition de ses specs, les conventions, etc. Donc on va avoir plusieurs devs en roue libre qui partent chacun dans leur direction peu importe qu'ils bossent sur un seul produit. Réjouissant futur à mon avis…

OpenAI to nearly double workforce to 8,000 by end-2026, FT reports — reuters.com🔗

#IA #OpenAI #ChatGPT #LLM #Dev

Artificial intelligence start-up OpenAI plans to nearly ​double its workforce to 8,000 ‌from 4,500 by the end of 2026, the Financial Times reported on Saturday, ​citing two people with knowledge of ​the matter.

OpenAI to nearly double workforce to 8,000 by end-2026, FT reports said.

The ChatGPT-maker is ​also ramping up recruitment of specialists focused on "technical ambassadorship," ‌aimed ⁠at helping businesses make better use of its tools, the report added.

Si je résume la position d'OpenAI "vous n'avez plus besoin de dev vu notre IA fait tout mais nous on a toujours besoin de dev vu que notre IA ne fait pas tout."

Sécurité🔗

Proton Mail a aidé le FBI à démasquer un manifestant anonyme affilié au mouvement décentralisé de protestation « Stop Cop City »,🔗

#Communication #Vie-privée #Sécurité

Si on regarde dans le détail, on est obligé d'admettre que quand bien même Proton tente de minimiser les données qu'ils possèdent sur leurs utilisateurs, ils ont aussi des contraintes légales pour certaines données (comme les coordonnées de paiement). Proton garanti la sécurité des communications pas l'anonymat des utilisateurs.

Il faut aussi rappeler que si Proton ne se conformait pas un minimum aux requêtes judiciaires de l'État Suisse, ce serait eux qui seraient sur le banc des accusés et donc leur mission serait remise en cause 😅

Android developer verification: Balancing openness and choice with safety🔗

#Android #Google #Sécurité

Je cite la démarche :

How the advanced flow works for users

  • Enable developer mode in system settings: Activating this is simple. This prevents accidental triggers or "one-tap" bypasses often used in high-pressure scams.
  • Confirm you aren't being coached: There is a quick check to make sure that no one is talking you into turning off your security. While power users know how to vet apps, scammers often pressure victims into disabling protections.
  • Restart your phone and reauthenticate: This cuts off any remote access or active phone calls a scammer might be using to watch what you’re doing.
  • Come back after the protective waiting period and verify: There is a one-time, one-day wait and then you can confirm that this is really you who’s making this change with our biometric authentication (fingerprint or face unlock) or device PIN. Scammers rely on manufactured urgency, so this breaks their spell and gives you time to think.
  • Install apps: Once you confirm you understand the risks, you’re all set to install apps from unverified developers, with the option of enabling for 7 days or indefinitely. For safety, you’ll still see a warning that the app is from an unverified developer, but you can just tap “Install Anyway.”

Ça peut sembler facile et pas si bloquant mais pensez à un truc simple : j'utilise des apps au quotidien que j'installe via f-droid, certaines pas du tout présentes sur le Play Store, donc le jour où je vais changer de téléphone, je devrais faire la manip au-dessus, attendre 24h, et là je pourrais commencer à utiliser mon téléphone (que j'ai payé, qui m'appartient, dont je suis censé disposer librement sans condition, sans avoir à demander de permission) normalement. Pas pour des limitations techniques, parce que Google aura décidé que c'est mieux pour mon bien.

Franchement tout jusqu'au dernier point, je peux comprendre, ça peut sûrement éviter des arnaques de personnes en illectronisme. Le dernier point est 100% abusif à mon sens.

Divers🔗

A website to destroy all websites.🔗

#Web #Internet

Cet article est une ode à un retour à un Internet plus humain. Les parallèles sont intéressants, et franchement je suis d'accord avec l'auteur, pour retrouver un Internet plus humain, il suffit qu'on lâche les gros acteurs pour revenir à la base : publier nos propres sites, simple, imparfait mais humain.

Article qui vaut la peine d'être lu à mon sens (et je voulais vraiment le lire depuis la revue de presse de l'ami Siegfried de février… ). Sous certains aspects il me fait d'ailleurs penser au discours d'Edward Snowden dans Mémoire Vives, sa découverte d'Internet, tout ce qu'il a appris et tout le temps passé à échanger avec des inconnus (mais pas si inconnu à force d'échange à travers un écran).

Two Years of Emacs Solo: 35 Modules, Zero External Packages, and a Full Refactor🔗

#Emacs

Je suis depuis longtemps aussi attiré que repoussé par Emacs. Je fais un peu de vim au quotidien (surtout via git d'ailleurs). Mais Emacs est pour moi beaucoup plus puissant et permet beaucoup plus de chose.

J'ai toujours pensé que pour avoir un environnement développement proche d'un IDE (ou même d'un éditeur de texte ++ comme VSCode) il fallait empiler des packages à foison, ce qui m'a toujours embêté. Pourquoi ? C'est compliqué à maintenir et c'est lent (là où ce qui m'intéresse dans vim ou Emacs c'est la légèreté, la simplicité et la vitesse)

Ici c'est l'auteur de "emacs-solo", une configuration d'Emacs sans aucune dépendance, super modulaire, sans package à télécharger, juste quelques fichiers lisp à copier. Et franchement ça a l'air de vraiment bien marcher ! Ça donne envie de tester !

WiFi trop faible ? Sortez votre ancien smartphone Android du tiroir et transformez-le en répéteur🔗

#Wifi #Android #Smartphone

J'avoue, j'avais jamais pensé à utiliser un ancien smartphone comme ça 😅

Mais :

  • il faut un smartphone pas trop ancien pour supporter d'être à la fois à émettre un réseau wifi et de connecter à un autre (il faut qu'il soit dual band) ;
  • s'il est trop peu perf ça va être lent à cause de lui pas à cause de la portée wifi ;
  • je pense que ça consomme plus d'électricité qu'un répéteur / routeur wifi (j'ai pas mesuré, donc c'est du pif) ;
  • ce sera sûrement moins stable (sur des sessions un peu longues de partage de connexion, je trouve que je perds en stabilité parce que mon téléphone chauffe un peu, et j'ai toujours constaté ça) ;

Mais, ça veut pas dire que ça vaut pas le coup de tenter, même en tant que solution temporaire, surtout si on a un smartphone dans un tiroir qui dort : ça ne vous coûtera pas grand-chose de tester. Et au pire si c'est moins stable. Il sera toujours temps d'investir dans un répéteur wifi plus tard !

Data-Shield - La blocklist qui vire les IPs pourries🔗

#Réseau #Firewall #Open-Source

Hé bien c'est exactement ce que fait Data-Shield IPv4 Blocklist , un projet open source qui maintient une liste d'environ 100 000 adresses IP identifiées comme malveillantes. Le principe est simple… on colle l'URL RAW de la liste dans la config de son firewall (genre dans les alias d'OPNsense ou les External Block Lists de Fortinet) et hop, tout ce beau monde est filtré au niveau périmétrique. La liste (un simple fichier texte avec une IP par ligne) est rafraîchie toutes les 6 heures avec une fenêtre de rétention de 15 jours, du coup les IPs qui ne sont plus actives finissent par sortir automatiquement.

Franchement un super travail de maintenir une liste comme ça ! Il faudrait vraiment que je commence à utiliser une liste comme au niveau firewall 😅

La France rachète à Atos l'entreprise Bull, fleuron trop longtemps en souffrance des supercalculateurs🔗

#France #Bull #Supercalculateur #Atos

L'État français a finalisé ce 31 mars 2026 le rachat de Bull, spécialiste du calcul haute performance et de l'IA, pour une valeur pouvant atteindre 404 millions d'euros. L'acquisition d'une entreprise historique.

Je trouve ça assez faible sachant que l'entreprise a généré "un chiffre d'affaires de 720 millions d'euros en 2025.". Après c'est peut-être une astuce financière pour protéger d'entreprise.

J'y apprends d'autres choses intéressantes au passage :

L'usine d'Angers est la seule en Europe capable de fabriquer des supercalculateurs, ces machines colossales qui traitent des milliards d'opérations par seconde et qui sont devenues indispensables pour entraîner les grands modèles d'intelligence artificielle, simuler des scénarios militaires ou faire avancer la recherche scientifique. Cerise sur le gâteau, elles sont reconnues pour leur sobriété énergétique, un critère de plus en plus décisif à l'heure où faire tourner une IA coûte une énergie considérable.

Une usine de super calculateur à Angers 😮

Crédit photo : Générée via Mistral AI avec le prompt suivant :

Une scène chaleureuse et immersive, inspirée par l’esthétique poétique de Studio Ghibli, représentant un bureau de travail en bois clair et vieilli, baigné d’une lumière dorée et tamisée, comme un après-midi d’automne. Au centre, une silhouette stylisée (style anime Ghibli : traits doux, visage non détaillé, vêtements amples et confortables) est assise en tailleur sur un tapis épais, absorbée par la lecture d’un journal tech futuriste. Le journal est ouvert, ses pages légèrement froissées, avec des titres en en-tête calligraphiés à la main : "Frontend", "Backend", "IA", "Sécurité", et "Vie privée". Les pages brillent d’un halo bleu pâle, évoquant des lignes de code et des schémas techniques qui s’animent discrètement, comme par magie. Autour d’elle, des piles de magazines et de carnets s’empilent de manière désordonnée mais harmonieuse. Certains sont ouverts, révélant des extraits d’articles, des croquis de frameworks (représentés par des icônes génériques : un crochet pour le frontend, un engrenage pour le backend, un cerveau pour l’IA, un cadenas pour la sécurité, et un masque pour la vie privée), ou des diagrammes de réseaux de neurones dessinés à la main. Un écran transparent et flottant (style holographique, mais avec un cadre en bois sculpté) affiche des flux d’informations en temps réel : des graphiques de données, des alertes de sécurité, et des extraits de code, le tout dans un style doux et organique, comme intégré à la scène. En arrière-plan, une grande fenêtre donne sur un paysage urbain nocturne style Ghibli : des bâtiments aux formes arrondies, des lanternes suspendues, et des néons bleutés qui reflètent des motifs de code binaire sur les murs. Une tasse de thé fumant et un petit robot de bureau (inspiré des créatures de Ghibli, comme un mélange entre un Totoro miniature et un assistant tech) observent la scène avec curiosité. À droite, un panda roux (ton animal préféré) est lové sur un coussin, les yeux mi-clos, comme s’il écoutait attentivement. Il ne doit pas dépasser le tiers de la hauteur de l’image et est positionné en bas à droite, légèrement tourné vers le centre, avec une queue soyeuse enroulée autour de lui. L’ambiance est à la fois cosy, onirique et high-tech : les couleurs sont douces (beiges, bleus pâles, oranges chauds), avec des contrastes subtils pour mettre en valeur les éléments tech. Les détails sont soignés, avec des textures visibles (grain du bois, tissu du tapis, pelage du panda), et une lumière qui crée des jeux d’ombres chaleureuses. Le tout respire la sérénité et l’inspiration, comme un moment suspendu entre la magie et la technologie.