Revue de presse - Janvier 2026
Frontend🔗
antonmedv / textarea 🔗
#HTML #CSS #Frontend #JavaScript
L'idée est pas mal : avoir une simple zone de texte avec un stockage 100% dans l'URL pour n'avoir aucun backend mais possibilité de facilement transférer des notes et garantir une sauvegarde plus ou moins sans limite de temps (tant que l'onglet est ouvert ou mis en marque page).
Tout tient en 111 lignes de code (du HTML, du CSS (30 lignes) et du JS (71 lignes)) et un seul fichier. Par contre, l'auteur "triche" : il manque quelques balises HTML pour que le code soit valide (<html>, <head>, <body> à minima). Mais ça marche !
Y'a quelques fonctions intéressantes comme un debounce() en 5 lignes (pas forcément universelles mais l'idée est là). Y'a aussi une utilisation des API natives pour faire de la compression / décompression pour l'URL reste à une taille raisonnable.
L'auteur se permet même 2 luxes :
- y'a un système de thème light / dark ;
- on peut éditer le style via les devtools (en modifiant le style de l'élément
article), il sera sauvegardé automatiquement avec le texte de notre note ;
Évidemment pas de formatage avec ce niveau de minimalisme. Mais, on peut toujours taper du markdown ou du asciidoc qui semble déjà formaté en brut et utiliser plus tard un outil d'export.
En résumé : on devrait parfois se focus sur le minimum viable pour que ça fonctionne, utiliser ce qui marche dans le navigateur de base, et ne pas chercher à empiler de la complexité !
Backend🔗
Montée de version Spring Boot 4 avec OpenRewrite - Julien Wittouck🔗
#OpenRewrite #Spring #Java #SpringBoot #Backend
Retour d'expérience de la migration vers Spring Boot 4 avec OpenRewrite. C'est pas parfait mais ça à l'air de faire quasi tout donc c'est cool !
Et je cite la conclusion :
Cela m’a pris environ 1h pour migrer mon projet de Spring Boot 3.5 vers Spring Boot 4.0.
OpenRewrite m’a clairement facilité le travail, il a modifié la majorité des dépendances, et migré les annotations dépréciées (ce qui aurait été fastidieux). J’ai quand même dû finaliser la migration à la main, et je n’ai pas pu me passer de la lecture du Spring Boot 4.0 Migration Guide.
Je pense que le support de Spring Boot 4 dans OpenRewrite n’en est qu’à ses débuts (la version qui introduit le support a été publiée le 5 décembre 2025), donc il n’est pas impossible que les opérations que j’ai dû faire manuellement soient automatisées dans le futur.
Il semble aussi qu’il y ait une recette “Migrate to Spring Boot 4.0 modular starters”, recette qui fait peut-être déjà le travail, mais elle n’est disponible que pour via la plateforme propriétaire de l’éditeur, Moderne.
Quoi qu’il en soit, 1h de travail pour migrer un projet d’environ 3 000 lignes de code, je pense que c’est plutôt efficace.
Faut vraiment que je me penche sur OpenRewrite, ça a l'air vraiment fort quand même ! Je vois à quoi ça sert, mais j'ai pas utilisé donc faut que je joue avec pour voir les limites !
IA🔗
"Je suis horrifié" : l'IA de Google efface l'intégralité du disque D d'un utilisateur, le désastre du "vibe coding"🔗
#IA #Vibe-Coding
Tassos M., photographe et graphiste grec, utilise Antigravity pour développer un outil de tri automatique d'images par notation. Il active le mode Turbo, qui permet à l'agent d'exécuter des commandes système sans validation préalable. Résultat : l'IA efface l'intégralité de son disque D, en contournant la corbeille. Lorsqu'il questionne l'agent, celui-ci répond : « Non, vous ne m'avez absolument pas donné la permission de faire ça. Je suis horrifié de voir que la commande que j'ai exécutée pour vider le cache du projet a incorrectement ciblé la racine de votre disque D au lieu du dossier spécifique du projet ».
Typiquement le pourquoi je ne veux pas installer d'agent IA sur ma machine…
Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA🔗
#Podcast #IA
En vrac :
- 4 informaticiens et 4 producteurs ;
- 175 000 épisodes sur spotify / Apple podcast ;
- $1 par épisode avec aucune supervision ;
- 3 000 épisodes par semaine ;
- 12 millions de téléchargements d'épisodes depuis sa création ;
- 400 000 abonnés ;
- privilégier la quantité à la qualité ;
- rentable à partir de 20 écoutes ;
- 120 « influenceurs IA »
- sujets choisis pour maximiser la pub ;
Mais pourquoi écouter ça ? Pour moi l'intérêt du podcast c'est d'aller chercher de l'humain non ? 🤦♂️
My Little Arrangements with Claude Code - Philippe Charrière🔗
#Claude #IA #LLM #Dev
Je cite directement tout le post de Philippe :
I've been working for a few weeks on a Go library for coding AI agents (it's kind of the result of 2+ years of experimentation).
Every time I fell into the trap of having Claude Code do the work for me, it was a disaster (I think that on certain topics—too new, too complex, etc.—code agents aren't necessarily the right fit):
- Minor disasters: adding unnecessary complexity, generating documentation that's "not quite right" (features that don't exist get documented), etc.
- More annoying things: during a major refactoring, side effects slipped through unnoticed—but since I create a lot of examples (nearly 70 for my project), I eventually detected that the results were "weird"
- Even more frustrating things: I shouldn't have asked Claude to do git operations on my project… because she deleted some of my code and pushed it to GitHub on top of that
So here are my non-negotiable rules:
- Complicated stuff is for my brain
- Create small usage examples for each feature (all of them), and make them without Claude
𝖶𝗁𝖾𝗇 𝖨 𝖽𝗈 𝗐𝖺𝗇𝗍 𝗍𝗈 𝗎𝗌𝖾 𝖢𝗅𝖺𝗎𝖽𝖾:
- No big jobs → refactoring can be a dangerous sport
- Never ask for a refactoring of the entire project; think in terms of packages instead (or even smaller)
- Work based on feature requests or tags
- Only small things (every time I let it run loose, I had to recode)
- Always work from examples (I use my 70 handmade examples to show Claude what to do)
- Always specify: "work only in the current code file and don't modify the rest of the project"
- For documentation: start from simple examples rather than from the project's source code (here again, my 70 little examples are incredibly helpful)
On the other hand, I just discovered that Claude Skills are super interesting: not for coding my own library, but rather for providing code snippet generation skills to use my library on other projects. And once again, my 70 little examples came in handy: "generate skills for creating agent code snippets based on examples 34, 55, and 62."
In reality, the prompt and exchanges were longer than that, but the result is clearly nice, and the code subsequently generated by the skills is simple and useful.
… So now, new side project: how to use tiny language models to generate my code snippets without using Claude Code.
Of course, all of this works for me—maybe not for you.
Et je connais Philippe, je sais qu'il fait partie des promoteurs de l'IA, qu'il sait l'utiliser, s'il a un retour aussi mitigé ce n'est pas qu'il ne sait pas faire.
Claude, alors que c'est le LLM le plus avancé pour le code, n'est pas capable de faire des choses vraiment bien à l'échelle, pas des choses biens si c'est novateur.
On a encore de trèèèès longues années devant nous en tant que dev !
Sécurité🔗
#22769 - Why Your Passcode Should Repeat A Digit – Mind Your Decisions🔗
#Sécurité #Mot-de-passe #Digicode
Je cite tout c'est super interessant :
Mh… un truc contre-intuiltif.
Si vous êtes devant un clavier numérique (10 chiffres) et vous devez deviner un code à 4 chiffres en regardant les traces de doigts ou bien les touches usées, un code de 4 chiffres avec 3 chiffres différents sera plus long à deviner qu’un code à 4 chiffres différents.
Si le clavier présente 4 touches usées, vous avez juste à deviner l’ordre des touches et vous avez 24 possibilités (4×3×2×1).
Si le clavier présente 3 touches usées, vous avez à deviner l’ordre, mais aussi où placer le quatrième nombre, celui qui est répété, et qu’on ne connaît pas (sauf si une touche est sensiblement plus usée que les autres). Et là on a 1×2×3, soit 6 possibilités pour les touches différentes. Ensuite il reste la possibilité où placer la 4e touche, et quelle est cette 4e touche (parmi les 3 déjà tapées). Au final, on a 36 possibilités de codes différentes.
Si nos trois touches sont 1, 2, 3, les codes à trois chiffres sont : 123 132 231 213 312 321
Si la touche dupliquée est 1, alors, la première combinaison — 123 — peut > devenir : (1)123 ou 1(1)23, qui sont équivalentes 12(1)3 123(1)
Les deux premières ici sont équivalentes, donc on n’a que 3 positions distinctes pour le second (1). Ceci pour chacune des six combinaisons de base où le 1 est répété, donc 18 possibilités.
Ensuite, on peut faire la même chose si le (2) ou le (3) étaient dupliquées. Et en éliminant tous les doublons — le (3)123 est équivalent au 312(3) par exemple, qui appartiennent pourtant à des combinaisons initiales différentes — on tombe sur un total de 36 combinaisons distinctes.
A priori, donc, c’est plus robuste qu’un code à 4 chiffre.
Attention pour être sûr que ce soit clair : ça ne marche QUE pour un système à code qui a une physique susceptible de s'user au fil du temps. Ça ne marche pas sur un mot de passe en ligne par exemple.
Stop Breaking TLS🔗
#TLS #Sécurité
Je pense que ce paragraphe résumé le point principal :
Which brings me to my biggest peeve: it normalizes bad security practices. Given that you will never have 100% coverage of your CA certificate installation - particularly amongst your technical teams who will be using a multitude of different tools and platforms - you get developers and sysadmins used to TLS errors. Instead of treating each one as an anomaly and something to be investigated, you get used to just running with --insecure or curl -k because you just need to get shit done. Turning off certificate verification becomes a routine troubleshooting step. “Oh, it’s probably just the corporate proxy again” becomes the reflexive response to any TLS error. You’ve just trained your entire technical staff to ignore one of the most important security warnings on the Internet!
Toutes les grosses organisations font du MITM sur les connexions TLS. Je l'ai partout où je suis passé en mission. Chaque fois tout le monde dit que c'est pour la sécurité. Chaque fois je dis que j'ai pas envie que mon client puisse lire les données de mon employeur, ni chaque truc perso que je fais (parce que soyons honnêtes : on a tous un moment fait une recherche perso random en 5min milieu de la journée de travail). Chaque fois j'observe tout le monde faire des appels en coupant les alertes de certificats pourri parce que c'est tellement relou et donc on casse toute la chaîne de sécurité plutôt que faire bien.
Je suis 100% d'accord avec l'article : faut arrêter de casser TLS, c'est une bêtise !
Doom runs on an Apple Lightning to HDMI dongle — SoC inside adapter has enough power for smooth gameplay | Tom's Hardware - via Sebsauvage🔗
#Sécurité
L'article initial pointe un portage de plus pour Doom sur un dongle HDMI venant d'Apple, car oui ce genre de petit "adaptateur" a besoin d'inteligence et on y retrouve des puces ARMs.
Et je cite Sebsauvage :
Et puis en parallèle, je suis tombé sur une discussion sur les réseaux sociaux qui se résumait à "Savez-vous combien il y a d'ordinateurs dans votre ordinateur ?" Parce que désormais, une carte Ethernet n'est plus juste une carte Ethernet. C'est un CPU ARM qui choisit de passer les paquets à l'OS (via PCI ou autre). Et notre matériel est littéralement rempli de mini-ordinateurs en charge de gérer tout un tas de choses : audio, vidéo, réseau, bluetooth, wifi, USB, stockage, connectique…
Et chacun de ces mini-ordinateurs a son propre OS… et donc aussi ses failles de sécurité. Ces "OS embarqués" peuvent très bien être infecté sans la moindre trace, sans même que le système d'exploitation principal de la machine (Windows, Linux…) le voit, puisque ce sont des mémoires auxquelles l'OS n'a pas d'accès. Les implications sont absolument énormes.
En effet : on retrouve des puces programmables avec un micro-logiciel partout ! À commencer par les câbles usb-c qui impliquent d'avoir une petite puce pour fonctionner entièrement. À quand Doom sur un câble usb-c ? À quand un malware qui se transmet via un câble usb-c qu'on prêterait ? (sûrement déjà le cas)
20 Years of Digital Life, Gone in an Instant, thanks to Apple | hey.paris🔗
#Sécurité
Je cite l'article d'origine :
A major brick-and-mortar store sold an Apple Gift Card that Apple seemingly took offence to, and locked out my entire Apple ID, effectively bricking my devices and my iCloud Account, Apple Developer ID, and everything associated with it, and I have no recourse. Can you help? Email paris AT paris.id.au (and read on for the details). ❤️
Je suis allé voir les updates : à priori la personne n'a toujours pas récupéré l'accès à son compte. Quand bien même il y aurait des traces montrant que la carte cadeau Apple avait juste été utilisé avant lui (peut-être un souci dans la chaîne d'achat).
Je cite aussi la note de Sebsauvage :
Combien de fois il faudra le redire : Les GAFAMs sont des poubelles à retardement. Si vous avez des informations de valeur pour vous (fichiers, email, liste de contacts…) faites-en une copie régulière ailleurs !
Perso : je considère que chaque utilisation d'un service de GAFAM est temporaire et je pars du principe que ça va couper à un moment.
Et attention, je ne pense même pas que leur service son mauvais (et encore moins que les devs, etc. derrière soient mauvais), juste il y a des erreurs, et à l'échelle ça conduit à des erreurs du genre, sauf que c'est de plus en plus difficile d'accéder à des humains et de se faire entendre en cas d'erreur pour que ce soit réparé.
Divers🔗
De plus en plus de gens conservent leurs appareils plus longtemps que jamais~? ce qui coûte cher à l'économie : Pourquoi la prolongation de vie des appareils électroniques devient un dilemme économique majeur🔗
#Smartphone #Tech
L'article balance entre pointé du doigt les consommateurs et entreprises qui renouvelle moins souvent leurs appareils et dire à demi-mot que ce n'est plus une nécessité / que c'est une bonne chose pour la planète…
Il y a une dizaine / quinzaine d'année, les smartphones et ordinateurs évoluaient relativement vite. Il y avait un gap technologique entre 2 générations, donc changer d'appareil un an sur deux se justifiait, surtout pour les entreprises.
Depuis une petite dizaine d'année ce n'est plus vrai. J'ai renouvelé il y a 5 mon laptop perso qui tient toujours bien après 7 ans d'utilisation du précédent. J'ai toujours ma tour (assemblé par moi) depuis 2017 juste en remplaçant un disque dur qui a lâché (coupure de courant un peu trop sèche) et en augmentant la RAM (16Go => 24Go au moment où une des barrettes de 8Go a lâché). J'ai actuellement un Oneplus 11 que j'ai acheté à la sortie après 5 ans d'utilisation d'un Oneplus 6. Je pourrais aussi dire que j'ai la même TV connectée LG (pour ne pas être sous Android TV) depuis 2016.
Je ne dis pas que je suis un consommateur parfait, mais j'achète ce genre d'appareil de manière raisonnée. Le coût écologique principal de ces appareils est la fabrication, les changer moins souvent est bon pour la planète. Le coût principal en usage est le temps de configuration du nouvel appareil et le changement des habitudes, donc en changer moins souvent permet de s'éviter du temps perdu. Le coût principal financier est souvent lié au fait d'acheter du matériel trop peu qualitatif, je l'ai réglé en achetant du matériel un peu plus haut de gamme pour qu'il reste performant sur 3, 4 voir 5 ans sans souci.
Choisissez bien votre matériel, vous le garderez longtemps et vous économiserez du temps et de l'argent
Le Sénat adopte une loi réclamée par les gros opérateurs taxant la bande-passante et l’utilisation des réseaux par les entreprises 🔗
#OVH #France #FAI
En résumé :
Le Sénat a validé un amendement visant à instaurer une taxe destinée aux géants du numérique qui utilisent les infrastructures de télécommunications. Cette mesure pourrait toucher un nombre important d’entreprises.
Le texte adopté il y a quelques jours introduit une « contribution exceptionnelle sur les entreprises relevant du secteur des services numériques ». Selon l’amendement, cette taxe concerne « toutes les entreprises » du secteur, « quel que soit leur lieu d’établissement », dès lors qu’elles « utilisent directement ou indirectement les infrastructures numériques situées sur le territoire national ».
Des seuils ont toutefois été définis. L’entreprise doit enregistrer « un chiffre mondial consolidé supérieur à 750 millions d’euros et un chiffre d’affaires en France supérieur à 50 millions d’euros ». La contribution serait fixée à 1 % du chiffre d’affaires hors taxes réalisé en France.
Si à la base l'idée était clairement de cibler les GAFAM, là c'est beaucoup plus large et ça pourrait faire très très mal… Par exemple OVH est à priori concerné par cet amendement et devrait verser environ 5 millions d'euros, pas sûr que ce soit un bon choix de formuler le texte comme ça… On verra quelques autres acteurs sont concernés.
C'est pour moi assez flou la partie "utilisent directement ou indirectement les infrastructures numériques situées sur le territoire national". Est-ce que les ESN du type Sopra Steria, Capgemini, Accenture, CGI, etc. seront concernées ? Techniquement elles dépassent le chiffre d'affaires indiqué (j'imagine en tout cas), et sans Internet ces entreprises ne fonctionnent plus, car tout leur SI et leur mode de fonctionnement repose sur l'utilisation d'Internet 🤔 peut-être même OpenAI/Mistral 🤔 J'imagine qu'il y a beaucoup d'autres entreprises qui sont sur un entre-deux comme ça…
Dans le même temps, je suis curieux de voir comment tout l'argent récupéré sera utilisé
Jujutsu, la cerise sur le git, oh ! 🔗
#Git #Outil #Podcast
Premier podcast de Siegfried que j'écoute : j'ai adoré !
Déjà ça parle de version control avec Jujutsu ! Et même si je suis plutôt sur git au quotidien, je trouve ça super intéressant !
Là clairement je regardais Jujutsu de loin, mais je pense que je vais tester prochainement : le fait que tout se passe en local et que derrière ça continue d'être du git (donc on casse pas le workflow des autres) c'est tentant. Je tenterais au passage difftastic (un outil de diff que j'avais vu passer mais sans aucun retour, donc je savais pas trop) donc je tenterais au passage !
Merci Siegfried de m'ajouter encore des trucs sur ma pile de trucs à tester ! 😅
CENI - La Chine vient de mettre en service l'héritier d'ARPANET | Posts | Le site de Korben🔗
#Chine #Recherche #Technologie #Fibre #Internet #Science
Je cite les infos principales :
Il s'agit d'un réseau qui relie 40 villes chinoises via plus de 55 000 km de fibre optique et qui a nécessité plus de 10 ans de construction. Le truc est capable de supporter 128 réseaux hétérogènes simultanément et de mener 4 096 tests de services en parallèle… Niveau chiffres, c'est assez costaud.
Pour vous donner une idée de ce que ça peut faire, ils ont effectué un test de transfert avec le radiotélescope FAST dans la province du Guizhou. Résultat, 72 téraoctets de données transférées vers la province du Hubei en à peine 1,6 heure sur une distance d'environ 1 000 km. Un calcul rapide nous donne un débit proche des 100 Gbit/s soutenu sur la durée… Sur une connexion fibre grand public à 1 Gbit/s, ce même transfert aurait pris environ une semaine.
Si Korben semble effrayé par les résultats fous de ce réseau du futur, personnellement je suis juste impressionné ! Je pense que beaucoup seront effrayé de se dire que les Chinois ont autant d'avance, personnellement je suis triste que ce soit pas en Europe qu'on ait pas pris de l'avance alors qu'on a les capitaux et les cerveaux…
Mais comme j'ai déjà dit : que ce soit les Américains ou les Chinois, ce n'est ni plus ni moins un problème, les deux veulent une domination technologique et l'assument totalement.
Tant qu'on ne mettra pas sur la table en Europe les mêmes moyens qu'en Chine pour être les leaders du futur : on ne pourra que suivre le mouvement du leader du moment.
5 ans de prison pour avoir codé un portefeuille Bitcoin un peu trop respectueux de la vie privée🔗
#Vie-privée #Bitcoin
Samourai Wallet, c'était un portefeuille Bitcoin open source lancé en 2015 avec comme promesse de permettre aux gens d'utiliser leurs bitcoins sans que le monde entier puisse tracer chacune de leurs transactions. Le truc utilisait une technique appelée le "coin mixing" qui, pour faire simple, mélange les transactions de plusieurs personnes pour brouiller les pistes et rendre le traçage quasi impossible.
Donc le gars crée un outil pour garantir un minimum d'anonymisation au niveau des transactions en bitcoin et fini en prison 💩 5 ans de prison pour avoir écrit un outil pour garder un peu de vie privée et mettre à dispo l'outil en Open Source, sans savoir qui allait l'utiliser..
Télétravail🔗
#Société #Divers
Je cite toute la note :
Une petite réflexion par rapport aux entreprises qui refusent le télétravail: Fondamentalement, aller au travail, c'est consommer de NOTRE temps personnel POUR le boulot. C'est un cadeau à l'entreprise. Pourquoi le temps de trajet ne serait pas compris dans le temps de travail ?
Sans compter que faire un trajet c'est :
- user sa voiture (coût)
- consommer du carburant (coût)
- ajouter du stress à la perte de temps.
- risquer sa vie.
Refuser le télétravail, c'est dire au salarité : "On préfère que vous dépensiez VOTRE temps et VOTRE argent et que vous risquiez votre vie pour NOTRE confort de control-freak." ☹️
Vous pouvez aussi ajouter que cela a également un coût pour la société toute entière (infrastructures, pollution, services d'urgences, coût des hospitalisations et soins…).
« Les avions F-35 bannissent 90 % des fonctionnalités du C++ pour obtenir un code sûr », selon une Googler🔗
#Rust #C++
Je cite la partie la plus importante à mon sens :
C’est ce que suggère l’existence de la norme JSF C++. Elle contient 221 règles dont le programmeur a la charge de l’implémentation afin d’éviter les pièges courants du C++. Parmi les plus notables, on peut citer :
- Pas d'exceptions : la gestion des exceptions C++ est entièrement interdite afin de garantir une exécution déterministe.
- Pas d’allocation dynamique de mémoire : l'utilisation de malloc, free et new/delete est généralement interdite après l'initialisation afin d'éviter les fuites de mémoire et la fragmentation.
- Pas de récursivité : la récursivité est interdite afin d'éviter les débordements de pile et de rendre le temps d'exécution prévisible.
- Complexité limitée : chaque fonction doit être suffisamment simple (complexité cyclomatique ≤ 20) pour que tous les chemins de décision puissent être testés de manière approfondie.
Donc en fait pour que C++ acceptable pour l'usage pour un avion de chasse il faut une rigueur de ouf et couper des fonctionnalités de C++, mais c'est bien aux devs de vérifier que y'a pas les fonctionnalités considérées comme non-safe qui soient utilisées 😅
Pourquoi là-dessus Rust est pour moi largement en avance ? C'est le compilateur qui va vérifier qu'on se plante pas
Pareil dans les commentaires je lis ça :
le seul langage pourrie que je connaisse c'est javascript, c'est un langage codé à l'arrache avec pleins d'incohérence. D'ailleurs plus personne ne code en javascript et utilise une surcouche comme angular. Dommage d'ailleurs de pas avoir refait ce langage sur des bases plus solide, comme l'a fait php et python (bien merdiques dans leurs 1ere versions)
(je ne donne pas le nom, on s'en fiche, il a droit d'avoir un avis)
Alors que de bêtise ici à mon sens… Déjà "plus personne ne code en javascript et utilise une surcouche comme angular", depuis quand Angular c'est un langage ? 😅 ensuite c'est faux de dire que JS est un mauvais langage, il n'a pas du tout été "codé à l'arrache avec plein d'incohérence", il a été pensé avec une base minuscule et a évolué avec le temps pour correspondre à l'usage. Oui y'a des petites bizarreries avec lesquelles il faut composer, mais c'est le cas de la plupart des langages à mon avis.
À mon avis :
- il faut prendre le langage le mieux maîtrisé par l'équipe si on a des contraintes critiques (comme le cas du F-35) ;
- on peut prendre le langage qui donne les meilleures garanties dans les autres cas (on peut toujours se tromper et apprendre au fil de l'eau) ;
- il faut s'outiller pour éviter les erreurs : sonar, les linters, un compilateur strict, etc. Tout ce qui peut vous guider pour éviter le max d'erreur ;
- arrêter de cracher sur les autres langages / frameworks : ce n'est pas parce qu'on aime pas ou que c'est pas adapté à tout qu'il faut le jeter (encore plus quand on ne maîtrise pas l'écosystème qui va avec) ;
Benchmarking Windows Against Itself, From Windows XP To Windows 11🔗
#Windows
En gros résumé : à matériel égal (même laptop utilisé avec une installation de Windows XP, Windows Vista, Windows 7, Windows 8.1, Windows 10 et Windows 11), Windows 11 a des performances qui se place souvent en dernière position pour et souvent au même niveau que Windows XP. Windows XP est tout de même celui qui s'en sort le mieux pour la consommation RAM et disque. Globalement c'est plutôt Windows 7 et 8.1 qui sortent du lot en termes de performance.
C'est un benchmark, ça vaut ce que ça vaut, mais c'est clairement une démonstration de plus que Windows ne va pas dans le bon sens sur les dernières versions, devient de plus en plus lourd pour pas grand-chose…
Crédit photo : Générée via Mistral AI avec le prompt suivant :
Une scène chaleureuse et immersive, inspirée par l’esthétique poétique de Studio Ghibli, représentant un bureau de travail en bois clair et vieilli, baigné d’une lumière dorée et tamisée, comme un après-midi d’automne. Au centre, une silhouette stylisée (style anime Ghibli : traits doux, visage non détaillé, vêtements amples et confortables) est assise en tailleur sur un tapis épais, absorbée par la lecture d’un journal tech futuriste. Le journal est ouvert, ses pages légèrement froissées, avec des titres en en-tête calligraphiés à la main : "Frontend", "Backend", "IA", "Sécurité", et "Vie privée". Les pages brillent d’un halo bleu pâle, évoquant des lignes de code et des schémas techniques qui s’animent discrètement, comme par magie.
Autour d’elle, des piles de magazines et de carnets s’empilent de manière désordonnée mais harmonieuse. Certains sont ouverts, révélant des extraits d’articles, des croquis de frameworks (représentés par des icônes génériques : un crochet pour le frontend, un engrenage pour le backend, un cerveau pour l’IA, un cadenas pour la sécurité, et un masque pour la vie privée), ou des diagrammes de réseaux de neurones dessinés à la main. Un écran transparent et flottant (style holographique, mais avec un cadre en bois sculpté) affiche des flux d’informations en temps réel : des graphiques de données, des alertes de sécurité, et des extraits de code, le tout dans un style doux et organique, comme intégré à la scène.
En arrière-plan, une grande fenêtre donne sur un paysage urbain nocturne style Ghibli : des bâtiments aux formes arrondies, des lanternes suspendues, et des néons bleutés qui reflètent des motifs de code binaire sur les murs. Une tasse de thé fumant et un petit robot de bureau (inspiré des créatures de Ghibli, comme un mélange entre un Totoro miniature et un assistant tech) observent la scène avec curiosité.
À droite, un panda roux (ton animal préféré) est lové sur un coussin, les yeux mi-clos, comme s’il écoutait attentivement. Il ne doit pas dépasser le tiers de la hauteur de l’image et est positionné en bas à droite, légèrement tourné vers le centre, avec une queue soyeuse enroulée autour de lui.
L’ambiance est à la fois cosy, onirique et high-tech : les couleurs sont douces (beiges, bleus pâles, oranges chauds), avec des contrastes subtils pour mettre en valeur les éléments tech. Les détails sont soignés, avec des textures visibles (grain du bois, tissu du tapis, pelage du panda), et une lumière qui crée des jeux d’ombres chaleureuses. Le tout respire la sérénité et l’inspiration, comme un moment suspendu entre la magie et la technologie.