Non lu (243)
(Vidéo) COMMENT LES BOURGEOIS MANIPULENT LE CINÉMA |ROB GRAMS DE FRUSTRATION
FRUSTRATION par il y a 1h et 44min - Favoriser (lu/non lu)
Description Le Média : « Quand on parle de cinéma français, certains aiment dire que c’est un cinéma populaire, engagé, proche du réel. Mais derrière cette image, on peut se demander depuis quel regard ces histoires sont-elles racontées ? Dans Bourgeois Gaze, la domination de classe au cinéma, Rob Grams analyse la manière dont le cinéma […]
No ICE in Minnesota by jesthehuman and 651 others - itch.io
Liens en vrac de sebsauvage par Anonyme il y a 2h et 16min - Favoriser (lu/non lu)
(Permalink)
GRP-Obliteration - Un seul prompt suffit pour faire tomber les garde-fous des IA
Korben par Korben il y a 3h et 4min - Favoriser (lu/non lu)
Les garde-fous de votre IA locale, ils tiennent à quoi ?
Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier GRP-Obliteration , une méthode qui désaligne n'importe quel LLM open-source en quelques minutes de fine-tuning... et le mieux, c'est que le modèle garde toute son intelligence après.
Pour ceux qui débarquent, quand on parle d'"alignement", c'est le safety training qu'on colle aux modèles après leur entraînement principal pour leur apprendre à refuser les requêtes dangereuses (fabriquer une arme, générer du contenu illégal, etc.). Jusqu'ici, on pensait que c'était solidement ancré dans le modèle.
« Révolutionnaire », ce nouveau drone sous-marin a une méthode unique pour se recharger
Numerama.com - Magazine par Amine Baba Aissa il y a 3h et 52min - Favoriser (lu/non lu)
États-Unis/Europe • Airbus prolonge son contrat avec Palantir
Liens en vrac de sebsauvage par Anonyme il y a 3h et 57min - Favoriser (lu/non lu)
Visionnaires, les gars. 👌🏻
(Permalink)
Le Cupra Tavascan échappe aux surtaxes européennes, la Chine grince des dents
Numerama.com - Magazine par Raphaëlle Baut il y a 4h et 1min - Favoriser (lu/non lu)
Bridgerton saison 4 : ces deux stars racontent leur scène de sexe
Numerama.com - Magazine par Salammbô Marie il y a 4h et 11min - Favoriser (lu/non lu)
Waymo World Model - Quand l'IA invente ses propres routes
Korben par Korben il y a 6h et 54min - Favoriser (lu/non lu)
Entraîner une voiture autonome c'est un peu comme apprendre à nager... sauf que si vous vous plantez, c'est pas juste votre ego d’informaticien qui coule mais ce sont des choses graves qui peuvent arriver. Ça tombe bien puisque Waymo vient de dévoiler cette semaine un truc plutôt pas con pour aider à régler ce problème.
Ça s'appelle le World Model et c'est un modèle génératif capable de fabriquer des simulations ultra-réalistes de conduite. Comme ça, au lieu d'attendre qu'un éléphant traverse une route de Phoenix en Arizona pour savoir comment réagir (oui, c'est un de leurs exemples !), l'IA génère elle-même ces scénarios complètement dingues dans son propre monde virtuel.
Jump Starters are Getting Out of Hand - YouTube
Rss sur "le hollandais volant" par Anonyme il y a 9h et 44min - Favoriser (lu/non lu)
Des tasers de 3 MV, des klaxons de 600 dB ou des torches électriques de 1M lumen…
Tous ces chiffres ne sont que du marketing et n’ont plus aucun sens. Parfois c’est même hors de toute réalité physique. Par exemple l’échelle de l’intensité sonore sature à 194 dB : au delà ça ne fait pas plus de bruit. Le phénomène passe d’un régime sonore à une one de choc.
J’avais déjà vu ça sur certains produits, ce genre de course aux chiffres ridicules.
Ici il teste certains jumpers de bagnole, qui indique 1000, 2000 voire 4000 ampères (avec des prix proportionnels).
La vidéo est intéressante, mais le bullshit marketing est déplorable.
Vous imaginez un lave linge vendu pour faire du 30 000 tours/min en essorage ? Ou un aspirateur 50 m3/seconde ? Ou un chauffage qui monte à 7000 ºC ? Ou un disque dur de 20000000 To ?
On est sur le même niveau d’absurdité ici.
Bah.
Vraiment, il y un problème avec les chiffres dans ce monde. Parfois dans des situations étranges : https://science-abuse.net/?d=ff3aeb--la-science-dans-pokemon-10-pokemon-analyses
— (permalink)
Contenus sensibles : Discord va étendre la vérification de l’âge à tous les utilisateurs - Next
Liens en vrac de sebsauvage par Anonyme il y a 12h et 57min - Favoriser (lu/non lu)
WHAT COULD GO WRONG ?
What... oh ben par exemple les 75000 cartes d'identités qu'ils ont déjà laissé fuiter sur internet : https://sebsauvage.net/links/?aF17dg
(Permalink)
CHAI - Hacker une voiture autonome avec un simple sticker
Korben par Korben il y a 13h et 38min - Favoriser (lu/non lu)
Un panneau stop, on se dit que c'est juste un bout de métal avec un peu de peinture rouge. On s'arrête, on repart, et puis voilà. Sauf que pour une IA qui pilote un gros engin à 4 roues, ce simple panneau peut devenir un véritable vecteur de tromperie visuelle !
Car oui je vous avais déjà parlé d'attaques de ce type par le passé, mais là, ça va encore plus loin. En effet, je suis tombé sur une étude des chercheurs de l'UCSC (University of California, Santa Cruz) qui en gros, ont trouvé un moyen d'induire en erreur des voitures autonomes et des drones en collant simplement des instructions sur des panneaux de signalisation customisés. Ils ont baptisé cette classe d'attaque CHAI pour Command Hijacking Against Embodied AI .
Discord - Va falloir montrer votre minois pour accéder aux minous
Korben par Korben le 09/02/2026 à 18:24:00 - Favoriser (lu/non lu)
Et pas l'inverse !
En effet, Discord va bientôt demander à ses utilisateurs de prouver qu'ils ont bien 18 ans pour accéder au contenu NSFW. La plateforme prévoit de déployer la vérification d'âge à l'échelle mondiale dès le mois de mars 2026. Après des tests au Royaume-Uni depuis juillet dernier puis en Australie depuis décembre, c'est TOUT le monde qui y passe. Fini le simple clic sur "j'ai plus de 18 ans" !
30 ans plus tard, la Déclaration d’indépendance du cyberespace à l’épreuve de la réalité
Next - Articles gratuits par Alexandre Laurent le 09/02/2026 à 17:32:00 - Favoriser (lu/non lu)
Offpunk - Le navigateur terminal qui déchire passe en version 3.0
Korben par Korben le 09/02/2026 à 16:05:00 - Favoriser (lu/non lu)
Un navigateur internet, vous voyez ce que c'est ? En général, ça pèse un âne mort, ça bouffe toute votre RAM et les sites que vous visitez vous bombardent de trackers et de pubs avant même que vous ayez pu lire la première ligne d'un article. Mais imaginez maintenant un outil qui se fout royalement du JavaScript, qui limite drastiquement le tracking et qui vous permet de lire vos contenus préférés en restant tranquillement hors-ligne ? Ce serait bien non ?
Counting the waves of tech industry BS from blockchain to AI • The Register
Liens en vrac de sebsauvage par Anonyme le 09/02/2026 à 14:35:00 - Favoriser (lu/non lu)
(Permalink)
Un PC gaming dans une machine à écrire
Korben par Korben le 09/02/2026 à 13:50:00 - Favoriser (lu/non lu)
Tout le monde veut construire le PC le plus rapide, le plus cher, le plus RGB possibeuuule sauf que Prototype, un YouTuber bien allumé, a décidé quand à lui de prendre le problème à l'envers... en intégrant un PC gaming complet dans une Smith-Corona 210 des années 70. Oui, une bonne vieille machine à écrire électrique de 8 kg.
Vous prenez cette vieille Smith-Corona électrique, vous virez tout ce qui sert à rien, vous gardez le chariot, les marteaux et la clochette (oui, la clochette là), et vous fourrez une carte mère mini-ITX, une alim SFX et une carte graphique low-profile à l'intérieur. Et hop, vous avez un PC qui tape littéralement vos emails !
Attention Media ≠ Social Networks - Susam Pal
Liens en vrac de sebsauvage par Anonyme le 09/02/2026 à 13:07:00 - Favoriser (lu/non lu)
Sauf que le problème ce ne sont pas les réseaux sociaux eux-mêmes. Le problème c'est les médias d'attention, et eux seuls: Facebook, TikTok et consorts.
Car ces plateforme ne sont plus des réseaux sociaux.
Un réseau social, c'est un endroit où:
- vous publiez ce que vous voulez.
- vous vous abonnez à des comptes.
- vous voyez chaque publication postée par ces comptes.
Ce dernier point n'est abolument pas vrai avec Facebook, TikTok et autres:
- ils vous *CACHENT* certaines publications des comptes auxquels vous êtes abonnés. (Déjà là, le contrat du "réseau social" est brisé).
- ils vous montrent des publications de comptes desquels vous n'êtes *pas* abonnés, uniquement pour vous maintenir sur la plateforme, à leur bénéfice et à deux des annonceurs. Ce n'est déjà plus non plus un réseau social. C'est un réseau d'attention.
Et tout, absolumnent *TOUT* ce qu'on entend comme reproche concernent les réseaux sociaux sont en réalité des problèmes des médias d'attention : Doomscrolling, publications haineuses (racisme, etc.).
Les réseaux sociaux vont bien - merci - et FONT du bien.
(J'apprécie immensément les tonnes d'échanges que j'ai sur le Fediverse.)
(Permalink)
ASCII characters are not pixels: a deep dive into ASCII rendering
Liens en vrac de sebsauvage par Anonyme le 09/02/2026 à 13:00:00 - Favoriser (lu/non lu)
(Permalink)
☕️ Quand l’IA générative épuise ses adeptes
Next - Articles gratuits par Mathilde Saliou le 09/02/2026 à 12:19:00 - Favoriser (lu/non lu)
Personal AI Infrastructure - L'agent intelligent qui vous connaît vraiment
Korben par Korben le 09/02/2026 à 11:14:00 - Favoriser (lu/non lu)
On nous parle d'agents IA à toutes les sauces depuis deeeees mois mais au final, on se retrouve la plupart du temps avec des outils "stateless" qui perdent le fil dès qu'une session se termine. Heureusement, le projet Personal AI Infrastructure (ou PAI pour les intimes) de Daniel Miessler propose justement de régler ce problème en classant les systèmes IA en 3 niveaux.
Le niveau 1, c'est le chatbot de base type ChatGPT... vous posez une question, il répond, il oublie tout. Le niveau 2, c'est l'agent (genre Claude Code ou Cursor) qui peut exécuter des trucs mais qui ne vous connait pas vraiment. Et le niveau 3, c'est PAI, une infrastructure complète qui observe, planifie, exécute et surtout... apprend de vous.
USA : On ne pourra pas dire qu'on était pas prévenus.
Liens en vrac de sebsauvage par Anonyme le 09/02/2026 à 10:25:00 - Favoriser (lu/non lu)
☕️ La divulgation des réseaux sociaux désormais obligatoire pour entrer aux États-Unis
Next - Articles gratuits par Mathilde Saliou le 09/02/2026 à 10:11:00 - Favoriser (lu/non lu)
C’est le cauchemar de votre collègue du service informatique : qu’est-ce que le shadow AI ?
Numerama.com - Magazine par Amine Baba Aissa le 08/02/2026 à 20:03:00 - Favoriser (lu/non lu)
Ghidra MCP - Quand l'IA fait le reverse engineering à votre place
Korben par Korben le 06/02/2026 à 09:15:00 - Favoriser (lu/non lu)
Ghidra, le framework de reverse engineering open source de la NSA, est un outil que tous les analystes sécu utilisent au quotidien pour démonter des binaires. Sauf que voilà... quand vous passez des heures à renommer des fonctions, documenter des structures et tracer des cross-references à la main, ça finit par devenir un poil répétitif.
Du coup, un développeur a eu l'idée de coller un serveur MCP (Model Context Protocol) directement sur Ghidra. "Encore un wrapper IA bidon ??"... mais non les amis car Ghidra MCP Server est un bridge Python + plugin Java qui expose pas moins de 110 outils d'analyse via le protocole MCP. Rien que ça.
How Industrial Robot Safety Was Written In Blood | Hackaday
Rss sur "le hollandais volant" par Anonyme le 05/02/2026 à 19:38:00 - Favoriser (lu/non lu)
Rappel assez terrifiant que la plupart de nos normes, y compris les lois, sont là parce qu’elles sont nécessaires. En particulier pour ce qui est des normes de sécurité.
C’est bien parce qu’il y a eu des morts par le passé qu’il y en a beaucoup moins aujourd’hui, et ça c’est grâce aux règles de sécurité qu’on a mis en place.
Ces règles ne sont pas là juste pour emmerder le monde.
Je parle ici spécifiquement des règles de sécurité.
Tout ce qui est de règles sociales, économiques, esthétiques, fonctionnelles, culturelles… c’est autre chose. La société, les cultures, et les usages, par exemple, changent au fil du temps, et les règles devraient le faire avec (mais c’est rarement le cas). Le fait qu’il soit nécessaire de protéger les vies humaines, par contre, ça, ça ne devrait pas changer.
Dans certains cas, comme lors du Covid, il fut par exemple décidé de réduire les test sur les vaccins. En particulier pour une question d’urgence. Ce n’est pas forcément mal, du moment qu’on est sûr que le rapport bénéfice/risque reste sur-unitaire (ce qui a été très largement le cas).
Cela reste une exception : dans la vaste majorité des cas, il est largement préférable de suivre les règles de sécurité.
— (permalink)
1dex - Toutes les données d'un quartier en un clic
Korben par Korben le 05/02/2026 à 07:13:00 - Favoriser (lu/non lu)
Quentin, fidèle lecteur de Korben, développe en solo depuis presque un an un outil qui va parler à tous ceux qui cherchent un appart ou une maison et qui en ont marre de jongler entre quinze onglets pour avoir une vision claire d'un quartier.
1dex.fr c'est une plateforme qui agrège un paquet de données géographiques et immobilières sur n'importe quelle adresse en France. Prix de vente au m², transactions DVF, permis de construire, qualité de l'eau, pollution de l'air, travaux à proximité, écoles... Le tout sur une interface cartographique plutôt bien foutue.
Comment fonctionnent les chatbot IA ?
Couleur science par Anonyme le 05/02/2026 à 04:39:00 - Favoriser (lu/non lu)

Depuis quelques années, sont apparus un bon nombre de « chatbox » IA. On peut citer ChatGPT, qui a initialement lancé tout ça, mais on peut en citer plein désormais :
- Claude, de chez Anthropic ;
- Gork, de chez X/Twitter ;
- Meta AI, de Meta/Facebook
- Bing AI / Copilot, de Microsoft ;
- Gemini, de Google ;
- Le Chat, de Mistral.
On les appelle des « IA », pour intelligence artificielle, mais cette dénomination est débattable. Il n’y a pas de conscience, ni d’intelligence capable de comprendre ou de réfléchir derrière tout ça comme le ferait un être humain, ou même un animal. L’ensemble reste purement calculatoire et logique. Le terme, d’intelligence artificielle, reste toutefois bien ancrée pour les désigner.
Le principe de ces chatbox IA est de leur poser une question en langage naturel (c’est-à-dire directement en français ou dans n’importe quelle langue), et l’IA répond avec un texte entièrement construit. Le texte est lui aussi en français (ou dans la langue que l’on a choisie), comme si c’était rédigé par un humain.
Créer un texte sans avoir un mécanisme bien précis pour le faire, ça reviendrait à donner un clavier à un singe : le résultat sera au mieux dissonant, et au pire le clavier finirait arraché du PC puis jeté du haut d’un arbre. Pour produire des textes, il faut au minimum une certaine logique, une certaine mécanique, autrement dit des algorithmes.
Et ça, mêmes dénués d’intelligence et de conscience, les ordinateurs savent très bien le faire !
Essayons de comprendre comment on peut faire produire des textes entiers par un ordinateur.
Génération stochastique, ou aléatoire
Imaginons qu’on veuille créer un mot à partir des lettres de l’alphabet. Une première approche pourrait être de tirer des lettres au hasard, comme les lettres à des Chiffres et des Lettres, ou encore les mots au jeu du cadavre exquis.
Tirons donc 10 lettres au hasard :
QFAWJHMPRZ
Ceci n’est pas fameux, question « mot », n’est-ce pas ? On ne saurait même pas comment le prononcer. Une des raisons à ça est la surreprésentation des consonnes par rapport à ce que l’on a l’habitude de voir. Pourtant c’est tout à fait normal : l’alphabet contient 20 consonnes et seulement 6 voyelles. En tirant des lettres au hasard, on a donc bien plus de chances de se retrouver avec une consonne qu’avec une voyelle.
Or, dans la plupart des langues, certaines plus que d’autres, on note une (relative) alternance entre voyelles et consonnes. Faisons donc comme dans le jeu des Chiffres et des Lettres, et tirons plus ou moins alternativement des consonnes et des voyelles :
ULTODAPSEI
Nous voici avec quelque chose de déjà un peu plus prononçable, même si ça ne ressemble pas encore à un mot bien français.
Pourquoi ?
Parce que les lettres ici sont toujours tirées sans prendre en compte ce qui se trouve avant. En effet, les mots d’une langue donnée ne se forment pas comme ça. Ils sont construits, portent une histoire, une syntaxe. Certains préfixes ou suffixes se retrouvent ainsi sur plein de mots différents. Certaines séquences de lettres sont aussi plus probables que d’autres.
Il faut donc utiliser un système qui tiennent compte de ces probabilités qui existent déjà dans les mots de la langue française.
Les chaînes de Markov
Si l’on analyse les mots de la langue français, on peut calculer les probabilités de tirer une lettre connaissant la précédente. Par exemple, la lettre « Q » est pratiquement toujours suivie par un « U ». De même, la séquence « DE », ou « ON » est relativement courantes. D’autres séquences comme « KW » ou « UO » sont très rares, voire inconnues dans nos mots.
On peut représenter cela sous la forme d’une table, qui montre la probabilité de trouver une lettre en suivant une autre :

Avec cette carte, on sait quelles sont les suites de lettres les plus probables : ainsi, un « Q » a 99,739 % de chances d’être suivi par un « U » !
Si l’on veut faire des mots qui suivent les probabilités et la phonétique du reste des mots français, il faut utiliser cette carte et tirer des lettres au sort en prenant en compte ces probabilités. On parle ici d’une chaîne de Markov : l’on tire une lettre en tenant compte de la lettre précédente (ou, des N lettres précédentes).
C’est un système puissant qui donne de bien meilleurs résultats, comme les mots suivants :
ESVEMERNER
LÉONANTÈLE
SATIQUARER
Ce sont des mots inventés qui n’ont pas de sens, mais on y retrouve une consonance bien française. Quelqu’un ne connaissant pas le français ne saura pas forcément distinguer de vrais mots de faux. Pour nous en convaincre, essayons de voir un ensemble de mots dans une langue que nous ne connaissons pas, comme le suédois :
Steja pädora vente ta prådager pro bönök oätt fön in a la sköng. I väks rahi promkre misek up paringst restöter by tsökar er. Toninahl år skroffa i mantska sallartöd.
Alla människor är födda fria och har lika värde och rättigheter. De är utrustade med förnuft och samvete och bör handla gentemot varandra i en anda av broderskap.
Une de ces deux lignes et une vraie phrase en suédois (c’est l’article premier de la déclaration universelle des droits de l’Homme). L’autre est totalement inventée en utilisant les cartes de probabilités pour la langue suédoise. Vous savez reconnaître laquelle est la vraie (en supposant que vous ne lisez pas le suédois) ?
Tout ceci est toujours basé sur du hasard, mais il est affiné : on choisit les éléments parmi lesquelles on tire au hasard en fonction des résultats précédents.
Chaque langue étant différente, elles ont toutes leurs cartes de probabilité : la chaîne de Markov va dépendre de la langue. Aussi, il faut donc un ensemble de mots bien représentatifs de la langue donnée pour produire ces cartes.
Le fonctionnement se fait donc en deux étapes :
- l’apprentissage : où l’on étudie des mots pour constituer la probabilité des séquences de lettres ;
- l’inférence : où l’on utilise les probabilités que l’on vient de calculer pour tirer des lettres et constituer un mot.
On peut utiliser le même principe sur des mots, et non des lettres. Dans ce cas, il faut une base de données de textes réels pour la phase d’apprentissage, et on peut ensuite produire des suites de mots qui utilisent les statistiques repérées dans les textes réels.
Certains exemples existent comme ça, et le résultat est plus ou moins réussi. Toujours est-il que les textes sont dénués de sens profonds, de sémantique, et surtout peuvent avoir des structures foireuses.
Dans ces chaînes, comme je l’ai dit, l’on utilise la lettre ou le mot précédent, parfois deux ou trois, mais pas vraiment d’avantage. L’on ne tient pas compte de toute la séquence pour tirer l’élément suivant. On dit alors que le modèle n’a pas de mémoire, et tout ce qui a été sorti avant n’importe plus.
Comme on va le voir ci-dessous, les LLM utilisent le principe de prédiction qu’ils empruntent aux chaînes de Markov, mais le font d’une façon bien plus évoluée, avec plusieurs méthodes supplémentaires pour produire des mots, phrases, ou textes toujours plus pertinents.
Les limites des chaînes de Markov
Les chaînes de Markov décrites ci-dessus sont limitées.
Par définition, elles n’ont pas de mémoire : elles prennent donc, pour leurs prédictions, un certain nombre de maillons de la chaîne seulement, mais pas toutes, et encore moins ne tiennent compte par exemple, de s’il s’agit d’un début de chaîne, ou d’une fin de chaîne, ce qui peut avoir son importance dans la conception de phrases ou de textes plus longs.
Un autre élément qui manque et un mécanisme qui permet de repérer les maillons de la chaîne qui sont « plus importants » que d’autres. Dans une phrase, par exemple, le sujet et le verbe sont très importants, beaucoup plus que les déterminants ou des pronoms. Pourtant, le pronom peut parfois remplacer un nom. Dans la phrase « le chat dort, il ronronne », le terme « chat » réfère à la même chose que « il », pourtant ils ne sont pas interchangeables.
Mettre tout ça dans un programme est plus difficile que de ne repérer que les noms communs et les verbes (qui peuvent être facilement appris), car un pronom peut référer à un nom précédent, et devra en hériter le poids.
Si l’on cherche à prédire une suite à cette phrase, il faut que le système garde en mémoire le fait que « le chat » est le sujet principal dans tout le texte, même si les termes souris ou chiens, ou oiseaux peuvent aussi apparaître. Le mécanisme construit pour arriver à cette fin a été nommé « le principe d’attention ». Ce système donne un poids à chaque mot. Dans notre exemple, il donnerait un poids important à « chat ». Ce poids des mots ne dépend pas des données d’apprentissage, mais plutôt des requêtes que l’on fait (où un mot donné peut changer de sens en fonction du contexte.
Pour constituer des textes qui soient pertinents et moins mécaniques, on devrait aussi pouvoir prédire des mots au sens proche d’un autre, c’est-à-dire utiliser le champ lexical entourant un terme. Par exemple, le terme « clé » peut désigner différentes choses pour un serrurier, un mécanicien ou même un musicien (la « clé de sol » par exemple) ou un cryptographe. De plus, pour des textes tout à fait inédits, il faut pouvoir utiliser des synonymes et rendre le texte plus naturel : remplacer « le chat » par « félin » ou « boule de poils », pour éviter les répétitions.
Les LLM actuels ont des mécanismes qui permettent tout ceci. Dans l’ensemble ils utilisent toujours de la prédiction statistique de mots, mais cela utilise des algorithmes beaucoup plus évolués que de simples probabilités issues d’une séquence finie de mots, et ils viennent ensuite affiner tout ça ensuite. Les LLM ne comprennent toujours pas la signification d’une phrase, mais arrivent à en produire une parce qu’ils savent reproduire l’architecture grammaticale, sémantique et lexicale d’un texte – architecture elle-même déjà apprise auparavant.
Cet usage généralise grandement les possibilités de génération de contenus, parce qu’ils ne sont pas limités par les données d’apprentissage (qui ne sont pas infinis).
Les réseaux de neurones
L’ensemble des LLM est bâtie sur une architecture en réseau neuronal (ou réseau de neurones).
Un système de réseaux de neurones artificiels (neural network) miment le fonctionnement des neurones dans le vivant. Chaque « neurone » y est une unité de calcul, sous la forme d’un algorithme. Les neurones sont reliés aux autres de façon à ce que les algorithmes fonctionnent ensemble, formant un programme complexe. Typiquement, le réseau de neurones fonctionne sous forme de couche, où chaque couche sert à faire une action avec ses propres neurones.
Par exemple, une couche décode la requête, une autre pondère chaque mot, chaque lettre, une autre produire une séquence de lettres, une autre produit les remplacements pour éviter les répétitions, ou bien vérifie la grammaire ou l’orthographe. Pour l’analyse ou la génération des images, il y aurait la couche destinée à ouvrir l’image, une pour déceler les bords (analyse des gradients de luminosité entre les pixels), une autre pour constituer les formes, une pour simplifier les calculs, etc.
Les réseaux de neurones sont utilisés pour l’apprentissage profond (deep learning), notamment pour déceler des schémas (patterns) dans un ensemble de donnée d’entrée. Ainsi, pour détecter un chat dans une image. On entraîne le réseau de neurones sur un très grand nombre de photos de chats. Le système, en analysant la juxtaposition des différents pixels dans l’image, finit par détecter ce qui est un chat. Après cette phase d’apprentissage, le système connaît donc les suites de pixels qui correspondent à un chat, et on peut lui dire d’utiliser ce qu’il sait pour produire à son tour une image d’un chat.
Le fonctionnement peut être auto-correctif : si l’on demande une image d’un chat, et que le programme en produit une, on lui fait comparer la photo de sortie avec les données en entrée. La différence entre les deux correspond donc à une « erreur », qu’il faut corriger.
Ou alors, on utilise une image existante dans laquelle on masque une partie et le système doit combler la partie cachée. L’on lui fait ensuite comparer l’image originale avec le ce qu’il a produit ; et de même, en cas de différence, le réseau de neurones modifie ses paramètres internes en conséquence, de façon à ce que la prochaine prédiction soit plus proche de ce que l’on recherche.
Lorsque l’on estime que l’image produite est suffisamment proche d’une vraie photo de chat, alors le générateur est utilisable : il peut pondre tout un tas d’images de chat plus vraies que nature… ou presque.
En dehors des photos de chats, les machines à réseau de neurones excellent dans l’analyse de grandes quantités de données (big data), bien plus que des humains. Il suffit alors de programmer un ordinateur pour le faire rechercher des choses dans ces données, et elle le fera bien plus vite qu’un humain. L’apprentissage profond sur des sommes monstrueuses de données est utilisé sur les données en provenance des sondes spatiales, des stations météo, des données obtenues par les capteurs sismiques, ou même dans les IRM des hôpitaux.
Attention : ce programme n’est toujours pas intelligent. Il ne fait toujours que traiter des données de façon mathématique et purement mécanique et statistique. Le système ne sait pas — à ce stade — ce qu’il cherche, trouve, ou crée réellement. Il ne sait d’ailleurs pas grand-chose en vérité. Il peut juste calculer des choses et vous donner un résultat..
Aussi, les données de sortie ne sont toujours aussi bonnes que les données que l’on envoie en entrée. Si, à notre IA qui produit des images de chats, on donne des images de tous les animaux, il ne saura pas lequel est le chat, pas sans lui avoir dit préalablement en tout cas.
Pourquoi les LLM semblent intelligents ? Le sont-ils réellement ?
Comme j’ai mis plus haut, puisque les LLM fonctionnent en apprenant des informations (tant sur le fond du contenu que sur la forme du langage) issues de données d’entrée, il ne peut qu’en reproduire les qualités et les défauts.
Si les données d’apprentissage sont pleines de fautes, le chatbot ne pourra pas les corriger. Même en lui donnant les règles de grammaire, cela ne fonctionnera pas : il ne sait pas ce que ça signifie. De même, si les données sources sont biaisées, la sortie sera biaisée également.
Par exemple, les écrits, y compris les textes de droit notamment, de l’époque coloniale, sont notablement racistes et pourraient être très choquant à quelqu’un qui n’a eu aucun enseignement en Histoire. Une LLM entraîné exclusivement sur ces données produira des textes également racistes. Ce n’est pas la faute du système lui-même : ce qu’il produit n’est qu’un reflet de ce qu’il a lu. À noter : ceci n’est pas différent d’un être humain qui grandirait dans un tel environnement : il ne saurait pas que ce qu’il conçoit comme « normal » ne l’est pas, ou plus, pour ses contemporains.
Le système étant dénué de bon-sens et de morale, ne saura pas faire la différence entre des propos racistes et des propos considérés plus en phase avec son époque.
Il est difficile de définir l’intelligence au sens large. Il y a plein de facettes qui entrent en ligne de compte, pas uniquement les maths ou la logique pure. Faire des calculs, tous nos ordinateurs savent le faire, depuis le tout début des ordinateurs (c’est même leur fonction première et l’origine du nom lui-même).
Toutefois, les ordinateurs ne savent pas ce qu’ils font : ils ne sont pas conscients. En ce sens, il n’est pas possible de dire qu’ils sont intelligents.
S’ils semblent intelligents, c’est seulement parce que nous nous donnons — à nous-mêmes — ce caractère, et que la machine a réussi à imiter cela au travers de la production de textes, d’images, d’audio, tout du moins dans la forme. L’on pense alors qu’ils sont intelligents, mais ce n’est qu’une illusion malgré tout.
Quant au fond, comme je l’ai dit, la machine ne fait que répéter ce qu’ils trouvent dans les données d’entrée. Si on lui demande une information qui n’existe pas dans les données d’entrer, elle ne saura pas la réponse. Il ne s’agit donc pas non plus d’une entité possédant une connaissance universelle.
Dans ce cas précis, la machine pourrait nous dire qu’elle ne sait pas, mais les chatbots commerciaux actuels préfèrent plutôt inventer des données de façon à satisfaire l’utilisateur.
Notes et références
Mon exemple avec la langue suédoise ci-dessous est là pour montrer que dans certains cas, l’on peut nous baratiner des choses, si l’on n’est pas expert dans le domaine, l’on ne saura pas différentier le vrai du faux. Le baratin en question nous semblera crédible, même s’il ne l’est pas du tout.
Un autre exemple pour nous convaincre que les LLM font essentiellement semblant d’être intelligents est visible ici : prenez un acteur, faites lui jouer un rôle de chirurgien avec un texte tout fait, et il vous semblera compétant. Mettez le devant un vrai patient, et ce dernier mourra. Les LLM / IA actuelles sont pareil.
- Fed 24 Years of My Blog Posts to a Markov Model
- [1706.03762] Attention Is All You Need ;
- Transformeur — Wikipédia ;
- Le transformer illustré - Arlie Coles ;
- Attention (apprentissage automatique) — Wikipédia ;
- [1803.02155] Self-Attention with Relative Position Representations ;
- FAQ Le Bon LLM ;
- Practical guide to the use cases of large language models (LLM) – Autolex ;
- What is a Transformer Model? | IBM ;
Image d’en-tête produite par l’IA Google Gemini
Microsoft n'aurait que 3% d'utilisateurs payants de Copilot
Liens en vrac de sebsauvage par Anonyme le 04/02/2026 à 15:53:00 - Favoriser (lu/non lu)
🤗 Tenez faites plein d'IA, c'est gratuit ! Vous n'en voulez pas ? On s'en fout de votre consentement ! PRENEZ !
🧐 Non mais pas comme ça, attendez, non, faut payer... Comment ça vous ne consentez pas à payer ?
(Permalink)
Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11
Next - Articles gratuits par Jean-Marc Manach le 04/02/2026 à 14:37:00 - Favoriser (lu/non lu)
Cyberbro - L'analyse d'IoC facile et en open source
Korben par Korben le 04/02/2026 à 11:02:00 - Favoriser (lu/non lu)
Salut les amis ! Aujourd'hui, je voulais vous partager une petite pépite qu'un lecteur, Stanislas, m'a envoyée. Si vous bossez dans la cyber ou que vous passez votre temps à analyser des trucs bizarres qui trainent sur vos serveurs, vous allez adorer Cyberbro.
Cyberbro c'est une plateforme d'analyse d'IoC (Indicators of Compromise) en open source. Grâce à ça, au lieu de vous paluchez 15 sites différents pour vérifier une IP ou un hash, vous balancez tout dans Cyberbro. L'outil va alors extraire automatiquement les infos de vos logs et interroger une vingtaine de services comme VirusTotal, MISP, Shodan, AbuseIPDB ou même Microsoft Defender pour vous dire si c'est dangereux.
What Becomes Expensive When Code Becomes Cheap - Jamie Lord
Liens en vrac de sebsauvage par Anonyme le 04/02/2026 à 08:45:00 - Favoriser (lu/non lu)
Petite note : En informatique, on dit souvent qu'un code passe 20% de sa vie à être écrit, et 80% à être relu et maintenu. L'IA résoud le problème de l'écriture, mais pas vraiment celui de la maintenance. La maintenance devient *justement* plus difficile si le code n'est pas compris et/ou correctement structuré.
Comme dit Cory Doctorow, c'est l'amiante informatique qu'on est en train d'accumuler.
(Permalink)
Quand France Travail s’allie à un géant américain | Le Télégramme
Liens en vrac de sebsauvage par Anonyme le 04/02/2026 à 08:39:00 - Favoriser (lu/non lu)
(Permalink)
Quel est l'impact de l'assistance IA sur l'acquisition de compétences en codage ? L'assistance IA a entraîné une baisse statistiquement significative du niveau de maîtrise, d'après une recherc
Liens en vrac de sebsauvage par Anonyme le 04/02/2026 à 08:21:00 - Favoriser (lu/non lu)
GitHub - Enfin un bouton pour bloquer les Pull Requests ?
Korben par Korben le 04/02/2026 à 07:00:00 - Favoriser (lu/non lu)
GitHub vient peut-être de trouver une piste sérieuse pour sauver la santé mentale des mainteneurs de projets open source. Parce que je sais pas si vous le savez mais gérer un projet populaire sur GitHub, c'est un peu comme essayer de vider l'océan avec une petite cuillère, surtout avec la montée en puissance des contributions de faible qualité, dont une bonne partie est désormais générée par IA ...
Le problème, c'est que la quantité ne veut pas dire la qualité... Entre les Pull Requests (PR) qui ne respectent pas les guidelines du "README.md" et celles qui sont abandonnées en cours de route, les mecs derrière les gros dépôts commencent à fatiguer. Du coup, un représentant de GitHub explique dans une discussion avec la communauté explorer très sérieusement plusieurs options, dont la possibilité de désactiver purement et simplement les Pull Requests sur un dépôt.
Les trucs qui me font détester votre site web en 2020 - Le Hollandais Volant
Rss sur "le hollandais volant" par Anonyme le 03/02/2026 à 18:15:00 - Favoriser (lu/non lu)
Un vieil article, j’en ai fait d’autres depuis.
Ici je parles des sites qui demandent le type de carte bancaire, alors que le numéro doit permettre de détecter le réseau (Visa, Mastercard…) de façon automatique.
L’on m’apprend à l’instant, que ceci est là pour permettre de choisir le réseau de paiement !
Par exemple, on peut utiliser une carte Visa, et utiliser le réseau Carte-Bleue (réseau français) si la carte possède le logo « CB ».
Il faut savoir que Mastercard et Visa prennent une commission à chaque paiement effectué. C’est transparent pour nous, le client, car c’est le commerçant qui paye ça auprès du réseau, s’il possède un terminal de paiement. Il va de soi que ces commissions sont répercutés sur les prix pratiqués.
Or, le réseau CB, est bien moins cher sur ces commissions car il est né d’un consortium de banques françaises : https://www.quechoisir.org/actualite-paiement-par-carte-bancaire-le-reseau-cb-un-choix-pertinent-n148256/
Normalement, le choix du réseau n’influe pas sur le prix, et est transparent pour nous. C’est juste que le commerçant en garde davantage pour lui (et donc moins de pognon file aux USA par la même occasion). Si plus de monde utilise CB plutôt que Visa ou Mastercard, les prix montraient également moins vite.
Je n’étais pas du tout au courant qu’on pouvait choisir.
La prochaine fois, je testerais (en supposant que ma carte soit compatible, ce qui n’est pas garantie, chez Boursorama).
~
À noter que, cette histoire de commissions, m’avait été racontée par un restaurateur. Pour ma part j’ai toujours privilégié le paiement en espèces auprès des commerçants et restaurants. Depuis cette histoire, je le fais encore plus.
~
À noter que en Hollande, il y a également un GIE entre les grandes banques nationales (ING, Rabobank et ABN-AmRo), qui produisent des « Bank-pas », en gros une carte de paiement qui n’utilise pas Visa ni Mastercard… Et qui n’est donc utilisable qu’aux Pays-Bas (pour les paiements en ligne, tout le monde passe par iDeal, un sorte de Paypal national).
La plupart des gens ont aussi une carte Visa/Mastercard pour certains cas, comme les achats à l’étranger — je ne sais pas si certaines cartes font les deux.
Certaines chaînes de magasin, y compris Albert Heijn, le plus gros réseau de supermarchés du pays (terme qui, là-bas, prend le sens de « supérettes » pour un français : nos Hyper- et Super-marchés n’existent pas là-bas), avaient, en tout cas un temps, cessé de prendre les Visa et Mastercard, pour protester contre les commissions trop élevées.
D’autant qu’ils sont à fond dans une optique de suppression des espèces : la plupart des caisses sont cash-less, si ce n’est pas toutes. Idem pour les parcmètre en ville ou certaines distributeurs de snacks : plus rien n’accepte les espèces.
C’était donc assez galère pour quelqu’un avec une carte française/internationale de payer là-bas : si on n’était pas accompagné d’un néerlandais de là-bas, on était clairement emmerdé (et les contrôles des parkings payants, c’est autre chose qu’ici — pareil pour les amendes).
Y compris pour payer son billet de train : une fois j’ai dû m’annoncer à la contrôleuse car impossible de payer. Dans ce cas, on montre patte blanche et on reçoit par la poste un coupon à payer sur internet (sans supplément, vu que j’ai pas essayé de frauder). Payer le billet dans le train en espèces c’est impossible là-bas. Quant à maintenant, vu que les gares sont des portiques avant les quais, je ne sais pas comment ça se passerait (bien que le boycott national des réseaux Visa/Mastercard semble s’être calmé).
~
Bref, tout ça pour dire que c’est pas toujours simple.
Et merci à Eric pour l’info sur le choix du réseau avec (presque) n’importe quelle carte !
— (permalink)
Comment nier un génocide ?
Le Monde diplomatique par Razmig Keucheyan le 03/02/2026 à 17:17:00 - Favoriser (lu/non lu)
C'est prouvé : Le vibe coding va tuer l'open source
Korben par Korben le 03/02/2026 à 15:29:00 - Favoriser (lu/non lu)
Une équipe de chercheurs en économie vient de poser des maths sur un truc que pas mal de devs sentaient venir... Le vibe coding serait en train de tuer l'open source. Pas au sens figuré, hein. Au sens "les mainteneurs ne pourront bientôt plus payer leurs factures". J'ai parcouru le papier ce midi, et je pense que ça va vous choquer...
En gros, le document modélise ce qui se passe quand des millions de devs arrêtent d'aller sur Stack Overflow et de lire la doc officielle pour plutôt demander à Claude, Copilot, Cursor ou Windsurf de tout faire à leur place. En fait, à cause de ces nouvelles habitudes, les projets open source qui vivaient de la pub sur leur site, des sponsors attirés par le trafic, ou de la visibilité communautaire... perdent tout. Le trafic baisse, les dons baissent, les revenus baissent.
AI companies will fail. We can salvage something from the wreckage | AI (artificial intelligence) | The Guardian
Liens en vrac de sebsauvage par Anonyme le 03/02/2026 à 09:03:00 - Favoriser (lu/non lu)
(Permalink)
Des scripts tout faits pour votre Proxmox
Korben par Korben le 02/02/2026 à 10:54:00 - Favoriser (lu/non lu)
Ce matin, je discutais avec Emmanuel (un lecteur fidèle) sur mon Linkedin Korben et il m'a partagé une ressource vraiment chouette. Si comme moi vous jouez un peu parfois avec un serveur Proxmox qui tourne à la maison pour vos expérimentations ou votre domotique, vous savez que configurer chaque VM ou conteneur LXC peut vite devenir chronophage. On copie-colle des commandes, on installe des dépendances, on se plante, on recommence... La routine quoi sauf que cette routine peut vite devenir reloue.
Emails jetables - Yopmail et les meilleures alternatives européennes
Korben par Korben le 02/02/2026 à 08:57:00 - Favoriser (lu/non lu)
Vous devez tester un service en ligne et là, PAF 🥲 formulaire d'inscription 🥲 Ouiiiin !!!
Et bien sûr, même si vous pouvez remplir tous les champs avec un tas de conneries, forcement à un moment, ça vous demande votre email. Et là, impossible d'y échapper... Heureusement pour éviter ça, il existe des services d'emails jetables et je vous propose qu'ensemble qu'on fasse un petit point dessus parce que ça a beaucoup bougé ces dernières années..
Smtp-Tunnel-Proxy - Déguisez votre trafic en simples emails
Korben par Korben le 01/02/2026 à 12:36:00 - Favoriser (lu/non lu)
Ce matin, en trainant sur GitHub (mon sport du dimanche, je sais c'est triste), je suis tombé sur un truc qui m'a intéressé et qui je pense vous sera utile (comme la plupart des trucs que je présente ici) surtout si vous êtes coincé derrière un pare-feu d'entreprise totalement paranoïaque. Ou encore si votre FAI s'amuse à brider certains protocoles. Ça peut arriver dans ces cas là, on se sent un peu comme un rat en cage, à chercher la moindre petite ouverture pour respirer un peu de notre liberté.
Note : MUST, SHOULD, MAY NOT…
Rss sur "le hollandais volant" par Anonyme le 01/02/2026 à 09:30:00 - Favoriser (lu/non lu)
Je suis un peu con, et flemmard. C’est pour ça que je crée mes outils pour me simplifier le travail (ça me libère du temps pour réfléchir à le simplifier encore plus).
Quand on me dit qu’on peut faire quelque chose, je comprends « tu n’es pas obligé de le faire ».
Si c’est obligatoire, il fallait me dire « tu dois ».
C’est à ça que servent les mots avec un sens précis.
Les incompréhension et malentendus sont la raison pour laquelle un quart du monde est en ruine et en guerre (un autre quart pour le pétrole, un quart pour une question d’amis imaginaire, et le reste parce qu’un peuple brillamment décérébré a élu un psychopathe comme son président).
J’avais parlé de l’importance de l’insistance sur le choix des termes dans mon article expliquant comment écrire des tutos et des instructions : https://lehollandaisvolant.net/?d=2025/10/03/18/54/57-mes-astuces-pour-realiser-de-bons-tutoriels
Le tout en citant la RFC 2119 qui défini, pour les normes et recommandations de l’Internet, quand employer les termes doit / peut / obligatoirement / optionnel / …
Je remarque que certaines normes ISO / EN / NF ont parfois un paragraphe similaire. Je n’ai pas connaissance d’une norme dédiée, mais je copie ça là :
L’attention du lecteur est attirée sur les points suivants :
Seules les formes verbales doit et doivent sont utilisées pour exprimer une ou des exigences qui doivent être respectées pour se conformer au présent document.
Ces exigences peuvent se trouver dans le corps de la norme ou en annexe qualifiée de «normative». Pour les méthodes d’essai, l’utilisation de l’infinitif correspond à une exigence.
Les expressions telles que, il convient et il est recommandé sont utilisées pour exprimer une possibilité préférée mais non exigée pour se conformer au présent
document. Les formes verbales peut et peuvent sont utilisées pour exprimer une suggestion ou un conseil utiles mais non obligatoires, ou une autorisation.
En outre, le présent document peut fournir des renseignements supplémentaires destinés à faciliter la compréhension ou l'utilisation de certains éléments ou à en clarifier l'application, sans énoncer d'exigence à respecter. Ces éléments sont présentés sous forme de notes ou d'annexes informatives
Oui, il faudrait une norme globale pour ça (un calque de la RFC).
Quand quelque chose est obligatoire pour être valide, il faut que ça soit mis.
Quand quelque chose est recommandé (utile sans être obligatoire) ou non-recommandé (inutile voire dangereux sans être interdit), ça doit être dit aussi.
C’est con qu’il faille préciser ça, mais première nouvelle : les gens SONT cons.
En tant que rédacteur d’instruction de travail (une partie de mon travail), il est de ma responsabilité de faire en sorte que les gens comprennent et travaillent correctement. Dans certains cas, des vies sont en jeu (dans l’aérien, une défaillance c’est souvent synonyme d’accident et de morts).
En mettant « doit » au lieu de « peut », on se couvre. Si la personne comprend mal, c’est un accident.
En insistant sur la différence de doit et peut, si la personne commet encore l’erreur, c’est de l’incompétence ou du sabotage. Pas un accident.
Les normes, les lois, les instructions, devraient insister sur ça. Et choisir leur vocabulaire soigneusement.
Aucune interprétation ne doit être possible.
— (permalink)
Elle peut tuer un système entier avec une seule ligne de code : qu’est-ce qu’une attaque fork bomb ?
Numerama.com - Magazine par Amine Baba Aissa le 31/01/2026 à 15:31:00 - Favoriser (lu/non lu)
Profileur mémoire MALT 1.6.0 et support de Python
Journal du hacker par le 30/01/2026 à 18:52:00 - Favoriser (lu/non lu)
Winslop - Virez le "Slop" de Windows 11 en quelques clics
Korben par Korben le 30/01/2026 à 17:45:00 - Favoriser (lu/non lu)
Yop !
Si vous avez la sensation que votre Windows 11 est devenu une espèce de panneau publicitaire géant bourré d'IA dont vous ne voulez pas, j'ai ce qu'il vous faut !!
Satya Nadella (le patron de Microsoft) a récemment parlé de "Slop" (ça veut dire bouillie) à propos de l'IA générative dans un billet de blog, mais ironiquement, c'est exactement ce que beaucoup reprochent à son OS aujourd'hui. A savoir que c'est devenu une accumulation de fonctionnalités imposées...
Windows 11 - Microsoft veut regagner votre confiance
Korben par Korben le 30/01/2026 à 14:52:00 - Favoriser (lu/non lu)
Windows 11 c'est un peu comme ce cousin relou qui s'incruste à tous les repas de famille avec ses nouvelles idées géniales qui ne marcheront jamais.
Entre Recall qui capture tout ce qui passe à l'écran (avec les polémiques qu'on connaît...), les "recommandations" publicitaires qui s'invitent dans le menu Démarrer et les mises à jour qui font parfois des siennes, la coupe est pleine pour les utilisateurs de Windows !
Du coup, comme tout le monde est en train de se barrer, ceux qui ont du budget vers Apple et ceux qui en ont moins, vers Linux, Microsoft semble enfin avoir une petite prise de conscience. Ah bah c'est pas trop tôt les copains… 😉
F5 BIG-IP VE : Surveiller la bande passante via les logs LTM avec Icinga
Journal du hacker par le 30/01/2026 à 13:31:00 - Favoriser (lu/non lu)
Que risquent ceux qui continuent d’utiliser Windows 10 plusieurs mois après la fin du support technique ?
Tom's Hardware par Sponso le 30/01/2026 à 08:54:00 - Favoriser (lu/non lu)
Beaucoup de ceux dont le PC est encore sous Windows 10 ont entendu les menaces qui pèsent sur leur sécurité. Mais ces alertes sont souvent ignorées au profit d’une conviction irrationnelle que rien ne va leur arriver. Pourtant les risques sont bien réels.
L’article Que risquent ceux qui continuent d’utiliser Windows 10 plusieurs mois après la fin du support technique ? est apparu en premier sur Tom’s Hardware.
ShareMyLogin - Partagez vos accès sans filer vos mots de passe
Korben par Korben le 29/01/2026 à 15:48:00 - Favoriser (lu/non lu)
Vous avez sûrement déjà eu ce moment de solitude où vous devez filer le mot de passe du WiFi, de Netflix ou d'un compte commun à un pote. Et là, comme un mec bourré qui recontacte son ex après une soirée déprimante, vous finissez par l'envoyer par SMS ou l'écrire sur un bout de papier qui finira à la poubelle.
C'est le genre de truc qui rend dingue niveau sécurité, mais bon, dans la vraie vie on le fait tous !