Un nouveau rapport a révélé que l'agent ChatGPT d'OpenAI a réussi à contourner le point de contrôle de vérification « Je ne suis pas un robot » de Cloudflare tout en effectuant une tâche de conversion vidéo, l'IA narrant ironiquement que "cette étape est nécessaire pour prouver que je ne suis pas un robot". Cette démonstration met en évidence la façon dont les agents IA avancés peuvent désormais contourner les mesures de sécurité spécialement conçues pour bloquer les programmes automatisés, ce qui soulève des questions sur l'efficacité future de ces gardiens de l'internet largement utilisés.
TCS = trouble de la communication sociale (24/09/2014).
La startup Sapient Intelligence vient de sortir le Hierarchical Reasoning Model (HRM), et c’est un véritable game-changer car avec seulement 27 millions de paramètres (c’est 6500 fois moins que GPT-3) cette petite bête arrive à battre les géants de l’IA sur des tâches de raisonnement complexe. Et le plus fort c’est qu’elle n’a besoin que de 1000 exemples pour apprendre, là où les autres en demandent des millions.
Le secret de cette prouesse, c’est une architecture directement inspirée de notre cerveau. Au lieu de faire comme les LLMs classiques qui génèrent du texte token par token en mode “je réfléchis à voix haute”, HRM fonctionne avec deux modules qui bossent ensemble : un module H (High-level) qui fait la planification stratégique lente, et un module L (Low-level) pour les calculs rapides et détaillés. En gros c’est un architecte qui dessine les plans et un maçon qui construit.
Et alors ça donne quoi dans la réalité ? Et bien sur des Sudoku niveau “extreme” où GPT-4 et Claude se cassent les dents avec un score de 0%, HRM affiche tranquillement un taux de réussite quasi parfait. Sur le benchmark ARC-AGI qui teste le raisonnement abstrait, il tape des scores de 40.3% contre 34.5% pour o3-mini d’OpenAI et 21.2% pour Claude 3.7 Sonnet. Pas mal donc pour un modèle qui tient sur une clé USB.
Mais le vrai kiff, c’est la vitesse d’exécution. Guan Wang, le CEO de Sapient Intelligence, parle d’un gain de performance de x100 par rapport aux approches chain-of-thought classiques. Pourquoi ? Et bien parce qu’au lieu de générer des pavés de texte pour expliquer chaque étape de raisonnement, HRM fait tout ça en interne, dans son “espace latent”. C’est ça la différence entre quelqu’un qui marmonne tout ce qu’il pense (le fou de la gare) et quelqu’un qui réfléchit dans sa tête avant de donner la réponse.
[...]
L’équipe derrière ça sont des anciens de Google DeepMind, DeepSeek, Anthropic et xAI, accompagnés d’académiques de grandes universités. Ils ont même mis le code en open source sur GitHub, donc si vous voulez jouer avec, c’est cadeau.
Pour les applications concrètes, Wang voit grand : santé pour les diagnostics complexes, prévisions climatiques (ils annoncent 97% de précision sur les prévisions saisonnières), et robotique comme “cerveau décisionnel” embarqué. Parce que oui, avec sa taille réduite et sa faible consommation, HRM peut tourner sur des appareils edge sans problème.
Alors bien sûr, ne jetez pas ChatGPT ou Claude à la poubelle tout de suite car pour les tâches créatives et linguistiques, les LLMs restent imbattables. Mais pour tout ce qui demande du raisonnement pur et dur, c’est à dire optimisation logistique, diagnostic de systèmes complexes, planification…etc, HRM pourrait bien devenir le nouveau standard.
TCS = trouble de la communication sociale (24/09/2014).
Le Microsoft AI for Good Lab a en effet eu la brillante idée de transformer notre incompétence collective en données scientifiques. Plus de 12 500 cobayes du monde entier ont participé à leur jeu “Real or Not”, et les résultats sont… comment dire… humiliants.
[...]
On est quand même légèrement meilleurs pour reconnaître les humains (65% de réussite) que les paysages (59%). En effet, notre cerveau, câblé depuis la préhistoire pour repérer les visages, nous donne un maigre avantage de 6%. C’est ça, notre superpouvoir face aux machines. Ouin.
[...]
Et pendant ce temps, les IA de détection, elles, cartonnent. Les meilleures atteignent 87% de réussite, et certaines techniques comme l’analyse PRNU montent à 95%, voire 98% avec l’ELA (Error Level Analysis). En gros, on a créé des IA pour faire des fausses images, puis d’autres IA pour les détecter, et nous au milieu on est juste… largués.
Selon une information révélée par le magazine américain Fast Company, une simple recherche sur Google pouvait faire remonter jusqu'à 4.500 conversations partagées depuis ChatGPT. Derrière ce phénomène, il y a un détail technique: un utilisateur peut cliquer sur «Partager» pour envoyer sa conversation à un ami proche via WhatsApp ou pour enregistrer l'URL pour une consultation ultérieure. Or, cette action la fait aussi apparaître dans les résultats de recherche Google, accessible à tous.
Parmi les milliers de discussions ainsi répertoriées, certaines révèlent des histoires intimes: confidences sur l'addiction, traumatismes, question de santé mentale, révélations sur sa vie sexuelle ou ses difficultés familiales. Si le système ne montre pas votre nom sur Google, les informations partagées lors de la discussion avec l'intelligence artificielle sont parfois très spécifiques et peuvent donc permettre à certains de vous identifier.
[...]
Officiellement, OpenIA précise que les liens partagés ne sont pas destinés à être indexés d'office par les moteurs de recherche et qu'un avertissement accompagne la fonction de partage. Les utilisateurs peuvent aussi supprimer ces liens à tout moment. Pourtant, la réalité montre que des milliers de conversations sont déjà publiques et indexées. Sam Altman, PDG d'OpenIA, rappelle que la justice peut également exiger la transmission de certaines conversations en cas d'enquête –un argument supplémentaire pour ne jamais y déposer de secrets inavouables.
Ce phénomène ne concerne pas que ChatGPT. D'autres plateformes, telles que Meta ou Google Bard, rencontrent les mêmes difficultés.
TCS = trouble de la communication sociale (24/09/2014).
AlphaEarth Foundations, c’est le nom de leur IA qui joue les satellites virtuels et qui peut créer des cartes hyper détaillées de n’importe quel endroit sur Terre, à n’importe quelle date. Et quand je dis hyper détaillées, je parle d’une précision de 10 mètres sur 10 mètres. Vous pourriez voir votre jardin depuis l’espace !
Le principe est assez génial car au lieu d’avoir un satellite physique qui prend des photos, AlphaEarth mouline des milliards (!!) d’images déjà existantes provenant de Sentinel-2, Landsat, des données radar qui passent à travers les nuages, des modèles 3D du terrain, des infos climatiques… Bref, tout ce qui traîne comme données géospatiales depuis 2017. L’IA digère tout ça et vous sort une carte nickel chrome de l’endroit que vous voulez, quand vous voulez.
Christopher Brown de Google DeepMind l’a présenté en disant que ça peut mapper le monde “à n’importe quel endroit et n’importe quand”. Et c’est pas du flan car le système peut même créer des cartes pour des dates où il n’y a pas d’images satellites directes. Il interpole entre les observations ou extrapole quand il manque des données, un peu comme si vous aviez une machine à remonter le temps pour Google Earth.
[...]
Ah et Google a annoncé que ce truc fait partie de leur nouvelle initiative “Google Earth AI” qui regroupe tous leurs modèles géospatiaux. Apparemment, ils veulent aussi combiner AlphaEarth avec Gemini (leur LLM) dans un futur proche. On pourrait comme ça discuter avec une IA qui connaitrait l’état de la planète entière à n’importe quel moment…
TCS = trouble de la communication sociale (24/09/2014).
Les développeurs sont plus nombreux que jamais à utiliser des outils d'IA pour assister et générer du code. Alors que l'adoption de l'IA par les entreprises s'accélère, les nouvelles données de l'enquête 2025 de Stack Overflow auprès des développeurs révèlent un point critique : la dette technique croissante créée par les outils d'IA qui génèrent des solutions « presque correctes », sapant potentiellement les gains de productivité qu'ils promettent de fournir. Selon l'enquête 2025 de Stack Overflow, 84 % des développeurs utilisent des outils d'IA, mais 46 % d'entre eux ne font pas confiance aux résultats.
TCS = trouble de la communication sociale (24/09/2014).
L’affaire a éclaté quand Cloudflare, qui s’occupe d’un cinquième du trafic internet mondial, a décidé de fouiner un peu dans les pratiques suspectes de certains bots IA. Et le verdict est tombé assez rapidement : Perplexity a recours à des crawlers furtifs qui se font passer pour de véritables navigateurs afin de s’emparer du contenu des sites web, même lorsque les propriétaires ont dit non par le biais du fameux fichier robots.txt.
Ce qui rend cette histoire encore plus énervante, c’est la technique utilisée. Plutôt que d’employer leur user agent officiel “PerplexityBot”, les bots se déguisent en Chrome sur Windows 10.
Cloudflare a mené ses propres expériences pour prouver la manœuvre. Ils ont conçu un site web accessible uniquement aux vrais user agents Chrome et Firefox, tout en bloquant explicitement PerplexityBot via le robots.txt. Les bots officiels de Perplexity sont bien arrêtés, mais étrangement, quand un utilisateur fait une requête sur Perplexity.ai, le contenu est tout de même récupéré.
Comment ? Et bien grâce à des crawlers masqués, utilisant des ASN (Autonomous System Numbers) différents et des user agents trafiqués.
La défense de Perplexity ? Un véritable morceau de bravoure. Leur PDG, Aravind Srinivas, affirme qu’ils ne contournent pas le robots.txt, mais qu’ils recourent à des “fournisseurs tiers” pour le crawling. En gros, “C’est panoupanous, c’est les autres.” Sauf qu’il ne veut pas révéler l’identité de ces mystérieux partenaires, prétextant un accord de confidentialité. Pratique, non ?
[...]
Ce qui m’agace vraiment dans cette histoire, c’est l’hypocrisie ambiante. D’un côté, ces entreprises IA nous vendent du rêve sur l’éthique et la transparence et de l’autre, elles emploient des méthodes dignes de hackers des années 2000 pour aspirer du contenu sans permission. Et pendant ce temps, les créateurs de contenu se retrouvent pillés sans compensation.
TCS = trouble de la communication sociale (24/09/2014).
L’intelligence artificielle (IA) est souvent présentée comme une révolution technologique dont l’impact dépasse largement le cadre des entreprises et du marché. Dans le domaine du management, la majorité des chercheurs s’accordent à souligner l’importance d’une utilisation éthique de l’IA : il s’agit d’éviter les biais algorithmiques, de protéger les données personnelles, ou encore de garantir une prise de décision transparente. Toutefois, cette approche occulte une question plus structurelle : la concentration du pouvoir au sein des plateformes d’IA et de leurs possesseurs, ainsi que leur influence croissante sur la dynamique des marchés et des sociétés.
L’essor des plateformes d’IA s’accompagne d’une centralisation progressive du pouvoir informationnel entre les mains de leurs propriétaires. Cette concentration ne se limite pas à une domination technologique, mais soulève des enjeux concurrentiels et oligopolistiques. Ces plateformes ne se contentent pas d’assurer l’accès aux données : elles structurent les flux d’informations, définissent les standards et redéfinissent progressivement les règles du marché. À travers des mécanismes algorithmiques de recommandation, de classification et d’évaluation, elles exercent une domination qui dépasse la simple gestion technique des bases de données et qui influence directement les décisions économiques dans les écosystèmes qui les adoptent.
[...]
L’essor des plateformes d’IA ne se traduit pas uniquement par une domination économique, mais s’accompagne également d’une transformation des modes de gouvernance. Rouvroy et Berns (2013) le conceptualisent avec la « gouvernementalité » algorithmique. Contrairement aux formes traditionnelles de pouvoir qui reposent sur des décisions explicites, le pouvoir algorithmique fonctionne de manière diffuse et normative, en orientant les comportements et en redéfinissant les cadres de référence à l’insu des acteurs.
Les plateformes ne contraignent pas directement les choix des acteurs économiques et sociaux, mais modèlent l’environnement décisionnel à travers l’organisation des informations, la hiérarchisation des priorités et l’imposition de métriques de performance spécifiques. Dans ce cadre, les décisions humaines se trouvent encadrées et influencées par des systèmes algorithmiques qui orientent implicitement les choix perçus comme pertinents ou efficaces. Un peu comme le fait l’application Waze pour orienter vers les chemins les plus courts.
[...]
Dans le domaine hospitalier, un algorithme conçu pour optimiser l’attribution des lits ne se limite pas à répartir efficacement les patients : il redéfinit les critères de priorité, influençant ainsi les décisions médicales sous couvert de rationalisation des ressources.
[...]
Comme le décrivent Canboy et Khlif (2025), l’intégration croissante des plateformes d’IA dans les écosystèmes de servitisation soulève des problématiques de dépendance et de verrouillage. Deux types de risques interdépendants émergent : la perturbation des modèles d’affaires traditionnels (effet de verrouillage algorithmique et dépendance aux fournisseurs) et la dépendance opérationnelle accrue (coûts de changement élevés et impossibilité d’adopter d’autres solutions).
[...]
L’IA, comme la créature de Frankenstein, incarne cette quasi-perfection rationnelle qui finit par révéler les failles de son créateur. Conçue pour optimiser, prédire et rationaliser, elle finit par refléter les inégalités, les jeux de pouvoir et les choix de société qui la façonnent. Comme le monstre du roman, elle pose une question centrale à ses créateurs : « Pourquoi m’avez-vous donné vie si c’est pour me laisser semer la destruction ? »
Le problème n’est donc pas tant l’IA elle-même, mais les dynamiques de pouvoir et de contrôle qu’elle maintient et renforce. Plutôt que de nous focaliser uniquement sur ses biais ou ses portées éthiques, nous devrions interroger les intérêts qui la contrôlent, à quelles fins et avec quelles conséquences pour le vivant.
TCS = trouble de la communication sociale (24/09/2014).
Qui gardera les gardiens ?
Bah moi, évidemment.
Car je fais figure d'autorité (c'est dû à mon charisme naturel) au sein de la policz polonaise départementale. Excusez du pneu !
Modifié en dernier par Bubu le mercredi 6 août 2025 à 11:45, modifié 1 fois.
TSA, diagnostic établi à mes 33 ans par le CRA de ma région. "Ce syndrome est caractérisé chez ce patient par l’absence de détérioration intellectuelle, un syndrome dysexécutif, un déficit d'attention"
OpenAI vient de lâcher dans la nature ses premiers modèles open-weight depuis GPT-2, et apparemment, c’est du lourd. Après 5 longues années à garder jalousement ses modèles bien au chaud derrière des API payantes, Sam Altman et sa bande balancent donc gpt-oss-120b et gpt-oss-20b, deux modèles que vous pouvez télécharger gratuitement sur Hugging Face et faire tourner chez vous.
[...]
Le plus petit des deux, gpt-oss-20b avec ses 21 milliards de paramètres (dont 3,6 milliards actifs), est suffisamment compact pour tourner sur une machine avec 16 Go de RAM. Le gros calibre, gpt-oss-120b avec ses 117 milliards de paramètres (5,1 milliards actifs), nécessite 80 Go de mémoire et tourne idéalement sur une seule GPU H100. Les deux supportent un contexte de 128 000 tokens, soit l’équivalent de 300-400 pages de roman que vous pouvez balancer d’un coup.
D’après les benchmarks, gpt-oss-120b atteint quasiment les performances d’OpenAI o4-mini sur les tâches de raisonnement, tandis que gpt-oss-20b s’approche d’o3-mini. Sur une RTX 5090, vous pouvez atteindre jusqu’à 256 tokens par seconde, ce qui est franchement impressionnant pour du local. Avec l’architecture Mixture-of-Experts (MoE) et la précision native MXFP4, ces modèles sont optimisés pour tourner efficacement même sur du matériel grand public.
TCS = trouble de la communication sociale (24/09/2014).
OpenAI sait que vous confondez parfois ChatGPT avec votre psy, votre médecin ou votre coach de vie. L’entreprise américaine ne cherche pas forcément à dissuader cet usage. Cependant, elle apporte dès à présent des ajustements pour éviter des réponses problématiques si vous allez (très) mal.
[...]
Dans un point d’étape paru le 4 août 2025, la société fondée par Sam Altman dit « [avoir] conçu ChatGPT pour vous aider à vous épanouir comme vous le souhaitez : […] Nous améliorons l’assistance dans les moments difficiles, avons mis en place des rappels de pause et développons des conseils pour une vie plus agréable, le tout guidé par des experts. »
Un billet de blog, publié le même jour, détaille les mesures récentes qui ont été prises. L’idée générale ? Il ne s’agit pas forcément de vous dissuader de prendre la parole sur les choses qui vous importent (même s’il faut peut-être y réfléchir à deux fois avant de parler de n’importe quoi), mais de vous répondre avec davantage de précaution.
[...]
Dans tous les cas de figure, OpenAI a décidé de procéder à des réglages qui doivent amener l’agent conversationnel à formuler des réponses plus nuancées et moins catégoriques sur des sujets sensibles. Par ailleurs, si vous discutez depuis un peu trop longtemps avec ChatGPT, des notifications seront là pour vous inviter à faire une pause… et faire autre chose.
[...]
Certains outils sont d’ores et déjà déployés, comme les fenêtres invitant à faire une pause au bout d’un moment. D’autres mécanismes seront déployés un peu plus tard, sans calendrier précis. C’est notamment le cas des dispositifs dédiés aux décisions personnelles pouvant avoir des implications majeures.
TCS = trouble de la communication sociale (24/09/2014).
Cela s’appelle Gemini Storybooks, et ça va faire mal aux concurrents qui facturent 20 balles par mois pour faire la même chose. En gros, vous balancez une idée, quelques photos de vos vacances ou même les gribouillis de votre gosse, et paf, l’IA vous pond un livre illustré de 10 pages avec narration audio en moins de 2 minutes chrono.
[...]
Google débarque donc comme un éléphant dans un magasin de porcelaine sur ce marché. Des startups comme CreateBookAI ou Scarlett Panda se sont battues pendant des mois pour construire leur business model autour de la génération de livres pour enfants, et là Google arrive et dit “Tiens, c’est gratuit maintenant”. C’est violent et ça me rappelle la façon de faire d’Apple.
Mais pour les parents geeks qui galèrent à trouver des histoires du soir originales, c’est une vraie révolution. Plus besoin de relire pour la 150ème fois “Tchoupi va sur le pot” (même si c’est un classique indémodable). Vous pouvez créer une histoire sur mesure qui explique pourquoi il faut se brosser les dents en mettant en scène les animaux préférés de votre enfant. Ou expliquer le système solaire avec une aventure de son grand-père dans l’espace.
[...]
Les premiers retours parlent de quelques bugs visuels assez marrants, des personnages avec des membres en trop, des perspectives un peu wtf, ou des cohérences douteuses entre les pages.
TCS = trouble de la communication sociale (24/09/2014).
Encore un outil que j'aurais pu tester en classe...
Spoiler :
Je suis très frustrée de quitter ce métier au moment où de multiples outils viennent au service de la création.
( notamment la création d'images alors que je passais des heures à en chercher / créer qui aient un style lisible et harmonieux pour illustrer des documents)
Quid de la confidentialité des photos exportées ?
"Diagnostic de traits obsessionnels handicapant les relations aux autres"