Un collectif de plus de vingt chercheurs, piloté par l’association à but non lucratif EleutherAI (MIT, CMU, University of Toronto), a constitué un jeu de données de 8 To exclusivement issu de contenus sous licence ouverte ou appartenant au domaine public. À partir de ce corpus, ils ont entraîné Comma v0.1, un modèle de 7 milliards de paramètres, dont les performances sont comparables à celles de LLaMA 2‑7B de Meta, un modèle formé sur des données potentiellement protégées.
Contrairement aux gigantesques jeux de données non filtrés utilisés par les grandes entreprises d’IA, cette initiative a misé sur un protocole stringent :
Collecte uniquement sous licences libres ou domaine public ;
Annotation manuelle de chaque donnée pour valider les licences, indispensable face aux défis d’automatisation.
Le résultat ? Un modèle performant, mais dont la constitution reste coûteuse – tant en temps qu’en ressources.
TCS = trouble de la communication sociale (24/09/2014).
L’entreprise Palisade Research a publié un rapport inédit sur le potentiel des IA dans le domaine de la cybersécurité offensive. Pour la première fois, des agents autonomes basés sur des modèles d’intelligence artificielle ont été intégrés à des compétitions internationales de type Capture The Flag (CTF), dans lesquelles les participants doivent résoudre des défis de hacking concrets. Résultat, les IA ont brillé : dans certains cas, elles se sont classées dans le top 5 % des participants humains. L’étude explore l’idée que les performances réelles de l’IA ne peuvent être pleinement révélées que dans des environnements ouverts, collaboratifs et compétitifs. Ces expériences pourraient redéfinir la manière dont le potentiel de l’intelligence artificielle est évalué et audité à l’échelle mondiale.
TCS = trouble de la communication sociale (24/09/2014).
Ce mardi, l’outil d’intelligence artificielle générative développé par OpenAI a été victime d’une panne massive, rendant son utilisation impossible pour de nombreux internautes
En 2024, le PDG de la société suédoise Klarna a vanté haut et fort les capacités de son nouveau chatbot d'IA en affirmant qu'il gère l'équivalent de la charge de travail de 700 travailleurs. Le chatbot serait capable de gérer les communications avec les clients, rendre les acheteurs plus heureux et même générer de meilleurs résultats financiers. Lors de l'annonce, le chatbot prendrait déjà en charge environ 66 % de l'assistance à la clientèle, soit quelque 2,3 millions de conversations jusqu'à présent.
Cependant, les implications plus larges de l'IA générative sur le marché du travail restent floues. C'est pourquoi, une nouvelle étude a examiné les effets des chatbots IA sur le marché du travail à l'aide de deux enquêtes à grande échelle (fin 2023 et 2024) couvrant 11 professions exposées (25 000 travailleurs, 7 000 lieux de travail), reliées à des données appariées sur les employeurs et les employés au Danemark.
[...]
En utilisant les différences dans les différences et les politiques des employeurs comme variation quasi expérimentale, les chercheurs ont conclu que les chatbots IA n'ont eu aucun impact significatif sur les revenus ou les heures enregistrées dans aucune profession, les intervalles de confiance excluant des effets supérieurs à 1 %. Des gains de productivité modestes (gain de temps moyen de 3 %), combinés à une faible répercussion sur les salaires, contribuent à expliquer ces effets limités sur le marché du travail. Nos conclusions remettent en question les discours sur la transformation imminente du marché du travail due à l'IA générative.
TCS = trouble de la communication sociale (24/09/2014).
C’est un rapport qui fait froid dans le dos. Le texte, publié le 11 juin 2025 par Aim Security, décrit le scénario qui aurait pu coûter très cher à d’innombrables d’entreprises à travers le monde.
Tout commence, comme souvent, par un e-mail anodin. Prenons pour exemple un message intitulé « Procédure d’accueil des nouveaux collaborateurs », envoyé par un expéditeur apparemment légitime. Rien ne semble suspect : pas de pièce jointe, pas de lien cliquable. Pourtant, ce courriel contient des instructions cachées en markdown, invisibles à l’œil humain, mais parfaitement lisibles par Microsoft Copilot.
[...]
Copilot exécute alors les commandes injectées en markdown, comme si elles émanaient d’une requête légitime.
[...]
EchoLeak représente une première à plus d’un titre. C’est la première vulnérabilité zero-click exploitant une IA générative d’entreprise, ne nécessitant ni clic ni téléchargement.
[...]
Microsoft a déployé un correctif en mai 2025, isolant désormais les contextes de données externes et internes.
[...]
Si aucune preuve d’exploitation active de la faille a été recensée, les chercheurs y voient l’émergence d’une nouvelle catégorie de menaces : les LLM Scope Violations.
TCS = trouble de la communication sociale (24/09/2014).