Déjà à l'école obligatoire, dans divers établissements, et en apprentissage, les personnes en formation doivent souvent rendre leurs travaux sur Teams, utiliser Office365 en ligne...


Il y a aussi certaines extensions de Firefox qui permettent de visionner (mais pas forcément de télécharger) des vidéos sur YouYoute, extensions dont l'efficacité est éventuellement provisoire car YouYoute continue d'essayer de les combattre. C'est le jeu du chat et de la souris qui continue.
Environ 88 % des membres de la génération Z utiliseraient régulièrement des applications de partage de position. Et leurs motivations révèlent comment cette génération a redéfini le sens l'amitié, la sécurité et la vie privée à l'ère des smartphones. Cette tendance s'est popularisée au cours des dix dernières années avec les applications telles que Snap Map, Google Map, etc. Selon des données récentes, les raisons qui expliquent ce phénomène sont plus complexes que le simple constat « les jeunes d'aujourd'hui ne se soucient pas de la confidentialité ». Les experts s’inquiètent des effets à long terme de cette surveillance mutuelle et risques de sécurité.
[...]
Alors qu'Instagram et TikTok récompensent la performance et la curation, le partage de position offre quelque chose de complètement différent : une authenticité sans filtre. Comme l'explique un utilisateur : « je trouve étrangement réconfortant de voir mes amis vivre leur journée en temps réel, bien plus que de les voir publier des stories Instagram soigneusement sélectionnées ».
[...]
Les études révèlent que l'authenticité n'est pas la seule raison qui explique pourquoi la génération Z adhère au suivi constant. La composante sécurité va bien au-delà de la commodité, puisant dans les angoisses générationnelles auxquelles les générations précédentes n'étaient pas confrontées de la même manière.
[...]
Les données montrent que la génération Z n'est pas naïve quant aux compromis. Ces derniers pensent que les gains en matière de sécurité apportés par les applications de partage de position l'emportent sur les problèmes potentiels d'utilisation abusive des données.
[...]
Ce suivi est perçu comme une façon de rester connecté, d’assurer la sécurité des uns et des autres, ou simplement de savoir si ses amis sont disponibles. Mais cette hyperconnectivité alimente également des sentiments de jalousie, de comparaison sociale et de peur de manquer quelque chose. Le fait de savoir où sont les autres peut créer de la pression, même inconsciemment. Si cela ressemble à un anti-Instagram, il introduit d'autres risques pour les jeunes.
[...]
Les implications en matière de santé mentale sont importantes, mais encore peu étudiées. Selon les experts, un suivi constant peut créer une anxiété liée à la surveillance plutôt que la sécurité et la connexion recherchées. « En nous appuyant sur cette technologie, nous vidons de leur substance nos familles, nos amitiés et nos relations amoureuses », a déclaré un expert des questions liées à la confidentialité. Certains appellent à des études approfondies.
[...]
La génération Z a fondamentalement redéfini la notion de vie privée à l'ère des smartphones, mais ces changements vont bien au-delà de leur groupe d'âge et remodèlent le comportement numérique de toutes les générations. Le changement social plus large est indéniable. Près de 80 % des personnes ont désormais activé le partage de leur position sur leur téléphone, ce qui en fait la nouvelle norme plutôt qu'une tendance chez les jeunes.
21 juillet 2025 • 07:00
Microsoft France vient de reconnaître devant le Sénat qu’il ne peut pas protéger les données européennes du gouvernement américain. Cette déclaration sous serment balaye toutes les promesses sur la souveraineté numérique européenne.
L’aveu qui fait mal ! Anton Carniaux, directeur juridique de Microsoft France, a fait une révélation devant le Sénat français.
Interrogé sous serment sur la protection des données européennes contre l’espionnage américain, sa réponse est sans appel : « Non, je ne peux pas le garantir« . Cette déclaration confirme ce que beaucoup soupçonnaient : même stockées en Europe, vos données peuvent finir entre les mains du gouvernement américain. Le Patriot Act et le Cloud Act obligent tous les géants tech US à coopérer, même à l’étranger.
L’aveu sous serment
La scène se déroule en juin 2025 devant le Sénat français. Le rapporteur Dany Wattebled pose la question qui fâche : « Pouvez-vous garantir sous serment que les données des citoyens français confiées à Microsoft ne seront jamais partagées sur ordre du gouvernement américain, sans le consentement des autorités françaises ?« .
La réponse d’Anton Carniaux est très claire : « Non, je ne peux pas le garantir, mais cela ne s’est jamais produit auparavant. » Un aveu qui balaye d’un coup toutes les promesses de Microsoft sur la souveraineté numérique européenne et la protection des données.
Cette déclaration sous serment révèle enfin la réalité juridique : Microsoft, comme tous les géants tech américains, reste soumis aux lois de son pays d’origine, peu importe où sont stockées les données. Le cloud européen de Microsoft n’est qu’un mirage de souveraineté.
Le Patriot Act et le Cloud Act : les lois qui changent tout
Anton Carniaux explique que Microsoft ne peut refuser les demandes d’information du gouvernement américain que si elles sont « infondées ». Si les autorités US formulent correctement leur demande, Microsoft est « absolument » tenu de transférer les données européennes.
Le directeur juridique détaille le processus : « Nous analysons d’abord attentivement la validité d’une demande et la rejetons si elle est infondée. Je tiens à souligner que le gouvernement ne peut formuler de demandes qui ne soient pas précisément définies. » Mais si la demande est bien formulée ? Microsoft n’a pas le choix.
Pire encore : Microsoft ne peut même pas garantir d’informer ses clients européens. L’entreprise peut seulement demander que le processus soit « transmis au client dans la mesure du possible« . Autrement dit, vous pourriez ne jamais savoir que vos données ont été transmises aux autorités américaines.
Brad Smith et ses promesses creuses
Cette révélation tranche avec les déclarations rassurantes de Brad Smith, patron de Microsoft. En avril 2024, Brad Smith promettait de poursuivre le gouvernement américain en justice si nécessaire pour protéger l’accès des clients européens aux services cloud.
Brad Smith affirmait lors d’une réunion de l’Atlantic Council à Bruxelles que Microsoft contesterait toute décision gouvernementale visant à interrompre les services cloud pour les clients européens. Des promesses qui sonnent creux face aux aveux de Anton Carniaux sous serment.
La réalité juridique rattrape la communication : aucune entreprise américaine ne peut s’opposer durablement à son gouvernement. Les lois américaines s’appliquent à toutes les filiales, même européennes.
L’affaire de la Cour pénale internationale
L’exemple le plus parlant ? L’affaire du procureur de la Cour pénale internationale (CPI), Karim Khan. Selon l’agence AP, Karim Khan a perdu l’accès à sa messagerie Microsoft après des sanctions américaines. Il a dû migrer vers le suisse Proton Mail pour retrouver son indépendance.
Anton Carniaux nie tout blocage : « Nous n’avons jamais suspendu ni bloqué l’accès aux services de la CPI. Nous avons discuté avec la CPI dès le début pour trouver une solution. » Mais il ne précise pas qui, à part Microsoft, était responsable du problème d’accès.
Même des institutions internationales comme la CPI ne sont pas à l’abri des pressions géopolitiques.
Le problème dépasse Microsoft : Amazon Web Services, Google Cloud, tous les géants américains sont dans la même situation juridique. Seules les entreprises européennes peuvent garantir une vraie souveraineté numérique.
L’Europe a les compétences techniques pour développer ses propres solutions cloud. Ce qui manque, c’est la volonté politique et les investissements massifs nécessaires. Mais face aux aveux de Microsoft, l’urgence devient évidente.
23 juillet 2025 • 12:00
Proton étend son porte feuille de services avec un nouvel assistant IA avec une promesse du respect de la vie privée : Lumo by Proton.
Vous connaissez probablement Proton avec Proton Drive, Mail, ou encore VPN. Aujourd’hui, l’entreprise suisse dévoile Lumo by Proton, un nouvel assistant IA qui se veut transparent et respectueux de la vie privée des utilisateurs.
La promesse est également d’offrir une alternative souveraine européenne (aux côtés du français Mistral avec Le Chat par exemple) face aux géants du secteur, chinois et américains, dans un contexte géopolitique tendu.
L’assistant IA confidentiel
Proton axe son modèle Lumo sur trois piliers : la confidentialité, la sécurité, et la transparence. L’objectif est de pouvoir utiliser le modèle d’intelligence artificielle, sans craindre que sa vie privée soit compromise. Toutes les conversations sont confidentielles, et ne sont pas utilisés pour l’entrainement d’un LLM (Large Language Model). Les données qui transitent ne sont jamais partagées, ni vendues.
L’entreprise suisse avance que son modèle est soutenu par sa communauté, (pas d’annonceurs) et ne gagne pas d’argent grâce aux données de ses utilisateurs. Les données des conversations sont protégés par un chiffrement maison, déchiffrable par l’appareil de l’utilisateur uniquement.
Lumo s’appuie sur des modèles de langage open source pour le traitement des requêtes. Parmi ces modèles, on peut citer Nemo et Mistral Small 3 de Mistral, Openhands 32B de Nvidia, ou encore OLMO 2 32B de Allen Institute for AI.
Proton indique par ailleurs qu’ils optimisent les réponses aux requêtes, et que certains modèles pourront être ajoutés ou supprimés en cours de route. La marque souligne que l’utilisation de modèles moins gros et spécialisés apportent une meilleure efficacité, tout en étant plus rentables sur les coûts d’exploitation.
L’IA de Proton propose des fonctionnalités pour sécuriser les prompts que l’utilisateur peut lui adresser :
Configuré par défaut pour ne pas chercher ses réponses sur internet, sauf sur demande de l’utilisateur
Fonction de téléchargement et d’analyse de fichiers sans enregistrer ces derniers
Associé à l’écosystème de Proton , avec traitement de fichiers depuis Proton Drive
Une question de souveraineté
Dans un contexte de souveraineté dans une atmosphère géopolitique compliqué, Lumo apporte une solution européenne au secteur de l’intelligence artificielle générative, sans dépendre de grandes puissances comme la Chine ou les États-Unis.
Lorsque nous avons lancé Proton Mail il y a dix ans, notre vision était de fournir une alternative respectueuse de la vie privée aux écosystèmes des Big Tech, une alternative qui puisse profiter à l’ensemble de la société. Les Big Tech utilisent l’IA pour dynamiser la collecte de données utilisateur afin d’accélérer la transition du monde vers un capitalisme de surveillance. C’est précisément pour lutter contre cela que nous pensons qu’il est essentiel de fournir une alternative qui protège la vie privée et sert les utilisateurs au lieu de les exploiter. L’IA ne doit pas devenir l’outil de surveillance le plus puissant au monde. Lumo, comme tous les produits Proton, place l’utilisateur avant les profits.
De plus, Proton précise que le traitement des demandes s’effectue exclusivement sur des serveurs qui sont contrôlés par l’entreprise et basés en Europe.
Prix et disponibilité
Lumo est disponible depuis le lien lumo.proton.me, ou depuis l’application sur iOS et Android, avec deux offres proposées :
Une offre gratuite qui donne accès à 100 questions par semaine.
L’abonnement Lumo Plus qui offre des fonctionnalités supplémentaires, sans aucune limite de questions et d’ajout de favoris, un historique de navigation plus complet, ou le téléchargement de fichier plus lourds. Notez également que l’abonnement est inclus dans l’offre de Proton Visionary.
Vous pourrez utiliser le service gratuitement, ou prendre l’abonnement Lumo Plus au tarif de 12,99 euros par mois (9,99 euros par mois si vous prenez l’abonnement annuel).
Alors que les entreprises technologiques rivalisent d'ingéniosité pour améliorer l'expérience utilisateur, certaines innovations soulèvent des questions légitimes quant à leurs implications en matière de confidentialité. C'est dans ce contexte que Microsoft a récemment dévoilé "Recall", une fonctionnalité de Windows 11 basée sur l'intelligence artificielle, qui a suscité un débat houleux. Face à ces inquiétudes, le navigateur web axé sur la confidentialité, Brave, a pris une décision forte et saluée par de nombreux défenseurs de la vie privée : bloquer Microsoft Recall par défaut.
[...]
Par ce geste, Brave ne se contente pas de corriger une faille ou d’ajouter un filtre : il s’oppose frontalement à une technologie intégrée au système d’exploitation lui-même, au cœur de l’environnement Windows, et promue comme une avancée majeure de l’intelligence artificielle au service de la productivité. Pour les défenseurs de la vie privée, ce geste est une déclaration de guerre contre une forme insidieuse de surveillance permanente.
[...]
Introduit comme l’une des fonctionnalités phares de la gamme Copilot+ PC, Microsoft Recall prétend révolutionner l’expérience utilisateur : en prenant des captures d’écran toutes les quelques secondes, le système garde un historique visuel complet de tout ce qui s’affiche sur l’écran. Grâce à l’IA, l’utilisateur peut ensuite rechercher des images, du texte ou des moments particuliers dans ce flux, comme il chercherait un fichier dans un moteur de recherche.
Microsoft présente Recall comme une solution locale et sécurisée, promettant que les données sont stockées uniquement sur le disque dur de l’utilisateur, sans transmission au cloud. Mais cette promesse ne suffit pas à apaiser les craintes.
Plusieurs experts ont rapidement souligné les risques : la fonction pourrait capturer des données bancaires, des messages privés, des documents médicaux, des identifiants, et bien plus encore. Le stockage local, s’il n’est pas chiffré correctement, reste vulnérable en cas de vol, d’intrusion ou d’attaque par ransomware. Pire encore, des chercheurs ont démontré qu’il était possible d’exfiltrer les données de Recall avec des techniques relativement simples.
Les systèmes traditionnels de réidentification reposent sur des séquences vidéo, ce qui les rend vulnérables aux masques, au mauvais éclairage ou aux changements d'angle. En revanche, la technologie WhoFi mise au point par des chercheurs de l'université La Sapienza de Rome utilise l'information sur l'état des canaux (CSI). Ces données, intégrées dans les signaux radio des routeurs Wi-Fi modernes, fournissent des mesures très précises de la force du signal et du comportement. Lorsqu'une personne se déplace dans une zone Wi-Fi, elle modifie subtilement ces signaux d'une manière unique et reconnaissable.
Pour générer des modèles fiables, WhoFi filtre les anomalies, corrige les problèmes de synchronisation et améliore les données avec des variations ciblées. Un modèle d'apprentissage profond analyse ensuite les modèles de signaux et produit une signature vectorielle unique pour chaque individu.
Précision jusqu'à 95,5 % - même à travers les murs
Dans l'étude publiée sur arxiv.org whoFi a été testé sur 14 participants dans différents scénarios vestimentaires et a atteint un taux de précision de 95,5 %. Le système n'a pas été affecté par des facteurs externes tels que les vêtements ou la ligne de mire. Même les murs ne constituent pas un obstacle, car la méthode ne repose pas sur le contact visuel, mais sur l'interaction des ondes radio avec les structures internes du corps, telles que les os.
Contrairement aux caméras, le système WhoFi ne capture ni ne traite aucune donnée visuelle, ce qui le rend théoriquement plus efficace en termes de données. Cependant, il soulève également de nouvelles inquiétudes. Toute personne émettant des signaux Wi-Fi pourrait, à son insu, partager des informations sur les personnes se trouvant à proximité, même si ces personnes ne portent aucun appareil.
Utile, mais avec des risques de surveillance non désirée
Dans la pratique, le service WhoFi peut s'avérer très utile, par exemple pour surveiller des zones sensibles ou critiques en matière de sécurité. Dans le même temps, cette technologie comporte des risques de surveillance invisible, non désirée, voire illégale.
Windows Recall, pour ceux qui auraient raté le début du film, c’est cette fonctionnalité qui prend des screenshots de tout ce que vous faites sur votre PC toutes les quelques secondes. Microsoft nous vend ça comme un outil de productivité pour “retrouver vos pas numériques”. Perso, j’appelle ça Big Brother qui s’installe direct dans votre bécane.
Face à ce délire orwellien, les développeurs des apps qu’on utilise pour justement protéger notre vie privée ont décidé de ne pas se laisser faire. Signal a ouvert le bal en mai dernier, et maintenant Brave et AdGuard viennent grossir les rangs de la résistance.
[...]
Cette fronde des développeurs montre bien que les inquiétudes autour de Recall sont légitimes et Microsoft a beau promettre monts et merveilles niveau sécurité, je pense que personne n’est dupe.
Bref, y’a vraiment un sérieux problème avec ce truc…
Microsoft vient littéralement d’avouer devant le Sénat français qu’ils ne pouvaient PAS garantir que nos données restent bien chez nous. Et cela sous serment devant nos sénateurs probablement en pleine digestion.
Et on fait quoi ? Et bah RIEN.
C’était le 18 juin dernier, qu’Anton Carniaux, directeur des affaires publiques et juridiques de Microsoft France, a été auditionné par la commission d’enquête sénatoriale sur la commande publique. La question était simple : “Pouvez-vous nous garantir, sous serment, que les données des citoyens français ne peuvent pas être transmises au gouvernement américain sans l’accord explicite du gouvernement français ?”
Sa réponse ?
“Non, je ne peux pas le garantir.” BOUM. Voilà. C’est dit. Mais bon, apparemment à par moi, ça ne dérange personne.
Le Cloud Act, cette loi américaine de 2018, donne en effet le pouvoir au gouvernement US de récupérer TOUTES les données stockées par des entreprises américaines. Peu importe où elles sont physiquement.
Vos données médicales chez Microsoft Azure en France ? Les Américains peuvent les demander. Vos documents administratifs sensibles ? C’est pareil. Vos secrets industriels ? Allez, cadeau ! Et le pire dans tout ça c’est qu’on le sait depuis des années. Le Cloud Act est incompatible avec le RGPD européen puisque l’article 48 du RGPD dit clairement qu’aucune décision d’une juridiction étrangère ne peut forcer le transfert de données sans accord international. Mais le Cloud Act s’en tape royalement.
Et pendant ce temps, qu’est-ce qu’on fait en France ? Et bien on signe des contrats à 74 millions d’euros avec Microsoft pour l’Éducation nationale. On leur confie les données de santé des Français via le Health Data Hub. On migre nos administrations sur Microsoft 365. C’est du suicide de nos données personnelles, purement et simplement.
Parfois, quand tu vas sur certains sites, tu as l'impression qu'il y a une capture d'écran qui a été faite.
Mince ! Surveillance de masse partout, que j'aille sans smartphone dans un magasin ou en randonnée.
Vous pouvez utiliser ChatGPT pour rédiger des courriels ou demander des conseils de vie. Mais sachez que ces conversations personnelles ne bénéficient d'aucune protection juridique.
Le PDG d'OpenAI, Sam Altmana confirmé que l'entreprise pourrait être obligée de divulguer vos conversations dans le cadre d'un procès.
[...]
Le problème, souligne M. Altman, est l'absence de privilège juridique. Lorsque vous parlez à un médecin, à un avocat ou à un thérapeute, ces conversations sont protégées par des lois sur la confidentialité.
Cette même protection ne s'applique pas actuellement à vos interactions avec une IA. "Si vous parlez à ChatGPT de vos affaires les plus sensibles et qu'il y a ensuite un procès, nous pourrions être obligés de les produire", a déclaré M. Altman.
Cela crée ce que M. Altman appelle un "énorme problème" Vous pensez peut-être que vos discussions sont privées, mais il est possible d'y accéder par le biais de requêtes juridiques.
[...]
En attendant que la loi rattrape la technologie, l'essentiel est de faire attention à ce que vous partagez. Il n'existe actuellement aucune garantie légale que vos conversations privées avec une IA resteront privées.