
On a surtout appris à regarder l’IA comme une machine à écrire plus vite, résumer plus vite ou produire plus vite. Cette semaine, Google essaie de la montrer autrement : comme un outil de défense très concret contre les arnaques et les pubs frauduleuses. L’AP résume le basculement d’une phrase simple : la même accélération qui aide les escrocs à produire plus de faux contenus permet aussi à Google d’en bloquer massivement davantage.
Dans son billet officiel, Google avance des chiffres très lisibles : plus de 99 % des publicités contraires à ses règles ont été stoppées avant même leur diffusion en 2025, avec plus de 8,3 milliards d’annonces bloquées ou supprimées et 24,9 millions de comptes suspendus.
Le vrai sujet n’est pas l’IA qui écrit, mais l’IA qui arrête à la porte
Le détail qui accroche tout de suite, c’est l’échelle de la bataille. Le rapport PDF précise que 602 millions de ces annonces étaient liées à des violations associées aux scams, et que plus de 4 millions de comptes suspendus relevaient d’activités frauduleuses. On ne parle donc plus d’un outil de modération symbolique. On parle d’une guerre industrielle contre des volumes devenus absurdes.
Google explique aussi comment Gemini travaille : l’IA trie des centaines de milliards de signaux, de l’âge d’un compte aux comportements de campagne, pour mieux distinguer une activité légitime d’une intention malveillante. L’AP ajoute que cette analyse, qui prenait parfois des secondes ou davantage, peut maintenant se faire en millisecondes. C’est là que l’usage devient enfin très concret : arrêter la fraude avant qu’elle n’atteigne l’écran.

Le groupe insiste d’ailleurs sur ses couches de vérification. Le programme officiel d’advertiser verification impose aux annonceurs des tâches d’identification et d’explication sur leur organisation, tandis que le Transparency Report sert à rendre plus visibles les politiques et les actions appliquées au fil du temps.
Ce que ces milliards disent surtout du niveau de menace ordinaire
Si le sujet ouvre autant, c’est parce qu’il touche au scam le plus banal du web : faux placements, fausses célébrités, faux remèdes, faux services, faux cadeaux. L’FBI rappelle que son rapport 2025 a recensé plus de 22 000 plaintes liées à des scams faisant référence à l’IA, pour 893 millions de dollars de pertes. Le danger n’est pas théorique. Il s’incruste dans les gestes les plus quotidiens de navigation. — à lire aussi : TSMC file vers un nouveau record, mais le vrai sujet n’est pas la Bourse : c’est….
Google souligne aussi un effet moins visible mais utile : l’amélioration du tri réduit les fausses suspensions. Selon le billet officiel et le rapport, les suspensions erronées d’annonceurs ont reculé de 80 %. Autrement dit, l’IA ne sert pas seulement à frapper plus fort. Elle sert aussi à faire moins de dégâts collatéraux sur les acteurs légitimes.

Voilà pourquoi ce dossier parle au grand public bien plus qu’une démo de génération de texte. Il montre un usage défensif très banal et très compréhensible : empêcher qu’une arnaque déguisée en pub n’arrive jusqu’à vous. Quand l’IA sert à ça, elle cesse un peu d’être une promesse floue. Elle devient un portique de sécurité au milieu du bruit numérique ordinaire.
Article créé en collaboration avec l’IA.





