Google a apporté une modification à la façon dont ses résultats de recherche sont servis, ce qui aidera également à le sécuriser contre les bots et les grattoirs. Que cela aura un effet supplémentaire sur les outils de référence .
Contents
MISE À JOUR: SERPRECON
Selon un tweet:
« Bonnes nouvelles. Nous sommes en cours d’exécution. Merci de vous être accompagné.
SERPRECON permet aux utilisateurs de comparer les résultats de recherche avec les concurrents au fil du temps ainsi que les comparaisons des concurrents à l’aide de «vecteurs, d’apprentissage automatique et de traitement du langage naturel». Très probablement l’un des outils SEO les plus utiles disponibles et à un prix raisonnable également.
La recherche Google nécessite désormais JavaScript
Google a tranquillement mis à jour leur zone de recherche pour exiger que tous les utilisateurs, y compris les robots, aient allumé JavaScript lors de la recherche.
La surfer sur Google Search sans JavaScript a activé les résultats dans le message suivant:
Allumez JavaScript pour continuer à rechercher
Le navigateur que vous utilisez a JavaScript désactivé. Pour continuer votre recherche, allumez-le.
Capture d’écran de Google Search Javascript Message

Dans un e-mail à TechCrunch, un porte-parole de Google a partagé les détails suivants:
«L’activation de JavaScript nous permet de mieux protéger nos services et nos utilisateurs contre les robots et l’évolution des formes d’abus et de spam,… et de fournir les informations les plus pertinentes et les plus à jour.»
JavaScript permet peut-être la personnalisation dans l’expérience de recherche, ce que ce porte-parole peut signifier en fournissant les informations les plus pertinentes. Mais JavaScript peut également être utilisé pour bloquer les robots.
En utilisant la dernière version de Chrome, j’ai copié une partie du JavaScript via Chrome Dev Tools et je l’ai exécutée via Chatgpt pour demander ce qu’elle fait. Une partie de ça peut se rapporter à la restriction des demandes abusives de documents.
Capture d’écran des outils de développement chromés

Chatgpt m’a donné les commentaires suivants:
«Fonctionnalités de base
Génération de valeur randomisée (RDB)Génère une valeur aléatoire basée sur les propriétés (D_D, IDC et P4B) de l’objet d’entrée A, contrainte par P7D.
Cela peut être utilisé pour la limitation de taux, le revers exponentiel ou la logique similaire.But et contexte
De ses composants, le script:Gère probablement les tentatives de demande ou le contrôle d’accès pour les ressources Web.
Implémente un système d’application des politiques, où:
Les politiques déterminent si les demandes sont valides.
Les erreurs sont enregistrées et parfois retoursées en fonction des règles.
Des retards ou des limites randomisés peuvent contrôler le mécanisme de réessayer.
Semble optimisé pour la gestion des erreurs et la résilience dans les systèmes distribués ou à haut trafic, peut-être dans un service Google ou une API. «
Chatgpt a dit que le code peut Utilisez la limitation de taux qui est un moyen de limiter le nombre d’actions qu’un utilisateur ou un système peut prendre dans un délai précis.
Limitation de taux:
Utilisé pour appliquer une limite au nombre d’actions (par exemple, requêtes API), un utilisateur ou un système peut fonctionner dans un délai précis.
Dans ce code, les valeurs aléatoires générées par RDB pourraient être utilisées pour introduire une variabilité dans le moment où ou la fréquence des demandes sont autorisées, aidant à gérer efficacement le trafic.
Backoff exponentiel:
Chatgpt a expliqué que le revers exponentiel est un moyen de limiter la quantité de tentatives pour une action échouée qu’un utilisateur ou un système est autorisé à faire. La période de temps entre les tentatives pour une action échouée augmente de façon exponentielle.
Logique similaire:
ChatGPT a expliqué que la génération de valeur aléatoire pourrait être utilisée pour gérer l’accès aux ressources afin d’éviter les demandes abusives.
Semrush dit qu’il n’a jamais été affecté
Semrush a commenté une discussion LinkedIn selon laquelle un retard qui a été vu était dû à la maintenance et n’avait rien à voir avec les exigences JavaScript de Google.
Ils ont écrit:
«Salut Natalia Witczyk, le retard que vous avez vu hier était dû à la maintenance générale au sein de notre outil de suivi de position, nous ne rencontrons aucun problème lié à l’événement avec Google mais continuerons à surveiller la situation. Nous vous recommandons de rafraîchir votre projet, si vous rencontrez toujours des problèmes, veuillez nous envoyer un DM ou contacter notre soutien… »
Cela rendra-t-il les outils de référencement plus chers?
L’une des observations faites par les spécialistes du marketing de recherche sur les réseaux sociaux est que le traitement des blocs peut entraîner une augmentation des ressources pour ramper qui, à son tour, peut être transmise aux utilisateurs sous forme d’augmentation de taux.
Vahan Petrosyan, directeur de la technologie du Recherche Engine Journal observé:
« Strucing Google avec JavaScript nécessite plus de puissance de calcul. Vous avez souvent besoin d’un navigateur sans tête pour rendre des pages. Cela ajoute des étapes supplémentaires, et cela augmente les coûts d’hébergement. Le processus est également plus lent car vous devez attendre que JavaScript se charge. Google peut détecter cette activité plus facilement, il peut donc être plus difficile d’éviter les blocs. Ces facteurs le rendent coûteux et compliqué pour les outils de référencement pour simplement «activer» JavaScript ».