Le référencement est décédé mille fois seulement cette année, et le mot à la mode qui résonne à travers chaque salle de conférence (et soyons honnêtes, partout ailleurs) est «AI».

Avec Google qui publie plusieurs vues alimentées par l’IA au cours de la dernière année et demie, ainsi que la dernière interprétation de son propre mode IA de recherche de recherche, nous assistons à une érosion du trafic qui est très difficile à contrer si nous restons coincés dans notre vision traditionnelle de notre rôle de professionnels de la recherche.

Et il est naturel que le débat que nous continuons à entendre soit le même: l’IA finira-t-elle finalement prendre notre emploi? Dans un sens plus strict, il le fera probablement.

Le référencement, tel que nous le connaissons, s’est transformé radicalement. Il continuera à évoluer, obligera les gens à acquérir de nouvelles compétences et à avoir une stratégie multicanal plus large, ainsi qu’une communication claire et rapide aux parties prenantes qui pourraient encore être confondues sur les raisons pour lesquelles les clics continuent de chuter tandis que les impressions restent les mêmes.

L’année suivante devrait apporter des changements et probablement quelques réponses à ce débat.

Mais en attendant, j’ai pu tirer certaines prévisions, en fonction de ma propre étude enquêtant sur la capacité des humains à discerner l’IA, pour voir si la «touche humaine» a vraiment un avantage sur elle.

Pourquoi cela compte pour nous maintenant

Savoir si les gens peuvent reconnaître les questions de l’IA pour nous parce que le comportement des gens change quand ils savent qu’ils interagissent avec lui, par rapport à ce qu’ils ne le font pas.

Une étude en 2023 de Yunhao Zhang et Renée Richardson Gosline a comparé le contenu créé par les approches humaines, l’IA et les approches hybrides pour la copie marketing et les campagnes persuasives.

Ce qu’ils ont remarqué, c’est que lorsque la source n’était pas divulguée, les participants ont préféré le contenu généré par l’AI, un résultat qui a été inversé lorsqu’ils savaient comment le contenu a été créé.

C’est comme si la transparence de l’utilisation de l’IA a ajouté une couche de méfiance à l’interaction, enracinée dans la méfiance commune qui est réservée à toute expérience nouvelle et relativement inconnue.

En fin de compte, nous avons consommé un contenu écrit sur l’homme depuis des siècles, mais l’IA générative n’a été mise à l’échelle qu’au cours des dernières années, donc ce n’était même pas un défi auquel nous avons été exposés auparavant.

De même, Gabriele Pizzi de l’Université de Bologne a montré que lorsque les gens interagissent avec un chatbot d’IA dans un environnement d’achat simulé, ils sont plus susceptibles de considérer l’agent comme compétent (et, à son tour, de lui faire confiance avec leurs informations personnelles) lorsque ce dernier a l’air plus humain par rapport à «robotique».

Et en tant que spécialistes du marketing, nous savons que la confiance est le sceau ultime non seulement pour obtenir une visite et une transaction, mais aussi pour former une relation durable avec l’utilisateur derrière l’écran.

Donc, si la reconnaissance du contenu d’IA change la façon dont nous interagissons avec elle et prenons des décisions, conservons-nous toujours l’avantage humain lorsque le matériel d’IA se rapproche si près de la réalité qu’il est pratiquement indiscernable?

Votre cerveau peut discriminer l’IA, mais cela ne signifie pas que nous sommes des détecteurs infaillibles

Des études antérieures ont montré que les humains affichent un sentiment d’inconfort, connu sous le nom d’inconnancy Valley, lorsqu’ils voient ou interagissent avec une entité artificielle avec des caractéristiques semi-réalistes.

C’est une mesure de leur «sentiment intestinal» envers un stimulus qui imite les caractéristiques humaines, mais ne réussit pas à le faire entièrement.

Le phénomène de l’étrange vallée provient du fait que notre cerveau, habitué à prédire les modèles et à remplir les blancs en fonction de notre propre expérience, considère ces stimuli comme des «pépins» et les repère comme des valeurs aberrantes dans notre bibliothèque connue de visages, de corps et d’expressions.

L’écart par rapport à la norme et l’incertitude dans le marquage de ces stimuli «étranges» peut être déclenché d’une perspective cognitive, qui se manifeste dans une activité électrodermique plus élevée (raccourcie en EDA), une mesure de l’excitation psychologique qui peut être mesurée avec des électrodes sur la peau.

Sur la base de ces preuves, il est réaliste de supposer que notre cerveau peut repérer l’IA avant de faire une discrimination active, et que nous pouvons voir une EDA plus élevée par rapport aux visages générés avec l’IA, surtout lorsqu’il y a quelque chose de «désactivé» à leur sujet.

Il n’est pas clair, cependant, à quel niveau de réalisme nous cessons d’afficher une réponse distinctive, donc je voulais le découvrir avec mes propres recherches.

Voici les questions que je mets pour répondre avec mon étude:

  1. Avons-nous un système de «détecteur» préconscient intégré pour l’IA, et à quel moment d’imitation réaliste cesse-t-elle de répondre?
  2. Si nous le faisons, guide-t-il notre discrimination active entre l’IA et le contenu humain?
  3. Notre capacité à discriminer la discrimination influencée par notre exposition globale aux stimuli de l’IA dans la vie réelle?

Et surtout, l’une des réponses à ces questions peut-elle prédire quels sont les prochains défis que nous sommes confrontés à la recherche et au marketing?

Pour répondre à ces questions, j’ai mesuré l’activité électrodermique de 24 participants entre 25 et 65 ans, car ils ont été présentés avec des images neutres, générées par l’IA-AI et générées par l’homme, et j’ai vérifié toutes les différences significatives dans les réponses à chaque catégorie.

Mon étude s’est déroulée en trois phases, une pour chaque question que j’avais:

  1. Une première tâche où les participants ont visualisé les stimuli statiques neutres, IA et humains sur un écran sans aucune action nécessaire, tandis que leur activité électrodermique a été enregistrée. Cela était destiné à mesurer la réponse automatique et préconscient aux stimuli présentés.
  2. Une deuxième tâche comportementale, où les participants ont dû appuyer sur un bouton pour classer les visages qu’ils avaient vus en Ai- par rapport à la génération de l’homme, aussi rapidement et avec précision qu’ils le pouvaient, pour mesurer leurs compétences de discrimination consciente.
  3. Une phase finale où les participants ont déclaré leur gamme démographique et leur familiarité avec l’IA à une échelle autodéclarée sur cinq questions. Cela m’a donné un score d’autodéclamation pour chaque participant que je pouvais être en corrélation avec toutes les autres mesures obtenues à partir des tâches physiologiques et comportementales.

Et voici ce que j’ai trouvé:

  • Les participants ont montré une différence significative dans l’activation pré-conscient entre les conditions, et en particulier, l’EDA était significativement plus élevée pour les visages humains plutôt que pour les visages d’IA (les faces hyper-réalistes et CGI). Cela soutiendrait l’hypothèse selon laquelle notre cerveau peut faire la différence entre l’IA et les visages humains avant même de lancer une tâche de discrimination.
  • L’activation plus élevée pour les visages humains contraste avec la littérature plus ancienne montrant une activation plus élevée pour les stimuli de la vallée étrange, et cela pourrait être lié à notre propre accoutumance aux visuels CGI (ce qui signifie qu’ils ne déclenchent plus de valeurs aberrantes), soit à l’effort cognitif automatique impliqué dans la tentative d’extrapoler l’émotion des visages neutres humains. En fait, la limitation de l’EDA est qu’elle nous dit que quelque chose se passe dans notre système nerveux, mais cela ne nous dit pas quoi: une activité plus élevée pourrait être liée à la familiarité et à la préférence, aux états émotionnels négatifs, ni même à un effort cognitif, donc plus de recherches à ce sujet sont nécessaires.
  • L’exposition et la familiarité avec les matériaux d’IA étaient en corrélation avec une précision plus élevée lorsque les participants ont dû catégoriser activement les faces en AI générée par l’AI, soutenant l’hypothèse que plus nous sommes exposés à l’IA, mieux nous devenons à repérer des différences subtiles.
  • Les gens étaient beaucoup plus rapides et précis dans la catégorisation des stimuli de la nature de la «vallée étrange» dans le seau généré par l’IA, mais ont lutté avec des visages hyper-réalistes, les faisant défaut comme des visages humains dans 22% des cas.
  • La discrimination active n’a pas été guidée par l’activation pré-conscience. Bien qu’une différence d’activité autonome puisse être observée pour l’IA et les visages humains, cela n’était pas en corrélation avec la vitesse ou les participants précis. En fait, on peut affirmer que les participants ont «subi» leur propre instinct lorsqu’ils savaient qu’ils devaient faire un choix.

Et pourtant, le plus grand résultat de tous a été quelque chose que j’ai remarqué sur le pilote que j’ai dirigé avant la vraie étude: lorsque le participant est familier avec la marque ou le produit présenté, c’est ce qu’ils pensent qui guide ce que nous voyons au niveau neuronal, plutôt que la réponse automatique à l’image présentée.

Ainsi, alors que notre cerveau peut techniquement «faire la différence», nos émotions, notre familiarité avec la marque, le message et les attentes sont tous des facteurs qui peuvent fortement fausser notre propre attitude et notre propre comportement, ce qui rend essentiellement notre discrimination (automatique ou non) presque hors de propos dans la cascade des évaluations que nous faisons.

Cela a des implications massives non seulement dans la façon dont nous conservons notre public existant, mais aussi dans la façon dont nous abordons les nouveaux.

Nous sommes maintenant à un stade où comprendre ce que notre utilisateur veut au-delà de la requête immédiate est encore plus vital, et nous avons un avantage concurrentiel si nous pouvons identifier tout cela avant d’exprimer explicitement leurs besoins.

La route vers la survie ne sort pas du jeu. C’est apprendre les nouvelles règles à jouer

Alors, le marketing a-t-il encore besoin de vraies personnes?

C’est certainement le cas, bien qu’il soit difficile de voir maintenant que chaque entreprise est enflammée par la peur de manquer la grande opportunité de l’IA et distrait par de nouveaux objets brillants peuplant le Web chaque jour.

Les humains prospèrent sur le changement – c’est ainsi que nous apprenons et développez de nouvelles connexions et associations qui nous aident à nous adapter à de nouveaux environnements et processus.

Avez-vous déjà entendu parler du mot neuroplasticité? Bien que cela puisse ressembler à un terme sophistiqué pour l’apprentissage, c’est littéralement la capacité de votre cerveau à se remédier à la suite de l’expérience.

C’est pourquoi je pense que l’IA ne prendra pas notre emploi. Nous nous concentrons sur les progrès rapides de l’IA dans la capacité d’ingérer du contenu et de recréer des résultats qui sont pratiquement indiscernables du nôtre, mais nous ne faisons pas attention à notre propre pouvoir d’évolution de ce nouveau domaine de niveau.

L’IA continuera de bouger, mais l’aiguille de notre discernement et de notre comportement envers elle aussi, sur la base des expériences que nous construisons avec de nouveaux processus et de nouveaux matériaux.

Mes résultats indiquent déjà comment la familiarité avec l’IA joue un rôle dans la façon dont nous sommes bons pour le reconnaître, et dans un an, même les résultats de l’EDA pourraient changer en fonction d’une exposition progressive.

Notre scepticisme et notre méfiance vers l’IA sont enracinés dans les côtés inconnus, associés à une grande partie de l’utilisation abusive que nous avons considérée comme un sous-produit d’une croissance rapide et pratiquement non réglementée.

La nature de nos prochaines interactions avec l’IA façonnera notre comportement.

Je pense que c’est notre opportunité en tant qu’industrie de créer des expériences précieuses alimentées par l’IA sans sacrifier la qualité de notre travail, nos responsabilités éthiques envers l’utilisateur et notre relation avec eux. C’est un processus plus lent, mais il vaut la peine d’être entrepris.

Donc, même si, au début, j’ai abordé cette étude en tant qu’homme contre la confrontation de la machine, je crois que nous nous dirigeons vers l’homme et l’ère de la machine.

Loin de l’approche «Utiliser l’IA pour tout» que nous avons tendance à voir autour, ci-dessous une ventilation de l’endroit où je vois une intégration (supervisée) de l’IA à notre travail sans problème, et où je pense qu’il n’a toujours pas d’espace dans son état actuel.

Utilisation: Tout ce qui fournit des informations, facilite la navigation et rationalise les voyages d’utilisateurs

  • Par exemple, tester des descriptions de produits basées sur les fonctionnalités qui résident déjà dans le catalogue ou fournissant des résumés des avis des utilisateurs réels qui mettent immédiatement les avantages et les inconvénients.
  • Try-ons virtuels et permettant des produits recommandés en fonction de la similitude.
  • L’automatisation des processus tels que l’identification des opportunités de liens internes, la catégorisation de l’intention et la combinaison de plusieurs sources de données pour de meilleures informations.

Éviter: tout ce qui est basé sur l’établissement d’une connexion ou la persuasion de l’utilisateur

  • Cela comprend tout contenu qui simule l’expertise et l’autorité dans le domaine. La technologie actuelle (et le manque de réglementation) permet même aux influenceurs de l’IA, mais gardez à l’esprit que votre authenticité de la marque est toujours votre plus grand atout à préserver lorsque l’utilisateur cherche à se convertir. Les pièges de les tromper lorsqu’ils s’attendent à ce que le contenu organique soit plus que de perdre un clic. C’est le travail que vous ne pouvez pas automatiser.
  • De même, générer des avis ou un contenu généré par l’utilisateur à grande échelle pour transmettre la légitimité ou la valeur. Si vous savez ce sur quoi vos utilisateurs veulent obtenir plus d’informations, vous ne pouvez pas répondre à leurs doutes avec de faux arguments. Les tactiques de jeu sont de courte durée dans le marketing parce que les gens apprennent à discerner et à les éviter activement une fois qu’ils se rendent compte qu’ils sont trompés. Les humains recherchent l’authenticité et la véritable validation des pairs de leurs décisions car cela les fait se sentir en sécurité. Si jamais nous atteignons un point où, en tant que collectif, nous pensons que nous pouvons faire confiance à l’IA, alors cela pourrait être différent, mais cela ne se produira pas lorsque la majeure partie de son utilisation actuelle est consacrée au fait de faire entrer les utilisateurs dans une transaction à tout prix, plutôt que de fournir les informations nécessaires dont ils ont besoin pour prendre une décision éclairée.
  • Remplacement des experts et du contrôle de la qualité. S’il se retourna contre Duolingo préféré des clients, il se retournera probablement pour vous aussi.

Les nouveaux objectifs que nous devrions fixer

Voici où commence un nouveau voyage pour nous.

Le comportement de recherche collectif a déjà changé non seulement en raison de toute vue alimentée par l’IA sur le SERP qui rend notre consommation d’informations et de prise de décision plus rapidement et plus facile, mais aussi en fonction de l’introduction de nouveaux canaux et formes de contenu (la révolution «recherche partout» dont nous entendons tout maintenant).

Cela nous amène à de nouveaux objectifs en tant que professionnels de la recherche:

  • Être omniprésent: Il est maintenant temps de travailler avec d’autres canaux pour améliorer la notoriété de la marque organique et être dans l’esprit de l’utilisateur à chaque étape du voyage.
  • Supprimer la friction: Maintenant que nous pouvons obtenir des réponses dès la page de résultats du moteur de recherche sans même cliquer pour explorer plus, la vitesse est la nouvelle normale, et tout ce qui rend le voyage plus lent est un risque d’abandon. Faire directement à vos clients ce qu’ils veulent directement (être transparent avec votre offre, supprimer des étapes inutiles pour trouver des informations et améliorer l’expérience utilisateur pour effectuer une action) les empêche de chercher de meilleurs résultats de concurrents.
  • Préservez votre authenticité: Les utilisateurs veulent vous faire confiance et se sentir en sécurité dans leurs choix, alors ne tombez pas dans le battage médiatique de l’évolutivité qui pourrait nuire à votre marque.
  • Apprenez à connaître vos clients plus profondément: Les données de mots clés ne suffisent plus. Nous devons connaître leurs états émotionnels lorsqu’ils recherchent, quelles sont leurs frustrations et quels problèmes ils essaient de résoudre. Et surtout, ce qu’ils ressentent de notre marque, de notre produit et de ce qu’ils attendent de nous, afin que nous puissions vraiment les rencontrer là où ils se trouvent avant que mille autres options entrent en jeu.

Nous y sommes déjà allés. Nous allons s’adapter à nouveau. Et je pense que nous sortirons bien (peut-être même plus qualifiés) de l’autre côté du battage médiatique de l’IA.

Plus de ressources:


Image en vedette: Stock-Asso / Shutterstock