jeudi, août 14

Une étude récente a révélé que 90 % des sources citées par les intelligences artificielles se trouvent en dehors des premières positions de Google et Bing. Ce constat interroge les fondamentaux des systèmes de recherche sur et pose des questions sur la fiabilité des réponses fournies par ces technologies émergentes. Les implications de cette étude sont vastes, touchant à la fois les utilisateurs, les développeurs d’, ainsi que les entreprises qui s’appuient sur le pour leur visibilité en ligne.

Les résultats frappants de l’étude Ahrefs sur les sources des IA

L’étude menée par Ahrefs, un expert en analyse SEO, a porté sur l’examen des sources citées par certaines des plus populaires intelligences artificielles, telles que ChatGPT, Gemini, Perplexity AI et Copilot. Pour ce faire, les chercheurs ont analysé 15 000 requêtes longues, allant des questions pratiques à des informations nutritionnelles en passant par des demandes multilingues.

Les résultats ont mis en lumière un écarts considérable entre les citations des IA et les résultats des moteurs de recherche traditionnels. En effet, seulement 11 % des liens référencés par ces systèmes d’IA apparaissent dans le top 10 des résultats de recherche de Google et Bing. Plus précisément, ce chiffre est de 11,9 % pour Google et tombe à 10 % pour Bing, laissant environ 80 % des citations sans aucune présence dans les résultats de recherche.

Pourquoi un tel désalignement ?

La divergence entre les sources des IA et celles des moteurs de recherche résulte d’une différence méthodologique significative. Alors que Google et Bing tendent à renvoyer vers des pages qui coïncident exactement avec la requête formulée par l’utilisateur, les IA adoptent un processus de sélection beaucoup plus complexe, basé sur des techniques de query fan-out. Ce procédé consiste à générer une multitude de variantes d’une même question. Par exemple, pour une requête telle que « comment détartrer une machine à café », l’IA pourrait aussi explorer des expressions comme « nettoyer une Nespresso » ou « enlever le calcaire d’une cafetière ».

Cette approche, bien que potentiellement pratique, a des implications sur la pertinence des réponses fournies. Elle peut amener les intelligences artificielles à recommander des contenus qui n’ont pas nécessairement été optimisés pour les demandes originales, accentuant ainsi le risque de diffuser des informations erronées ou peu fiables. En conséquence, cela souligne l’importance pour les utilisateurs d’évaluer avec prudence les sources recommandées par ces systèmes d’IA.

Vous aimerez aussi :  L'intelligence artificielle peut-elle surpasser les pentesters humains ?

Perplexity AI : un cas à part

Dans ce paysage, Perplexity AI se distingue en offrant un meilleur alignement avec les résultats de recherche de Google, avec près de 28,6 % des pages citées par l’IA apparaissant dans le top 10 de Google. Ceci est dû à sa conception même, qui intègre de manière systématique des liens vers les sources, ce que beaucoup d’autres IA ne font pas.

En revanche, ChatGPT et Gemini se retrouvent souvent à la traîne, ne systématisant pas la recherche de sources externes. Par exemple, ChatGPT dispose d’un mécanisme interne, le sonic classifier, qui détermine quand il est approprié d’effectuer une recherche externe en fonction de la prévisibilité des réponses. Cela peut entraîner des lacunes dans la véracité des informations fournies.

Les conséquences pour le SEO et les entreprises

Ces découvertes ont des répercussions significatives sur le référencement naturel (SEO) et la stratégie de contenu des entreprises. Dans un monde où les intelligences artificielles influencent fortement la manière dont les utilisateurs accèdent à l’information, il est essentiel pour les entreprises de considérer des méthodes de référencement différentes. Compter uniquement sur une optimisation pour des requêtes précises pourrait mener à un manquement de visibilité dans les systèmes d’IA.

Les entreprises doivent donc se concentrer sur des clusters thématiques, c’est-à-dire travailler sur un ensemble de sujets interconnectés et des variations de requêtes longues. Cette approche élargie augmente les chances d’apparaître dans plusieurs formulations, même si elles ne sont pas optimisées pour le top 10 des moteurs de recherche.

Évolutions possibles et ajustements stratégiques

Une telle reconfiguration des stratégies SEO nécessite une compréhension des logiques derrière le fonctionnement des IA et des moteurs de recherche. En intégrant les nouvelles données du comportement des utilisateurs, les entreprises doivent également prendre en compte l’évolution des outils développés par des géants tels que , qui a une influence majeure sur le développement des IA à travers des plateformes comme Copilot.

Vous aimerez aussi :  Choc sur Google TV : de nombreux canaux gratuits supprimés ! Découvrez ce qui a changé

Au fur et à mesure que les technologies continuent de progresser, les liens entre les intelligences artificielles et les moteurs de recherche seront probablement amenés à se renforcer. Par conséquent, la connaissance des et des changements d’ sera cruciale pour garantir que le contenu d’une entreprise reste visible et pertinent dans un paysage en constante évolution.

Une directive pour les éditeurs et créateurs de contenu

Pour les rédacteurs et créateurs de contenu, cela implique d’être proactif en termes de recherche et de création d’informations de qualité. Répondre à des questions ciblées et diverses, et non seulement à des formulations standards, pourrait être essentiel pour capter l’attention des IA.

  • Utiliser des mots-clés variés pour attirer un éventail plus large de requêtes.
  • Créer des contenus diversifiés qui répondent à des questions pratiques et thématiques.
  • Veiller à l’actualisation des informations afin d’augmenter les chances d’être cité dans des réponses IA.

Les enjeux de la véracité des informations

Avec la montée en puissance des IA, la question de la véracité des informations fournies a pris une nouvelle dimension. Les résultats de l’étude mettent en avant le risque d’informations erronées grâce aux systèmes d’IA. Les conséquences de cette problématique sont multiples. Les utilisateurs pourraient se méprendre sur des sujets importants, et les entreprises pourraient voir leur réputation en jeu si leurs contenus sont relayés de manière inexacte ou biaisée.

Il est donc primordial de veiller à ce que les systèmes d’IA soient entraînés sur des bases de données riches et diversifiées, qui incluent des contenus validés par des experts de chaque domaine. Cela permettrait de réduire le taux d’erreur dans les réponses, actuellement supérieur à 60 % dans de nombreux cas en ce qui concerne les , selon une étude du Tow Center for Digital Journalism.

Les solutions potentielles à une crise de confiance

Pour rétablir la confiance dans les intelligences artificielles, il est essentiel qu’une part de la responsabilité soit attribuée aux concepteurs et opérateurs des systèmes. Cela peut impliquer :

  • Une transparence accrue sur les bases d’entraînement des IA.
  • Une éducation des utilisateurs sur la façon dont les IA fonctionnent et sur les limites de leurs réponses.
  • Une validation par des experts des contenus générés.
Vous aimerez aussi :  La fiabilité des détecteurs de textes générés par l'intelligence artificielle

Ces mesures sont essentielles pour s’assurer que les utilisateurs ne soient pas trompés par de fausses informations, renforçant ainsi une utilisation plus responsable et éclairée des technologies d’.

La direction vers laquelle se dirige l’intelligence artificielle en

Alors que nous avançons vers 2025, le paysage des intelligences artificielles et des moteurs de recherche continuera d’évoluer. Les données montrent déjà une utilisation croissante de ces technologies, notamment parmi les jeunes adultes, où plus de 90 % d’entre eux exploitent des systèmes d’IA dans leur vie quotidienne. Il devient impératif que les entreprises et les créateurs de contenu saisissent cette opportunité et s’adaptent aux nouvelles réalités du numérique.

De plus, la révolution des IA ne cesse de questionner les méthodes traditionnelles de recherche et de traitement de l’information. Avec des critiques croissantes sur la fiabilité des informations, il est essentiel de continuer à évaluer et à réformer ces systèmes en vue d’une plus grande précision dans le traitement des données.

YouTube video

Les implications pour les moteurs de recherche

Pour les moteurs de recherche tels que Google et Bing, cela implique une course pour intégrer des technologies d’IA dans leurs processus afin de rester compétitifs face aux nouvelles propositions de valeur offertes par des systèmes comme Perplexity AI. Les utilisateurs, de leur côté, doivent naviguer dans ce nouvel environnement avec un sens critique affûté.

En somme, alors que l’IA prend une place prépondérante dans le fonctionnement du web, il est impératif de rester vigilant sur les sources d’information, la véracité des contenus, et l’impact de ces technologies sur notre manière de nous informer.

Share.

Bonjour, je m'appelle Manu Dibango et j'ai 37 ans. Cadre supérieur dans l'administration, je suis passionné par la gestion et l'organisation. Bienvenue sur Camernews où je partage ma veille sur les nouvelles technologies et l'innovation.

Leave A Reply