Traduit de l'anglais à l'aide de l'IA
Veuillez noter que cet article a été traduit à l'aide de la technologie IA. Bien que nous travaillions à maintenir l'exactitude, certains détails peuvent ne pas refléter parfaitement le texte original. Si vous avez des doutes sur une information, veuillez vous référer à la version anglaise.
Comment Contentsquare recrée-t-il les pages de votre site ?
Contentsquare utilise nos CS Scrapers pour collecter et sauvegarder les ressources statiques de votre site comme les fichiers CSS et les images ainsi que le HTML de vos pages. Cela vous permet de analyser les recréations de vos pages de site exactement comme vos utilisateurs les ont vécues en utilisant Contentsquare—même après avoir apporté des modifications à cette même page de site, vous pouvez analyser rétroactivement l'expérience utilisateur sans avoir à envoyer de demandes supplémentaires à vos serveurs.
Il existe deux fonctionnalités principales de Contentsquare qui s'appuient sur les CS Scrapers pour recréer vos pages de site :
Comment fonctionnent les CS Scrapers ?
Dès que la collecte de données est déclenchée, les CS Scrapers analysent toutes les URL d'une page de site pour rassembler tous les CSS, images de polices, HTML et ressources pour cette page, les télécharger et les stocker.
Il existe deux CS Scrapers :
- Scraper de relecture de session
Le Scraper de relecture de session télécharge les ressources statiques lors de la collecte d'une session.
Lorsqu'une session est collectée pour la Relecture de session, le Tag envoie un événement contenant les URL des ressources statiques aux serveurs CS. Ensuite, les URL sont chacune vérifiées pour s'assurer que les ressources correspondantes ont été extraites au cours des 6 dernières heures. Si ce n'est pas le cas, les ressources sont alors extraites et stockées.
- Scraper d'analyse de zonage
Ce scraper fonctionne à la demande : il télécharge les ressources statiques chaque fois que vous prenez des instantanés de vos pages de site dans l'Analyse de zonage.
Comment les CS Scrapers sont-ils autorisés ?
Vos administrateurs IT/Sécurité autorisent les CS Scrapers lors de votre processus d'implémentation de Contentsquare. Consultez la liste blanche des CS Scrapers ici.
Une liste blanche est une liste de sécurité qui accorde l'accès au réseau uniquement à des adresses IP spécifiques, tandis que les autres se voient refuser l'accès. L'ajout des CS Scrapers à la liste blanche aide à garantir que les pages de votre site s'affichent complètement et correctement dans l'analyse de Zoning et que la collecte de données reste cohérente dans le temps. Cela garantit votre capacité à analyser les pages de votre site en utilisant Contentsquare même après l'expiration de vos ressources statiques.
Que faire si les CS Scrapers ne fonctionnent pas ?
Dans certains cas, le téléchargement de ressources statiques peut être bloqué par votre serveur/pare-feu, pour des raisons de sécurité. Cela pourrait causer des problèmes d'affichage correct des Zonings ou des replays de session.
Veuillez utiliser cet article pour aider l'analyse de Zoning / le replay de session à fonctionner avec votre site unique.
FAQs
Est-il possible de désactiver les CS Scrapers ?
Oui, nous pouvons empêcher les CS Scrapers de récupérer des ressources statiques. Si vous choisissez de désactiver les scrapers, Contentsquare va s'appuyer sur vos ressources en direct, ce qui pourrait entraîner des ressources incohérentes ou indisponibles dans l'analyse de Zoning et le replay de session.
Les problèmes liés à la recréation précise des pages de site dans le replay de session/l'analyse de Zoning peuvent-ils être résolus ?
Oui, la plupart des problèmes peuvent être résolus à moins que notre technologie ait été mise sur liste noire par votre serveur.
-
Dans certains cas, les sites mobiles ne permettront pas aux CS Scrapers de fonctionner car nous utilisons un user_agent non mobile. Si les serveurs sont configurés pour refuser les requêtes non mobiles, notre technologie ne fonctionnera pas.
-
Si une ressource, par exemple une photo de profil, nécessite qu'un utilisateur du site soit connecté pour s'afficher, les scrapers peuvent ne pas être en mesure d'y accéder. Nous recommandons d'analyser des pages comme celle-ci dans CS Live.
- Pour tout autre problème, vous pouvez utiliser cet article pour résoudre les problèmes ou créer un ticket de support.
Que faire si mes services informatiques m'alertent lorsque Contentsquare effectue une requête serveur ?
Nos requêtes sont légales et ne devraient pas impacter vos serveurs. Il y a une limite de 6 requêtes/seconde et l'utilisation de l'un des processus d'octroi d'accès garantit la sécurité des données.
Que faire s'il y a une requête échouée ?
Il est normal que les requêtes échouent s'il y a une erreur de serveur ou une erreur connexe. Par exemple, si les CS Scrapers essaient d'accéder à une ressource qui nécessite d'être connecté (par exemple, erreur 403) ou si un bloqueur non mobile est configuré côté client pour les sites mobiles ou si les serveurs bloquent Contentsquare en raison du volume de requêtes.