Traduit de l'anglais à l'aide de l'IA
Veuillez noter que cet article a été traduit à l'aide de la technologie IA. Bien que nous travaillions à maintenir l'exactitude, certains détails peuvent ne pas refléter parfaitement le texte original. Si vous avez des doutes sur une information, veuillez vous référer à la version anglaise.
Comment Contentsquare recrée-t-il les pages de votre site ?
Contentsquare utilise nos CS Scrapers pour collecter et enregistrer les ressources statiques de votre site comme le CSS et les fichiers image ainsi que le HTML de vos pages. Cela vous permet de analyser les recréations de vos pages de site exactement comme vos utilisateurs les ont vécues en utilisant Contentsquare—même après avoir apporté des modifications à cette même page de site, vous pouvez analyser rétroactivement l'expérience utilisateur sans avoir à envoyer de demandes supplémentaires à vos serveurs.
Il existe deux principales fonctionnalités de Contentsquare qui s'appuient sur les CS Scrapers pour recréer vos pages de site :
Comment fonctionnent les CS Scrapers ?
Dès que la collecte de données est déclenchée, les CS Scrapers analysent toutes les URL d'une page de site pour rassembler tous les CSS, images de polices, HTML et ressources, pour cette page, les télécharger et les stocker.
Il existe deux CS Scrapers :
- Scraper de révision de session
Le Scraper de révision de session télécharge les ressources statiques lors de la collecte d'une session.
Lorsqu'une session est collectée pour la révision de session, le Tag envoie un événement contenant les URL des ressources statiques aux serveurs CS. Ensuite, les URL sont chacune vérifiées pour s'assurer que les ressources correspondantes ont été extraites au cours des 6 dernières heures. Si ce n'est pas le cas, les ressources sont alors extraites et stockées.
- Scraper d'analyse de zoning
Ce scraper fonctionne à la demande : il télécharge des ressources statiques chaque fois que vous prenez des captures de vos pages de site dans l'analyse de zoning.

Comment les CS Scrapers sont-ils ajoutés à la liste blanche ?
Vos administrateurs IT/Sécurité ajoutent les CS Scrapers à la liste blanche pendant votre processus d'implémentation de Contentsquare. Voir la liste blanche des CS Scrapers ici.
Une liste blanche est une liste de sécurité qui accorde l'accès au réseau uniquement à des adresses IP spécifiques, tandis que le reste se voit refuser l'accès. L'ajout des CS Scrapers à la liste blanche aide à garantir que les pages de votre site s'affichent complètement et correctement dans le Zoning et le replay de session, et que la collecte de données reste cohérente dans le temps. Cela aide à garantir votre capacité à analyser les pages de votre site en utilisant Contentsquare même après l'expiration de vos ressources statiques.
Que faire si les CS Scrapers ne fonctionnent pas ?
Dans certains cas, le téléchargement de ressources statiques peut être bloqué par votre serveur/pare-feu, pour des raisons de sécurité. Cela pourrait causer des problèmes avec l'affichage correct des Zonings ou des replays de session.
Veuillez utiliser cet article pour aider l'analyse de Zoning / le replay de session à fonctionner avec votre site unique.
FAQ
Est-il possible de désactiver les CS Scrapers ?
Oui, nous pouvons empêcher les CS Scrapers de récupérer des ressources statiques. Si vous choisissez de désactiver les scrapers, Contentsquare va s'appuyer sur vos ressources en direct, ce qui pourrait entraîner des ressources incohérentes ou indisponibles dans l'analyse de Zoning et le replay de session.
Les problèmes liés à la recréation précise des pages du site dans la révision de session / l'analyse de zoning peuvent-ils être résolus ?
Oui, la plupart des problèmes peuvent être résolus à moins que notre technologie ne soit blacklistée sur votre serveur.
-
Dans certains cas, les sites mobiles ne permettront pas aux scrapers de CS de fonctionner car nous utilisons un user_agent non mobile. Si les serveurs sont configurés pour refuser les requêtes non mobiles, notre technologie ne fonctionnera pas.
-
Si une ressource, par ex. une photo de profil, nécessite qu'un utilisateur du site soit connecté pour s'afficher, les scrapers peuvent ne pas être en mesure d'y accéder. Nous recommandons d'analyser des pages comme celle-ci dans CS Live.
- Pour tout autre problème, vous pouvez utiliser cet article pour dépanner ou créer un ticket de support.
Que faire si mes services informatiques m'alertent lorsque Contentsquare effectue une requête serveur ?
Nos requêtes sont légales et ne devraient pas impacter vos serveurs. Il y a une limite de 6 requêtes/seconde et l'utilisation de l'un des processus d'octroi d'accès garantit la sécurité des données.
Que faire s'il y a une requête échouée ?
Il est attendu que les requêtes échouent s'il y a une erreur serveur ou une erreur connexe. Par exemple, si les scrapers de CS essaient d'accéder à une ressource qui nécessite d'être connecté (par ex. erreur 403) ou si un bloqueur non mobile est configuré côté client pour les sites mobiles ou si les serveurs bloquent Contentsquare en raison du volume de requêtes.