Comment Contentsquare recrée-t-il les pages de mon site ?
Contentsquare utilise des CS Scrapers pour la collecte et la sauvegarde des ressources statiques de votre site: les fichiers CSS, les images, ainsi que les HTML de vos pages. Cela vous permet d'analyser, dans Contentsquare, des répliques exactes de vos pages telles que vos visiteurs en ont fait l'expérience (et ce même après avoir apporté des modifications à une page, et sans avoir besoin d'en faire la requête à vos serveurs).
Deux fonctionnalités principales de Contentsquare reposent sur des CS Scrapers pour reproduire votre site correctement:
Les CS Scrapers : Comment ça marche ?
Dès que la collecte des données est amorcée, le CS Scraper analyse toutes les URLs de la page pour recueillir tous les CSS, toutes les images, polices, ressources ou pages web, les télécharger et les sauvegarder.
Nous avons deux Scrapers :
- Le Scraper de Session Replay
Le Scraper de Session Replay télécharge les ressources statiques comprises dans chaque transformation envoyée pendant l'enregistrement d'une session. Ce processus s'effectue en différé.
Lorsqu'une session est enregistrée pour Session Replay, les serveurs de Contentsquare reçoivent, par le biais d'un Tag, un évènement qui contient toutes les URLs des ressources statiques. Ces URLs sont ensuite vérifiées une par une pour s'assurer que la ressource correspondante a bien été collectée au cours des 6 dernières heures. Si ce n'est pas le cas, alors nous allons chercher la ressource avant de la stocker dans un espace dédié ("static resources" sur le diagramme ci-dessous).
Lorsque le client a besoin de visualiser les données, les ressources statiques sont extraites de l'espace de stockage et mises à sa disposition.
- Le Scraper de Données de Zones
Ce Scraper fonctionne sur demande: il télécharger les ressources statiques au moment même où Contentsquare les reproduit en snapshot dans le module Données de Zones.
Comment mettre les CS Scrapers sur liste blanche ?
Votre équipe ou responsable informatique mettent les Scrapers de Contentsquare sur liste blanche dès l'installation de Contentsquare. Retrouvez la liste blanche des adresses IP des CS Scrapers ici.
Une liste blanche est une liste de sécurité qui donne accès au réseau seulement aux adresses IP autorisées, tandis que les autres se voient refusées l'accès. Mettre les CS Scrapers sur liste blanche permet de s'assurer que les pages de votre site seront reproduites entièrement et de manière fidèle dans les modules Données de Zones et Session Replay, et que la collecte des données se fera systématiquement sur le long terme. Cela permet aussi d'éviter les sauts de pages, et ce, même si les ressources statiques arrivent à expiration.
Que se passe-t-il si le CS Scraper ne fonctionne pas ?
Parfois, vos serveurs ou pare-feux bloquent le téléchargement de ressources statiques pour des raisons de sécurité. Cela peut causer des erreurs d'affichage dans les modules.
Veuillez consulter cet article pour aider les modules Données de Zones et Session Replay à fonctionner correctement avec votre site.
FAQ
Est-il possible de désactiver le Scraper ?
Oui, il est possible d'empêcher le CS Scraper de récupérer les ressources statiques. Si vous choisissez de le désactiver, Contentsquare s'appuiera sur les ressources disponibles sur votre site en temps réel. Cela pourrait néanmoins aboutir à des ressources incomplètes ou totalement indisponibles dans Données de Zones et Session Replay.
Peut-on résoudre les erreurs d'affichage dans Session Replay et Données de Zones ?
Oui, la plupart des erreurs peuvent être résolues, à moins que notre technologie ne soit inscrite sur la liste noire de vos serveurs.
- Dans certains cas, les sites mobiles n'autorisent pas Contentsquare à collecter les ressources statiques car nous utilisons un user_agent non-mobile. Si les serveurs sont configurés pour refuser les requêtes qui ne proviennent pas d'appareils mobiles, notre technologie ne fonctionnera pas.
-
Si une ressource nécessite une connection au site (par exemple: la photo de profil d'un utilisateur), il se peut que le Scraper ne parvienne pas à y accéder. L'analyse de ce type de page devra être réalisée avec CS Live, dans la mesure où Contentsquare ne pourra pas reproduire le site sur la plateforme.
Que faire si mon service informatique m'informe que Contentsquare demande accès à mes serveurs ?
Nos requêtes sont légales et n'ont aucun impact sur vos serveurs. Il y a une limite de 6 requêtes par seconde et l'utilisation de procédés de droit d'accès garantit la sécurité des données.
Que se passe-t-il si une requête échoue ?
Les requêtes peuvent échouer si il y a une erreur sur le serveur ou une erreur correspondante. Par exemple, si le CS Scraper tente d'accéder à une ressource qui nécessite d'être connecté pour apparaître (exemple : erreur 403), ou si un bloqueur de requêtes non-mobiles est mis en place côté par un client pour son site mobile, ou encore si les serveurs bloquent Contentsquare à cause de l'ampleur d'une requête.