Analytics

Les données sont difficiles

Les données sont difficiles. Développer une entreprise est difficile. Mesurer le succès est difficile. Et tu sais quoi? Ils devraient être difficile. Sinon, nous serions tous également stupides, alors que maintenant, ceux d’entre nous qui sont assez ambitieux pour se dépenser sont en train de gagner la course.

Les données sont difficiles

Et il ne s’agit pas seulement de travailler avec Les données c’est difficile. L’ensemble du Web est un gâchis! Les consultants en optimisation des moteurs de recherche, par exemple, n’hésitent pas à donner des conseils sur les redirections côté serveur sans s’arrêter pour examiner les implications de ce qu’ils recommandent.

Mais il me semble toujours que ceux qui travaillent dans l’analyse Web abandonnent en premier. L’approche passive, flegmatique et paresseuse de la mise en œuvre d’une plate-forme de collecte de données et de l’analyse ultérieure peut être observée dans de très nombreuses organisations.

C’est parce que les données sont difficiles.

Peu importe l’analyse. Nous savons tous combien d’expérience, d’expertise et de connaissances du secteur sont nécessaires pour tirer des informations à valeur ajoutée d’un ensemble de données. Mais la mise en œuvre d’une plate-forme permettant de réévaluer et d’ajuster constamment la qualité des données est une tâche intimidante pour beaucoup.

Cela semble provenir du malentendu fondamental selon lequel la collecte de données est plug-and-play. Non, la mise en œuvre de Google Analytics n’est pas très difficile, car il s’agit simplement d’une opération de copier-coller prête à l’emploi. Avec Google Tag Manager, cela peut être encore plus simple. Mais ce n’est que le début. Lors de la première installation, tout ce que Google Analytics est bon pour suivre les pages vues et rien d’autre. Toutes les choses qui nous fascinent vraiment, comme les interactions d’appel à l’action, les transactions de commerce électronique et l’engagement de contenu, nécessitent un travail supplémentaire à mettre en œuvre.

Oui, les données nécessitent du travail. La qualité des données n’est pas acquisson gagné. Des outils comme Google Tag Manager et Google Analytics ne doivent pas être conçus pour faciliter les données et leur analyse. Non, leur fonction est de rendre les données plus maniable, de sorte qu’une qualité de données maximale peut être obtenue avec un minimum d’effort. De cette façon, toute organisation de données peut poursuivre la fameuse règle des 90/10, selon laquelle 90 % des ressources (temps/argent/effort) doivent être concentrées sur les personnes et seulement 10 % sur les outils.

Les «données faciles» sont l’une des idées fausses qui font des vagues dans l’industrie et saturent l’espace numérique avec des praticiens qui refusent de s’en soucier. J’ai passé beaucoup de temps à parler et à réfléchir sur ces idées fausses, et j’ai réussi à les regrouper sous trois constats, formulés ici en des règles.

Règle de passivité des données

Le règle de passivité des données peut être mieux résumé comme une réfutation de la citation classique “Data Beats Opinion”, attribuée à Jim Lecinski de Google.

Avec la règle de passivité des données, je maintiens ces données elles-mêmes Est-ce que rien. Il Beats rien. Il raconte rien. Il spectacles rien. Les données ne sont pas un agent actif : c’est un média passif.

L’opinion pure peut « battre » les données, et le fera, si les données sont de mauvaise qualité ou si les interprétations sont erronées. Naturellement, le succès basé sur l’instinct seul est difficile à trouver, mais il en va de même pour le succès fondé sur des données polluées. En effet, les triomphes les plus cohérents et axés sur les données proviennent de la convergence d’une prise de décision éclairée et d’une collecte de données optimisée.

Une opinion éclairée vaut mieux que les données

La passivité des données conduit également à cécité du tableau de bord. Lorsque nous examinons un tableau de bord, nous nous attendons à en tirer un aperçu en un coup d’œil. Comme si les diagrammes circulaires, les tableaux et les nuages ​​de points nous disaient comment se porte notre entreprise et ce que nous devrions faire ensuite. Mais ils ne le font pas !

Les étiquettes et interprétations “vert pour le bien, rouge pour le mal” dans le tableau de bord doivent être calculées par quelqu’un. Et ils doivent s’aligner parfaitement pour chaque entreprise et chaque objectif. Si nous nous attendons à ce qu’une plate-forme universelle comme Google Analytics puisse nous dire tout ce que nous devons savoir en un coup d’œil sans aucune personnalisation requise, nous nous trompons lourdement.

C’est parce que les données sont passives que les analystes intelligents devraient et, espérons-le, seront toujours en demande. Ce sont eux qui prennent les mesures dans les rapports et les transforment en visualisations significatives dans les tableaux de bord. Ce sont eux qui s’assurent que le flux de données en temps réel est aussi informatif que possible. Mais cela, encore une fois, nécessite du travail. Les données sont difficiles, vous vous souvenez ?

Les données sont faciles à cacher derrière, à la fois dans le triomphe et dans l’échec. Pour cette raison, il est primordial d’assurer la qualité des données lors de la collecte des données et d’embaucher des analystes capables d’interpréter les données de la manière la plus bénéfique pour l’entreprise.

Analyses plug-and-play pourrait fonctionner pendant un certain temps, si vous êtes chanceux. Mais si vous souhaitez réellement utiliser les données pour faire la différence dans votre entreprise, la personnalisation n’est plus facultative.

Règle de subjectivité des données

Le règle de la subjectivité des données est important à prendre en compte lorsque l’on parle de la qualité des données. J’ai souvent dit, sous une forme ou sous une autre, que :

La qualité des données est directement proportionnelle à la compréhension du mécanisme de collecte des données.

Prenez Google Analytics, par exemple. Pour beaucoup, le taux de rebond représente une mesure clé dans l’évaluation de l’engagement du contenu. Mais c’est à cause d’un stratagème marketing étrange ou d’un super-complot, où le taux de rebond a été transformé en un véritable démon de données, une métrique indéniablement maléfique avec le pouvoir de détruire comme aucune autre. Considérez ce qui suit, cependant, avant de condamner le taux de rebond :

  • Un rebond n’est pas une session avec une seule page vue. C’est une session avec une seule interaction.

  • Google Analytics ne sait pas combien de temps dure une session si la session est un rebond.

  • Un taux de rebond élevé sur une page avec votre numéro de téléphone et votre adresse peut être une bonne chose.

Ces trois éléments remettent en question la « méchanceté » du taux de rebond. Si vous ne mesurez pas l’engagement d’appel à l’action sur une page, vous ne devez rien lire dans le taux de rebond des sessions qui ont uniquement visité cette page. Pourquoi? Parce que si vous mesuriez l’appel à l’action, vous verriez un taux de rebond inférieur, car un événement déclenché par l’interaction avec l’appel à l’action annulerait le rebond.

De même, même si vous n’avez rien d’autre que la Pageview à mesurer sur la page, vous ne savez pas par défaut combien de temps le visiteur passe réellement sur la page lors d’une session rebondie. En effet, Google Analytics calcule le temps passé sur la page comme la distance dans le temps entre deux accès à la page vue. La durée de la session, à la place, est calculée comme la distance dans le temps entre deux interactions. Les deux ne sont pas disponibles pour les sessions rebondies. Le visiteur peut passer 18 heures sur la page, buvant chaque information, pour autant que vous sachiez.

De plus, si le numéro de téléphone ou l’adresse de votre magasin est littéralement tout ce que quelqu’un pourrait vouloir savoir, il est logique que votre page de contact ait un taux de rebond élevé. Cela signifie qu’il a été optimisé pour apparaître dans les résultats de recherche, et après avoir atterri sur la page, le visiteur trouve immédiatement ce qu’il cherchait. En effet, ce serait une expérience utilisateur négative que de forcer le visiteur à parcourir d’autres pages (et ainsi enregistrer un taux de rebond plus faible).

Ce ne sont là que quelques exemples de la façon dont la qualité du taux de rebond en tant que métrique est directement proportionnelle à la compréhension de son mécanisme de collecte et de traitement. Et les plateformes d’analyse Web regorgent d’exemples similaires.

Une autre façon d’envisager la règle de la subjectivité des données consiste à considérer comment la qualité des données peut passer de mauvaise à bonne, selon le point de vue et la question posée.

Un ensemble de données ne contenant que des pages vues est une mauvaise donnée pour suivre l’engagement des visiteurs, car il manque des éléments clés comme l’interaction avec le contenu, mais ce sont de bonnes données pour mesurer le nombre de lectures relatives de vos articles.

Les mentions LinkedIn sont de mauvaises données pour déterminer si quelqu’un est vraiment doué pour quelque chose, mais ce sont de bonnes données pour essayer d’identifier quelle est la perception générale des capacités de quelqu’un.

Les retweets Twitter sont de mauvaises données pour identifier un contenu significatif, mais de bonnes données pour mesurer l’effet viral d’un titre puissant.

Règle de rareté des données

Le règle de rareté des données est presque de nature philosophique. La mesure de l’analyse Web est limitée par la technologie. Il n’y a qu’un nombre limité de choses que nous pouvons suivre avec les requêtes JavaScript et HTTP, et il n’y a qu’une quantité de puissance de traitement que les algorithmes côté serveur peuvent épuiser lorsqu’ils déduisent le sens du flux de hits entrant. C’est pourquoi il est recommandé de commencer à extraire ces données d’analyse Web du système à un moment donné, afin qu’elles puissent être combinées avec d’autres sources de données.

Cependant, peu importe combien vous collectez et combinez, vous n’aurez jamais toutes les données. La règle de la rareté des données dicte donc que les données seront toujours incomplètes, et une ligne arbitraire doit être tracée quelque part dans le mécanisme de collecte des données.

Quand pouvez-vous dire que vous avez « assez de données » ?

Par exemple, si vous souhaitez mesurer l’engagement du contenu avec Google Analytics, il est courant de mesurer le suivi du défilement. De cette façon, vous saurez combien de personnes font défiler vos articles et vous pouvez l’utiliser comme un indicateur rudimentaire des taux de lecture.

Mais quel est l’incrément de défilement qui constitue un événement ? 1%? 5 % ? 25 % ? Faut-il aussi mesurer le temps passé sur l’article ? Qu’en est-il si quelqu’un fait défiler furieusement le bas du contenu, peut-être à la recherche de commentaires ? Devriez-vous également mesurer le mouvement de la souris ? Peut-être que quelqu’un défile, mais en fait, il recherche simplement le contenu de la barre latérale ou vos coordonnées ?

Les questions que vous pouvez poser sont infinies, car les données que vous pouvez collecter sont (presque) infinies. Vous devrez tracer une ligne quelque part, et cela nécessite une délibération. Il est important de poser des questions, de vérifier si les données répondent à ces questions (positivement ou négativement), puis d’ajuster les questions et de reformuler vos hypothèses.

Des données significatives

En fin de compte, la collecte de données se résume à une chose simple : la collecte de données significatives. Quoi significatif signifie est quelque chose qui doit être négocié de manière unique pour chaque analyse de rentabilisation, chaque projet, chaque produit, chaque organisation et chaque plate-forme.

Une organisation de données, c’est-à-dire une organisation qui prend au sérieux l’utilisation des données pour alimenter son travail, n’est jamais qu’une entreprise de données le recueil ou une donnée En traitement ou une donnée rapports corps. Non, transformer les métriques en actions significatives qui stimulent votre entreprise nécessite que tous les aspects de ce processus soient observés presque religieusement.

La raison pour laquelle je mets l’accent sur la collecte de données est qu’il semble y avoir un décalage entre la manière dont les données sont collectées, la manière dont elles sont consultées et la manière dont elles sont rapportées. Les trois règles que j’écris ci-dessus ne concernent pas seulement la collecte de données, car elles sont également très alignées sur le traitement et le reporting.

Cependant, si vous bousillez la collecte de données, vous bousillerez toutes les étapes suivantes. Tu dois bien faire les choses dès le départ, sinon vous vous réprimanderez pour les décisions que vous avez prises ou négligées de prendre en cours de route.

En fin de compte, tout ce que je dis, c’est que les données sont difficiles. Il n’y a pas de “utilisateurs expérimentés” d’une plate-forme comme Google Analytics. Il y a juste des “utilisateurs” et puis des gens qui ont abandonné ou qui n’ont jamais pris la peine d’essayer.

Les outils et les plateformes ne doivent pas essayer de faciliter l’analyse en simplifiant les choses. Non, ils devraient faciliter la collecte et le traitement des données, de sorte que 90 % des ressources puissent effectivement être consacrées à l’analyse.

L’expérience, l’éducation et un état d’esprit axé sur les données sont les ingrédients d’une analyse réussie. Aller au-delà de l’ensemble de fonctionnalités par défaut d’une plate-forme ; intégrer, combiner et visualiser des données ; et peaufiner le mécanisme de collecte de données pour mieux refléter vos objectifs commerciaux sont des choses que vous devrez également acquérir en cours de route.

Source : www.simoahava.com

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Index