La Self-service BI chez JobTeaser
Pierre Bidet est Head of Data @Job Teaser, le leader européen de l'orientation et du recrutement des jeunes talents. Il nous explique comment Job Teaser rend autonome ses équipes métier avec la Self-Bi.
Dans l’article précédent, nous avons discuté avec Pierre Bidet, Head of Data chez JobTeaser, de l’organisation de son équipe et de ses grands enjeux du moment. Parmi eux figure le besoin d’autonomiser les différents métiers dans leur accès aux données. Pour ce faire, Pierre travaille actuellement à la mise en place d’une plateforme de self-service BI.
Le concept de BI en self-service concerne la tendance de l’informatique décisionnelle à donner plus d’autonomie et de capacité de décision aux utilisateurs, en leur facilitant l’accès à la Data. Concrètement, cela veut dire mettre en place l’architecture, les outils et les formations pour que les équipes métiers (Produit, Marketing, Finance, Sales…) puissent faire elles-mêmes les analyses de leur quotidien. Et cela permet ainsi aux Data Analysts de se concentrer sur des analyses à plus forte valeur ajoutée.
Nous discutons dans cet article de cette nouvelle tendance et de ses implications pour les organisations, en nous concentrant avec Pierre sur l’exemple de JobTeaser !
Le terme de self-BI peut être un peu fourre-tout, mais pour moi c’est une tendance qui vise à démocratiser la business intelligence, notamment par le biais de l’autonomisation des utilisateurs, dans leur accès et leur capacité à traiter les données.
Donc dans une certaine mesure, ce chantier de formation que nous déployons chez JobTeaser en ce moment-même est en effet une forme de self-service BI.
Cependant, le concept peut aussi couvrir d’autres aspects tels que la création autonome de tables par les Data Analysts, pour les autonomiser vis-à-vis des Data ingénieurs. On observe un élan croissant de nombreuses start-ups/scale-ups vers cette pratique, entre autres autour d’outils tels que DBT. Chez JobTeaser (pour des questions de gouvernance) nous avons fait le choix de garder un ownership fort des ingénieurs sur la création des tables de référence, tout en laissant une dose d’autonomie aux Data Analysts en leur permettant de créer des procédures stockées, planifiées par les ingénieurs.
Les self-services de BI que nous implémentons ont donc principalement pour but de permettre aux équipes :
de requêter par elles-mêmes nos bases de données structurées ;
d’avoir la main sur certaines tâches de dashboarding dans Tableau.
Avant l’ouverture de nos données aux équipes, nous avons dû fournir un effort conséquent d’ingénierie (cleaning et structuration des Data) et de documentation de nos bases de données. Cette étape est absolument cruciale pour réussir l’adoption.
Nous avons ensuite formé les profils les plus techniques et les plus appétents – en l’occurrence les Product Managers, une bonne partie des développeurs, les designers, ainsi que quelques personnes issues des équipes métier (product specialists, sales efficiency).
Cela va nous permettre de nous appuyer par la suite sur une population de ‘Data champions’ qui joueront un rôle d’ambassadeurs et contribueront à diffuser la culture que nous cherchons à mettre en place.
Plus concrètement, nous avons formé ces profils à SQL et à nos bases de données, et leur avons donné accès à PushMetrics, un client SQL sur le cloud relativement simple d’utilisation.
La seconde étape, en cours d’expérimentation auprès de quelques Product Managers, est de donner à certaines personnes la possibilité de personnaliser des dashboards existants. Ou de construire des dashboards simples par eux-mêmes à partir de Data sources existantes. Pour cela, nous utilisons le niveau de licence intermédiaire de Tableau : Tableau Explorer, qui permet de faire du dashboarding sans faire de SQL.
L’adoption de la self-service BI apporte deux bénéfices principaux:
D’une part, un gain de temps pour les Data Analysts. Libérés des petites tâches à faible valeur ajoutée, ils peuvent se concentrer sur leur métier. C’est aussi un moyen de faire en sorte qu’ils se sentent bien dans leur job, et de les impliquer dans des projets impactants !
D’autre part, le pouvoir pour les équipes. Donner la main aux équipes métier, qui sont expertes sur leur périmètre, c’est leur permettre de prendre de meilleures décisions, plus rapidement.
Comme pour tout projet, je pense que la bonne manière de le faire est de privilégier une approche itérative, en commençant par des power users qui ont les bonnes compétences pour prendre en main facilement ces nouveaux sujets (et qui sont par ailleurs les plus gros demandeurs de données). C’est cette population qu’il faut former en priorité.
Ensuite, le plus important est que les gens apprennent par la pratique et soient correctement épaulés. Nous avons donc construit des petites études de cas permettant aux gens de mettre les mains directement dans la technique ! Au-delà des outils, l’accompagnement est clé : nous avons créé un channel Slack sur lequel nous répondons aux questions des apprenants, et il nous arrive d’organiser des sessions de travail dédiées à certains sujets spécifiques.
Enfin, il est également important de bien communiquer sur l’initiative en amont, afin d’engager au maximum les personnes formées. En particulier, l’initiative doit susciter l’adhésion dès le départ, à la fois de la part des principaux intéressés, mais aussi de leurs managers.
Il y a un peu plus d’un an nous sommes partis d’une situation assez compliquée en termes de qualité et de structuration de la donnée, et notre premier gros challenge a été de rebâtir une stack nous permettant d’assurer un haut niveau de qualité de la donnée, une gouvernance claire, ainsi qu’une documentation de nos bases de données. L’ensemble du périmètre de données était concerné: données de tracking, données applicatives et données commerciales.
En terme de gouvernance, les responsabilités sont réparties entre:
Le deuxième challenge est d’arriver à embarquer les équipes dans la démarche: autant pour l’accès aux bases de données en SQL l’initiative a très bien pris dès le départ, autant pour l’autonomisation sur les tâches de dashboarding via Tableau Explorer nous observons un peu plus de résistances, car l’habitude de passer par les Data Analysts était fortement ancrée.
Le point clé de la réussite reste l’accompagnement au quotidien et la pédagogie*, et sur ce point nous n’avons pas à rougir des efforts déployés !