Retour

Microsoft Fabric et power BI Desktop

Temps de lecture : 8 minutes

1/Tableau des différences entre Power BI Desktop et Fabric

PhasePower BI DesktopPower BI Fabric
ETLPower QueryDataflow (Power Query)
Stockage données après ETLLocal : fichier .Pbix– Lakehouse
– Datawarehouse  
Méthode d’actualisation incrémentielleAucunDépends du moyen de stockage des données transformées :
– lakehouse : oui, ajout des nouvelles données uniquement   – Datawarehouse : oui, ajout des nouvelles données et possibilité de mettre à jour les anciennes données  
(dans les 2 cas, à programmer dans le Dataflow)
Bloc-notes Permet la Création de  : Colonne calculée langage Spark sql ( lakehouse) et/ou
langage T-sql ( warehouse))
requis
Modèle sémantique Création à partir d’un lakehouse ou d’un warehouse.
Langage DAXCréation à partir des tables chargé et stocké en local :
– Colonne calculée,
– Table calculée
– Mesure
Création dans le modèle sémantique :
– Table calculée (ne peut utiliser de données stockées dans le modèle sémantique)
– Colonne calculée dans une table calculé mais pas possible dans une table chargé
-Mesure
VisuelsListe volet visualisationsListe volet visualisations
Actualisation planifiéNon, sauf si un flux power automate a été crée pour cliquer automatiquement sur le bouton « actualiser » à différents intervallesOui, possibilité d’actualiser les rapports toutes les 15 minutes avec l’utilisation des pipelines

La création d’un rapport power BI sous Fabric se fait différemment sous power BI desktop et demande de maîtriser au minimum un autre langage pour créer un bloc-notes qui va apporter des mises à jour sur les tables si nécessaire.

2/ Aspect financier

Un autre point important est l’aspect financier :

 Power BI DesktopFabric
FinancegratuitDépend du temps d’utilisation des différentes capacités

  Power BI Desktop est gratuit et peut être utilisé par n’importe quel utilisateur mais ses capacités dépendent des caractéristiques de l’ordinateur sur lequel il est installé (Processeur, RAM,…), donc l’utilisateur doit fournir le matériel.

Fabric fonctionne sur le même principe, mais ce n’est pas l’utilisateur qui achète le matériel. C’est Microsoft qui le fournit.

En effet, l’utilisateur a la possibilité d’utiliser sur Microsoft azure une des capacités suivantes :

L’utilisateur est libre de passer à tout moment une capacité à une autre.

Le coût indiqué pour chaque capacité est une estimation si la capacité est utilisée pendant 1 mois.

En réalité, le prix à payer est le temps d’utilisation de la capacité pendant le mois.

Exemple :

Si l’utilisateur utilise les capacités suivantes pendant un mois :

  • Capacité F16 pendant 1 heure pour charger 2GO de données (1er chargement massive de données)
  • Capacité F8 pendant 1 jours pour charger 200 MO de données (plusieurs chargements non prévus d’une quantité moyenne de données)
  • Capacité F2 pendant 28 jours et 23heures (pas de chargement d’un volume de données élevées (<10 MO))

Le prix à payer est :

Prix d’utilisation d’une heure pour la capacité F16 :

Prix d’utilisation d’une journée pour la capacité F8 :

Prix d’utilisation de 28 jours et 23heures pour la capacité F2 :

Montant total à payer pour l’utilisation des différentes capacités pendant le mois pour l’utilisateur

Note importante :

Microsoft donne tous les mois 150$ de crédit pour tester ses différents outils sur la plateforme Azure.

Donc le vraie montant à payer est :

Pour aller plus loin, il est possible grâce à une logic apps de programmer automatiquement la mise en pause et la reprise en marche de la capacité.

Quand la capacité est en pause, la facturation s’arrête.

En reprenant l’exemple précédent :

Si l’utilisateur utilise les capacités suivantes pendant un mois :

  • Capacité F16 pendant 1 heure pour charger 2GO de données (1er chargement massive de données)
  • Capacité F8 pendant 1 jours pour charger 200 MO de données (plusieurs chargements non prévus d’une quantité moyenne de données)
  • Capacité F2 pendant 28 jours et 23heures (pas de chargement d’un volume de données élevées (<10 MO))
  • Sa capacité fabric se met en pause tous les jours à 18heures et reprend à 8h le jour suivant sauf samedi et dimanche où la capacité reste en pause de vendredi 18h jusqu’au lundi suivant à 8h

En appliquant le logic apps le montant payé par l’utilisateur impacte surtout le temps d’utilisation de la capacité F2

 Prix d’utilisation de 21 jours (10 heures par jour, inactive samedi et dimanche(8 jours par mois)) pour la capacité F2 :

Le nouveau prix total d’utilisation de la capacité est :

Prix d’utilisation d’une heure pour la capacité F16 :

+

Prix d’utilisation d’une journée pour la capacité F8 :

+

Prix d’utilisation de 21 jours (10 heures par jour) pour la capacité F2 :

=

127,3366 $

-Crédit microsoft de 150$

=-22.6633$ (soit 0 $ de dépensé pour l’utilisateur)

3/ Projet Big Data : méthode efficace

Un Projet impliquant le Big Data (volume important de données) nécessite de bien définir les données nécessaires afin de limiter le coût.

En effet, chaque capacité fabric peut contenir un volume définit de données comme le montre le tableau suivant :

SKUMax Direct Lake model size on OneLake (GB)1, 4
F210
F410
F810
F1620
F3240
F64Unlimited
F128Unlimited
F256Unlimited
F512Unlimited
F1024Unlimited
F2048Unlimited

Tableau issue de What is Power BI Premium? – Power BI | Microsoft Learn

Les colonnes SKU et Max Direct Lake model size on OneLake (GB)1, 4 montrent la quantité maximale de données que peut contenir chaque capacité.

Pour réduire le coût au maximum qu’une capacité fabric puisse générer, l’utilisateur devra :

1/ créer son rapport power BI sous power BI Desktop. La taille fichier .pbix contenant le rapport et le modèle de données permettra d’obtenir une 1ère idée de la capacité à utiliser.

Exemple : si la taille totale du fichier .pbix est inférieur à 10 GO alors, l’utilisateur pourra utiliser une capacité F2 pour réduire les coûts au maximum.
Si la taille est supérieure à 10 GO, l’utilisateur sera forcé d’utiliser une capacité F16 minimum. Si l’utilisateur veut tout de même utiliser une capacité F2, alors il doit revoir le modèle qu’il a mis en place et filtrer plus de données.

2/ Bien définir les outils qui vont appliquer tel opération. Si trop d’opérations sont effectuées avec un seul outil, la capacité fabric peut s’arrêter avant même la fin des opérations. Il est préférable d’attribuer à chaque outils ses différents rôles.

Exemple : le rôle de power Query (et Dataflow) est surtout de supprimer les colonnes non nécessaires pour charger plus rapidement les tables. Ajouter des colonnes au contraire donne un chargement plus lent des données et peut ne pas aboutir.

Ajouter des nouvelles colonnes est plus le rôle du langage DAX et/ou des blocs-notes qui contiennent des codes visant à ajouter des colonnes après le chargement des données.

En séparant les rôles, la capacité est moins sollicitée et risque moins de s’arrêter.

3/mise en place d’une méthode d’actualisation incrémentielle

L’actualisation des données dans power BI desktop remplace toutes les lignes de chaque table par les lignes des tables mise à jour côté base de données, plus il y a de lignes plus cette méthode de chargement des données prend du temps.

La méthode d’actualisation incrémentielle permet principalement d’ajouter les nouvelles lignes sans retirer les lignes précédemment chargé.

Ce qui limite le temps de chargement et le nombre d’opérations à effectuer dans un dataflow.

Remarque : Si lors d’une actualisation, Le volume de donnée est trop élevé malgré la mise en place de cette   méthode d’actualisation incrémentielle, l’utilisateur peut passer temporairement à une capacité supérieure pour charger ce volume de données puis repasser à une capacité inférieure une fois l’actualisation finit.

4/ créer un logic apps sur azure qui automatise la mise en pause et la reprise de sa capacité fabric pour réduire le temps d’utilisation de la capacité.

4/ Conclusion

Créer un rapport power BI sur Desktop n’est pas complétement analogue à la création de rapport power BI sur Fabric et dépend de beaucoup de facteur, mais les deux outils sont complémentaires et oblige l’utilisateur à mieux optimiser son modèle de données.

Laisser un commentaire

Il n'y a pas de commentaires pour le moment. Soyez le premier à participer !