DP-700 certification Français
|
|
Title of test:
![]() DP-700 certification Français Description: DP-700 : Mise en œuvre de solutions d’ingénierie des données à l’aide de Microso |



| New Comment |
|---|
NO RECORDS |
|
Votre organisation utilise Microsoft Fabric pour les flux de travail d’analytique des données. Il y a des retards dans le traitement en raison d’une surveillance inefficace de l’ingestion et de la transformation des données. Vous devez implémenter une solution pour surveiller efficacement les flux de travail de données. Que devez-vous faire ?. Configurez des alertes dans le hub Microsoft Real-Time. Créer un tableau de bord Power BI. Stockez les événements de données dans un lac de données. Utilisez Azure Monitor. Votre organisation utilise Microsoft Fabric pour les tâches d’ingénierie des données. Récemment, il y a eu des problèmes avec les exécutions de pipeline de données qui échouent par intermittence, ce qui provoque des retards dans le traitement des données. Vous devez surveiller les exécutions du pipeline de données pour identifier la cause racine des défaillances. Que devez-vous faire ?. Utilisez le hub de surveillance pour analyser les détails de l’exécution du pipeline. Utilisez un outil tiers pour surveiller les exécutions du pipeline. Échec des nouvelles tentatives sans investigation. Étendre les paramètres de délai d’expiration pour les pipelines. Votre entreprise a implémenté une architecture lakehouse à l’aide de Microsoft Fabric pour prendre en charge l’analytique des données à grande échelle. L’équipe d’ingénierie des données doit s’assurer que les processus de transformation des données sont optimisés pour les performances et la fiabilité. Vous devez superviser les processus de transformation de données pour détecter les goulots d’étranglement ou les défaillances et les améliorer en conséquence. Que devez-vous faire ?. Configurez des alertes pour les échecs de transformation. Activez la journalisation détaillée pour l’analyse des performances. Implémentez la mise à l’échelle automatisée pour les processus de transformation. Utilisez les outils de supervision de base sans configurations avancées. Votre organisation utilise Microsoft Fabric pour gérer et surveiller diverses activités de données, notamment les pipelines de données, les dataflows et les modèles sémantiques. Récemment, les problèmes liés aux processus d’ingestion de données qui échouent par intermittence ont provoqué des retards dans la disponibilité des données pour la création de rapports. Vous devez déterminer la cause de ces défaillances et garantir une surveillance efficace des processus d’ingestion de données afin d’éviter les interruptions futures. Que devez-vous faire ?. Utilisez le hub Monitor pour filtrer les activités par état et heure de début. Activez les alertes uniquement pour les problèmes non critiques. Augmentez la fréquence d’ingestion des données. Utilisez un outil de journalisation de base pour la surveillance. Une organisation a implémenté Microsoft Fabric pour les processus de transformation de données. Toutefois, il existe des instances où les actualisations du modèle sémantique échouent sans notification, ce qui a un impact sur les rapports décisionnels. Vous devez configurer des alertes pour surveiller les événements d’actualisation du modèle sémantique et recevoir des notifications en cas d’échec. Chaque réponse correcte présente une partie de la solution. Quelles sont les trois actions que vous devez effectuer ?. Configurer un filtre. Sélectionnez les événements d’élément d’espace de travail Fabric dans Real-Time hub. Envoyez un e-mail pour les actions d’alerte. Notifier via Teams pour tous les événements d’actualisation. Utilisez un ensemble de requêtes SQL pour surveiller les états d’actualisation. Une organisation utilise Microsoft Fabric pour les flux de travail de données et certaines transformations de données ne se terminent pas, ce qui provoque des retards. L’organisation a besoin d’alertes immédiates pour les problèmes de traitement des données. Quelles mesures doivent être prises ?. Configurez les notifications pour les événements de transformation dans Microsoft Fabric. Augmentez la fréquence d’actualisation des données. Configurez un tableau de bord dans Power BI. Configurez un rapport hebdomadaire pour les journaux de transformation. Votre organisation utilise Microsoft Fabric pour gérer les pipelines de données pour le traitement des données de vente. Récemment, un pipeline a échoué pendant l’exécution et les journaux d’erreurs indiquent une source de données manquante dans l’une des activités de recherche. Vous devez configurer le pipeline pour qu’il échoue correctement avec un message d’erreur clair lorsque de tels problèmes se produisent à l’avenir. Que devez-vous faire ?. Ajoutez une activité d’échec avec un message d’erreur et un code personnalisés. Ajoutez une vérification conditionnelle pour gérer les sources de données manquantes. Journaliser les erreurs et poursuivre l’exécution du pipeline. Réessayez l’exécution du pipeline automatiquement après avoir rencontré des sources de données manquantes. Votre organisation utilise Microsoft Fabric pour diffuser des données à partir d’appareils IoT. Il existe des problèmes avec les données qui ne sont pas traitées correctement, éventuellement en raison d’erreurs dans le moteur eventstream. Vous devez résoudre les erreurs à l’origine des problèmes de traitement des données. Que devez-vous faire ?. Vérifiez les journaux d’exécution pour les entrées d’erreur par gravité. Recherchez les erreurs de conversion de données. Augmentez l’allocation de mémoire pour le moteur. Redémarrez le moteur pour effacer les problèmes temporaires. Votre entreprise utilise Microsoft Fabric pour gérer les pipelines de données pour l’analytique en temps réel. Une exécution récente du pipeline a échoué en raison d’une erreur de conversion de données. Vous devez résoudre l’erreur pour garantir la réussite de l’exécution du pipeline. Que devez-vous faire ?. Passez en revue les insights sur les données pour connaître les métriques d’erreur. Augmenter l’allocation du processeur. Ignorer les erreurs de conversion de données. Ajustez les mappages de types de données. Votre entreprise utilise Microsoft Fabric pour gérer les pipelines de données pour l’analytique à grande échelle. Récemment, plusieurs exécutions de pipeline ont échoué en raison d’erreurs dans la transformation des données, provoquant des retards dans la création de rapports et l’analyse. Vous devez implémenter un mécanisme qui permet à un pipeline de se terminer avec des détails d’erreur spécifiques lorsque des conditions telles que des données manquantes ou des erreurs internes se produisent. Chaque réponse correcte présente une partie de la solution. Quelles sont les trois actions que vous devez effectuer ?. Ajoutez une activité Échec au pipeline. Configurez l’activité Échec avec les détails d’erreur personnalisés. Créer un pipeline. Utilisez une activité dataflow pour la détection d’erreurs. Utilisez une activité d’attente pour retarder l’exécution du pipeline. Votre entreprise utilise Microsoft Fabric pour gérer les pipelines de données pour une solution lakehouse. Récemment, un pipeline a échoué en raison d’une erreur d’activité de script. Vous devez vous assurer que l’exécution du pipeline échoue avec un message d’erreur et un code personnalisés. Chaque réponse correcte présente une partie de la solution. Quelles sont les deux actions que vous devez effectuer ?. Ajoutez une activité d’échec. Configurez les paramètres d’erreur personnalisés dans l’activité Échec. Activez la journalisation pour les activités de pipeline. Utilisez une activité Try-Catch. Votre organisation utilise Microsoft Fabric Lakehouse pour gérer des jeux de données volumineux pour l’analytique. Récemment, les performances des requêtes ont détérioré en raison du nombre croissant de petits fichiers Parquet générés lors de l’ingestion des données. Vous devez réduire le nombre de petits fichiers pour améliorer les performances des requêtes dans les tables Microsoft Fabric Lakehouse. Quelle action devez-vous entreprendre ?. Appliquez l’ordre V pour le tri et la compression. Augmentez la taille du fichier à l’aide du compactage Delta Lake. Utilisez l’API Lakehouse pour la gestion des fichiers. Utilisez Optimize pour consolider les petits fichiers. Votre organisation utilise Microsoft Fabric Lakehouse pour stocker et analyser des jeux de données volumineux. Récemment, l’équipe a remarqué une augmentation des coûts de stockage en raison des anciens fichiers qui ne sont plus nécessaires pour les opérations actuelles. Vous devez réduire les coûts de stockage en supprimant les fichiers inutiles tout en conservant l’intégrité des données. Que devez-vous faire ?. Utilisez la commande VACUUM. Activez la compression V-Order. Réduisez la période de rétention des fichiers. Utilisez la commande OPTIMIZE. Votre organisation a implémenté un entrepôt de données Microsoft Fabric pour gérer l’ingestion et le traitement des données à grande échelle. La configuration actuelle implique des charges de données fréquentes tout au long de la journée, ce qui entraîne parfois des goulots d’étranglement des performances. Vous devez optimiser le processus d’ingestion des données pour gérer efficacement de grands volumes sans provoquer de problèmes de performances. Chaque réponse correcte présente une partie de la solution. Quelles sont les deux actions que vous devez entreprendre ?. Divisez les opérations INSERT volumineuses en parties plus petites. Regroupez les instructions INSERT dans des lots. Utilisez des types de données plus volumineux pour les colonnes. Utilisez des types de données plus petits pour les colonnes. Votre entreprise utilise Microsoft Fabric pour gérer un entrepôt de données qui prend en charge différentes charges de travail analytiques. Les utilisateurs signalent des performances des requêtes lentes, en particulier lors de l’exécution initiale des requêtes. Vous devez optimiser les performances des requêtes pour l’exécution initiale sans compter sur des statistiques automatiques. Chaque réponse correcte présente une partie de la solution. Quelles sont les deux actions que vous devez entreprendre ?. Activer la mise en cache des requêtes. Activez le parallélisme des requêtes. Créez manuellement des statistiques pour les tables fréquemment interrogées. Utilisez le mode Direct Lake dans Power BI. Votre organisation passe à une architecture de maillage de données à l’aide de Microsoft Fabric. Vous êtes responsable de l’organisation des données dans des domaines. Vous devez configurer des paramètres pour la gestion indépendante des règles et restrictions par chaque unité commerciale. Que devez-vous faire ?. Déléguer les paramètres au niveau du locataire aux domaines. Affectez des espaces de travail à plusieurs domaines. Configurez des étiquettes de confidentialité spécifiques au domaine. Créez des espaces de travail avec des paramètres de gouvernance partagés. Une organisation utilise Microsoft Fabric pour l’ingénierie des données et les retards d’expérience avec les travaux Apache Spark en raison d’une forte demande de ressources partagées. Vous devez optimiser le temps d’exécution du travail Spark en configurant un pool Spark personnalisé. Quelles mesures doivent être prises ?. Créez un pool Spark personnalisé avec mise à l’échelle automatique activée et définissez les nœuds maximum en fonction de la charge maximale. Créez un pool Spark personnalisé avec l’allocation de nœuds statiques. Activez l’allocation statique des exécuteurs. Utilisez un pool Spark personnalisé avec un nombre fixe de nœuds. Votre organisation utilise Microsoft Fabric pour gérer les données entre les services. Vous devez vous assurer que chaque service peut gérer ses paramètres de gouvernance des données indépendamment. Que devez-vous faire ?. Déléguer les paramètres au niveau du locataire aux domaines. Affectez des espaces de travail à un seul domaine. Regroupez tous les services sous un seul domaine. Implémentez des stratégies de gouvernance centralisées. Votre entreprise utilise Microsoft Fabric pour gérer les charges de travail d’ingénierie des données. L’équipe rencontre des problèmes de performances avec les travaux Spark en raison d’une allocation de ressources inefficace. Vous devez optimiser la configuration du pool Spark pour améliorer les performances et réduire les coûts. Quelles sont les trois actions que vous devez effectuer ? Chaque réponse correcte présente une partie de la solution. Configurez l’allocation dynamique pour les exécuteurs. Activez la mise à l’échelle automatique pour l’approvisionnement de nœuds. Sélectionnez des nœuds à mémoire optimisée. Activer l’allocation de ressources fixe. Utilisez l’allocation de nœuds statiques. Votre organisation utilise Microsoft Fabric pour gérer les tâches d’ingénierie des données. La configuration actuelle inclut un pool de démarrage pour les travaux Apache Spark, mais l’équipe remarque que certains travaux nécessitent plus de ressources de calcul que le pool de démarrages peut fournir. Vous devez optimiser la configuration de l’espace de travail pour gérer efficacement les travaux Spark plus volumineux sans augmenter considérablement les temps de démarrage de session. Chaque réponse correcte présente une partie de la solution. Quelles sont les deux actions que vous devez entreprendre ?. Créez un pool Spark personnalisé avec mise à l’échelle automatique. Activez l’allocation dynamique des exécuteurs. Désactivez le pool de démarrage. Augmentez la mémoire de l’exécuteur dans le pool de démarrage. Augmentez le nombre de partitions dans le travail Spark. Votre entreprise utilise des pipelines de déploiement Microsoft Fabric avec plusieurs étapes. Vous devez déterminer la dernière heure de déploiement pour chaque étape. Que devez-vous faire ?. Passez en revue l’historique du déploiement pour chaque étape. Vérifiez les journaux de déploiement pour chaque étape. Vérifiez les paramètres du pipeline de déploiement pour chaque étape. Utilisez la page d’état du déploiement pour afficher les modifications récentes. Une organisation utilise des pipelines de déploiement Microsoft Fabric avec plusieurs étapes pour les solutions d’analytique. Vous devez vous assurer que les connexions de base de données sont correctes après le déploiement du contenu à chaque étape. Que devez-vous faire ?. Définissez des règles de déploiement. Vérifiez les paramètres de connexion de base de données. Utilisez la liaison automatique. Utilisez des pipelines de déploiement pour gérer les connexions de base de données. Votre organisation utilise des pipelines de déploiement Microsoft Fabric pour gérer les solutions d’analyse à travers les phases de développement, de test et de production. Vous devez limiter la modification des paramètres de pipeline aux utilisateurs autorisés uniquement. Que devez-vous faire ?. Attribuez des rôles d’administrateur de pipeline. Configurez les autorisations d’espace de travail. Activez la sécurité au niveau de l’étape. Implémentez le contrôle d’accès en fonction du rôle. Votre entreprise doit masquer les données sensibles dans la table CustomerInfo pour les utilisateurs non privilégiés. La table contient des colonnes CustomerID, Name, Address et CreditCardNumber. Vous devez appliquer un masque à la colonne CreditCardNumber pour vous conformer à la stratégie de gouvernance des données. Que devez-vous faire ?. ALTER TABLE CustomerInfo ALTER COLUMN CreditCardNumber ADD MASKED WITH (FUNCTION = 'partial(0,"XXXX-XXXX-XXXX-« ,4)') ;. ALTER TABLE CustomerInfo ALTER COLUMN CreditCardNumber ADD MASKED WITH (FUNCTION = 'default()') ;. CREATE VIEW MaskedCustomerInfo AS SELECT CustomerID, Name, Address, « XXXX-XXXX-XXXX » AS CreditCardNumber FROM CustomerInfo ;. CREATE VIEW PublicCustomerInfo AS SELECT CustomerID, Name, Address, CreditCardNumber FROM CustomerInfo ;. Votre entreprise implémente une nouvelle stratégie de gouvernance des données à l’aide de Microsoft Fabric. L’entrepôt de données contient différentes tables avec des informations sensibles qui doivent être protégées contre un accès non autorisé. Vous devez vous assurer que seul le personnel médical autorisé peut accéder à la colonne « MedicalHistory » dans la table « Patients ». Que devez-vous utiliser ?. Sécurité au niveau des colonnes. Masquage dynamique des données. Row-Level sécurité. Rôles d’espace de travail. Votre entreprise utilise un entrepôt de données Microsoft Fabric pour stocker les informations salariales des employés. Vous devez configurer des autorisations afin que seuls des utilisateurs spécifiques puissent afficher les données salariales non masquées, tandis que d’autres voient les données masquées. Quelle autorisation devez-vous accorder aux utilisateurs autorisés ?. Accordez l’autorisation UNMASK. Accordez l’autorisation ALTER ANY MASK. Accordez l’autorisation SELECT. Accordez l’autorisation VIEW DEFINITION. Votre organisation utilise Microsoft Fabric pour gérer un entrepôt de données contenant des données financières sensibles, notamment des colonnes telles que AccountNumber, Balance et TransactionHistory. Vous devez vous assurer que seuls les membres autorisés de l’équipe financière peuvent afficher la colonne TransactionHistory. Que devez-vous faire ?. Sécurité au niveau des colonnes. Chiffrement de données. Masquage dynamique des données. Row-Level sécurité. Votre entreprise utilise Microsoft Fabric pour gérer un entrepôt de données qui inclut une table contenant des informations sensibles sur les employés. La table contient des colonnes telles que EmployeeID, Name, Salary et SocialSecurityNumber. Vous devez restreindre l’accès aux colonnes Salaire et SocialSecurityNumber uniquement au personnel rh. Chaque réponse correcte présente une partie de la solution. Quelles sont les trois actions que vous devez effectuer ?. Créez un rôle RH et attribuez-le au personnel RH. Refuser l’autorisation SELECT sur les colonnes sensibles à d’autres rôles. Accordez l’autorisation SELECT sur les colonnes sensibles au rôle RH. Créez une vue pour restreindre l’accès aux colonnes Salary et SocialSecurityNumber. Utilisez le masquage dynamique des données sur les colonnes sensibles. Votre organisation utilise Microsoft Fabric pour la gestion des entrepôts de données. L’équipe de sécurité s’inquiète de l’accès non autorisé aux informations client sensibles dans une base de données. Vous devez vous assurer que les données sensibles sont protégées et accessibles uniquement aux utilisateurs autorisés. Quelles sont les trois actions que vous devez effectuer ? Chaque réponse correcte présente une partie de la solution. Définissez le masquage des données dynamiques pour les colonnes sensibles. Accordez l’autorisation UNMASK aux utilisateurs autorisés. Test du masquage avec un utilisateur non privilégié. Supprimez toutes les règles de masquage d’une base de données. Révoquez l’autorisation SELECT des utilisateurs non privilégiés. Votre organisation utilise Microsoft Fabric pour gérer un entrepôt de données contenant des informations client sensibles, notamment des adresses e-mail et des numéros de carte de crédit. Vous devez empêcher les utilisateurs non privilégiés d’afficher des adresses e-mail complètes et des numéros de carte de crédit. Chaque réponse correcte présente une partie de la solution. Quelles sont les deux actions que vous devez effectuer ?. Utilisez le masquage dynamique des données sur CreditCardNumber avec une fonction partial(). Utilisez le masquage dynamique des données sur l’e-mail avec la fonction email(). Appliquez la sécurité au niveau des colonnes pour restreindre l’accès aux colonnes sensibles. Implémentez la sécurité au niveau des lignes pour restreindre l’accès aux données sensibles. Votre entreprise utilise une architecture lakehouse avec Microsoft Fabric pour l’analytique. Les données sont ingérées et transformées à l’aide de pipelines Microsoft Data Factory et stockées dans des tables Delta. Vous devez améliorer l’efficacité de la transformation des données et réduire le temps de chargement. Que devez-vous faire ?. Utilisez des balises de session pour réutiliser les sessions Spark. Configurez un pool Spark avec d’autres nœuds Worker. Activez l’optimisation delta Lake. Basculez vers une autre version du runtime Spark. Votre organisation utilise Microsoft Fabric pour gérer les pipelines de données pour différents processus ETL. Vous devez créer un pipeline flexible et réutilisable qui gère différents jeux de données à l’aide de paramètres et d’expressions. Que devez-vous faire ?. Utilisez les paramètres et l’interpolation de chaîne pour le contenu dynamique. Créez des pipelines distincts pour chaque jeu de données. Codez en dur les valeurs du jeu de données et utilisez des expressions statiques. Utilisez uniquement les valeurs par défaut pour les modifications du jeu de données. Une entreprise utilise Microsoft Fabric pour orchestrer les flux de travail de traitement des données avec des tâches dépendantes de la fin de tâche précédente. Vous devez implémenter un modèle d’orchestration qui garantit que les tâches s’exécutent en séquence en fonction des dépendances. Que devez-vous faire ?. Utilisez un pipeline avec des dépendances. Exécutez des tâches à l’aide d’un seul notebook. Utilisez un dataflow. Utilisez un dataflow unique. Votre entreprise implémente une solution d’entrepôt de données à l’aide de Microsoft Fabric. L’équipe d’ingénierie des données doit charger des données à partir de plusieurs fichiers CSV stockés dans stockage Blob Azure dans l’entrepôt. Vous devez importer efficacement des données à partir de ces fichiers CSV dans l’entrepôt à l’aide de T-SQL. Chaque réponse correcte présente une partie de la solution. Quelles sont les trois actions que vous devez effectuer ?. Spécifiez FIELDTERMINATOR dans l’instruction COPY. Utilisez un jeton SAP pour l’accès au Stockage Blob Azure. Utilisez l’instruction COPY avec un caractère générique pour le chemin d’accès au fichier. Utilisez un dataflow pour charger des fichiers CSV. Utilisez l’instruction BULK INSERT pour charger des données CSV. Utiliser INSERT... SELECT pour le chargement des données CSV. Votre organisation utilise Microsoft Fabric pour les solutions d’ingénierie des données. L’équipe doit créer un pipeline de données qui ingère des données à partir de plusieurs sources, y compris des fichiers locaux, des bases de données et des API, et les charge dans un lakehouse à des fins d’analyse. Vous devez concevoir un pipeline flexible qui réduit le codage dur et prend en charge l’intégration dynamique. Chaque réponse correcte présente une partie de la solution. Quelles sont les trois actions que vous devez effectuer ?. Transmettez des valeurs externes avec des paramètres. Utilisez l’éditeur de contenu dynamique pour les expressions. Utilisez l’interpolation de chaîne pour les chemins d’accès aux fichiers. Chemins de source de données de code dur. Utilisez des chaînes littérales pour les paramètres. Votre entreprise implémente le traitement des données en temps réel à l’aide de Spark Structured Streaming dans Microsoft Fabric. Les données des appareils IoT doivent être stockées dans une table Delta. Vous devez garantir un traitement efficace des données de diffusion en continu tout en empêchant les erreurs en raison des modifications de données. Que devez-vous faire ?. Utilisez ignoreChanges. Activez le mode de remplacement. Définissez checkpointLocation sur Null. Utilisez la méthode Append. Votre entreprise a implémenté un lac Microsoft Fabric pour stocker et analyser des données provenant de plusieurs sources. Les données sont utilisées pour générer des rapports Microsoft Power BI et nécessitent des mises à jour régulières. Vous devez vous assurer que les données de Microsoft Fabric lakehouse sont mises à jour de manière incrémentielle pour refléter les modifications des systèmes sources. Quelle méthode devez-vous utiliser pour obtenir des mises à jour incrémentielles ?. Implémentez une stratégie de filigrane. Utilisez une approche de rechargement complète des données. Utilisez le traitement par lots pour les mises à jour. Utilisez la capture de données modifiées (CDC). Vous disposez d’un jeu de données volumineux stocké dans microsoft Fabric Lakehouse, y compris les transactions de vente provenant de plusieurs régions. Vous devez implémenter une stratégie pour garantir une haute qualité des données et prendre en charge les chargements incrémentiels de données tout en conservant l’intégrité et la cohérence des données. Chaque réponse correcte présente une partie de la solution. Quelles sont les deux actions que vous devez effectuer ?. Adoptez une architecture de médaillon pour l’organisation des données. Utilisez Dataflows Gen2 pour la transformation et le nettoyage des données. Chargez des données directement dans le modèle dimensionnel sans transformation. Utilisez des pipelines Data Factory pour la transformation des données. Votre entreprise utilise un entrepôt de données Microsoft Fabric pour stocker les données de transaction client fréquemment mises à jour. Vous devez concevoir un processus ETL qui réduit la charge sur les systèmes sources tout en garantissant que seules les données nouvelles ou modifiées sont chargées. Que devez-vous faire ?. Utilisez la capture de données modifiées (CDC) pour le suivi des modifications apportées aux données sources. Implémentez une détection des modifications basée sur un déclencheur. Effectuez des chargements de données complètes nocturnement. Utilisez une colonne d’horodatage pour le chargement incrémentiel des données. Votre organisation utilise Microsoft Fabric pour gérer les données sur les plateformes cloud. Vous devez intégrer des données d’un service de stockage cloud dans un lakehouse dans Microsoft OneLake. Vous devez vous assurer que les données du service de stockage cloud sont accessibles dans le lakehouse sans duplication. Que devez-vous faire ?. Créez un raccourci pointant vers le service de stockage cloud. Utilisez un pipeline Data Factory pour copier des données dans le lakehouse. Utilisez un pipeline Data Factory pour exporter des données vers stockage Blob Azure, puis importez-les dans le lakehouse. Utilisez un pipeline Data Factory pour transformer des données avant de les charger dans la lakehouse. Votre organisation utilise Microsoft Fabric pour l’analytique des données. La base de données SQL met en miroir les données vers OneLake. Vous devez vous assurer que les données mises en miroir sont cohérentes et accessibles pendant le temps d’arrêt de la base de données SQL. Que devez-vous faire ?. Utilisez la mise en miroir automatique dans Microsoft Fabric. Reconfigurez les paramètres de mise en miroir après un temps d’arrêt. Configurez un pipeline d’intégration de données avec Azure Data Factory. Configurez une base de données secondaire pour la réplication manuelle. Votre entreprise dispose de plusieurs sources de données, notamment Azure Databricks et Azure Cosmos DB, et souhaite les intégrer à Microsoft Fabric pour l’analytique unifiée. Vous devez choisir le type de mise en miroir approprié pour chaque source de données pour garantir une intégration efficace des données. Quels types de mise en miroir devez-vous utiliser pour Azure Databricks et Azure Cosmos DB ?. Mise en miroir de métadonnées pour Databricks, mise en miroir de bases de données pour Cosmos DB. Mise en miroir de bases de données pour les deux. Mise en miroir des métadonnées pour les deux. Ouvrir la mise en miroir pour Databricks, mise en miroir de bases de données pour Cosmos DB. Votre organisation utilise Microsoft Fabric pour gérer les données provenant de différentes sources, notamment Azure SQL Database. Vous devez garantir la réplication continue des données Azure SQL Database dans OneLake dans un format interrogeable sans pipelines ETL complexes. Que devez-vous faire ?. Implémentez la mise en miroir de bases de données. Créez un dataflow pour l’importation continue de données. Créez un dataflow pour l’importation périodique de données. Utilisez Azure Data Factory pour la réplication continue des données. Vous implémentez une nouvelle solution d’entrepôt de données à l’aide de Microsoft Fabric. L’équipe d’ingénierie des données doit suivre avec précision les modifications de données historiques à des fins de création de rapports. Implémentez une solution qui capture les modifications apportées aux tables de dimension au fil du temps tout en préservant les données historiques. Quel type de dimension à variation lente (SCD) devez-vous utiliser ?. Type 2 Dimension à variation lente (SCD). Type 1 Dimension à variation lente (SCD). Dimension de type 3 à variation lente (SCD). Type 4 Dimension à variation lente (SCD). Votre organisation utilise Microsoft Fabric pour gérer les données sur plusieurs plateformes cloud. Vous devez améliorer l’efficacité de l’accès aux données et réduire la latence des charges de travail d’analyse en activant l’accès direct aux données dans Microsoft Azure Data Lake Storage (ADLS) Gen2 sans la dupliquer. Chaque réponse correcte présente une partie de la solution. Quelles sont les trois actions que vous devez effectuer ?. Créez des raccourcis vers des emplacements de stockage externes. Activez la mise en cache pour les raccourcis ADLS Gen2. Utilisez une passerelle de données pour les emplacements restreints au réseau. Déplacez des données dans ADLS Gen2 à l’aide d’Azure Data Factory. Utilisez une passerelle de données pour accéder directement aux données externes. Vous implémentez une nouvelle solution d’analytique des données à l’aide de Microsoft Fabric. Votre équipe se compose d’ingénieurs données qualifiés dans PySpark et SQL, et des analystes de données qui utilisent principalement Microsoft Power BI. Les données à ingérer incluent des formats structurés, semi-structurés et non structurés provenant de différentes sources. Sélectionnez un magasin de données qui prend en charge différents formats de données et prend en charge les opérations PySpark et SQL pour la transformation et l’analyse des données. Quels sont les deux magasins de données qui fournissent une solution complète ?. Azure Synapse Analytics. Microsoft Lakehouse. Azure Data Lake Storage Gen2. Microsoft Fabric Eventhouse. Vous traitez les données de streaming à partir de différentes sources à l’aide de Microsoft Fabric, nécessitant une transformation et un stockage dans un lakehouse pour l’analytique. Sélectionnez une méthode pour la transformation efficace et le stockage des données de streaming. Quelle méthode devez-vous choisir ?. Spark Structured Streaming avec des tables Delta. Azure Data Factory pour l’intégration des données en temps réel. Azure Stream Analytics pour le traitement en temps réel. Azure Synapse Analytics pour la transformation et le stockage. Votre organisation utilise Microsoft Fabric pour traiter les données de streaming à partir d’appareils IoT. Vous devez transformer les données de streaming en temps réel pour l’analyse. Que devez-vous utiliser ?. Spark Structured Streaming avec des tables Delta. Azure Data Factory pour l’orchestration des données. Azure Event Hubs pour l’ingestion de données en temps réel. Azure Stream Analytics pour le traitement en temps réel. Votre organisation implémente une solution d’analytique en temps réel à l’aide de Microsoft Fabric pour traiter les données de streaming à partir d’appareils IoT. Vous devez configurer un travail pour ingérer des données de diffusion en continu dans une table pour effectuer des requêtes en temps quasi réel. Quelles trois actions devez-vous effectuer dans le cadre de la solution ?. Créez une définition de travail Spark avec un script Python pour Structured Streaming. Définissez l’emplacement de point de contrôle dans le travail de streaming. Utilisez la table Delta comme récepteur pour la diffusion en continu des données. Stockez des données dans un fichier JSON pour une analyse ultérieure. Utilisez le traitement par lots pour ingérer des données dans la lakehouse. Votre organisation implémente une solution d’analytique en temps réel à l’aide de Microsoft Fabric pour traiter les données de streaming à partir d’appareils IoT. Vous devez garantir un traitement efficace des données de diffusion en continu pour l’interrogation d’invites. Chaque réponse correcte présente une partie de la solution. Quelles sont les deux actions que vous devez effectuer ?. Implémentez Spark Structured Streaming. Configurez un point de terminaison d’analytique SQL. Stockez les données de streaming dans un fichier JSON. Utilisez Azure Stream Analytics pour le traitement des données. Utilisez le traitement par lots pour charger des données toutes les heures. |




