QCM sur Big Data corrigé – Mapreduce

Questions d’Entretien sur Big Data avec des réponses pour la préparation des entretiens d’embauche, tests en ligne, examens et certifications. Ces questions et réponses sur Big Data comprennent divers sujets tel que les principes de base du Big Data, Hadoop, l’écosystème et ses composants, l’analyse, Hypervisor, etc… Et sont tirés d’un vrai entretien écrit et certaines parties sont en direct. Cette méthode d’apprentissage systématique préparera facilement toute personne pour réussir son test sur Big Data.
 
 

1. Un nœud ________ agit en tant qu’esclave et est responsable de l’exécution d’une tâche qui lui est assignée par le JobTracker.

A MapReduce

B Mapper

C TaskTracker

D JobTracker

C
TaskTracker reçoit de JobTracker les informations nécessaires à l’exécution d’une tâche, exécute la tâche et renvoie les résultats à JobTracker.

 

 

2. Indiquez l’affirmation correcte.

A MapReduce essaie de placer les données et les calculs de façon aussi proche que possible.

B La tâche Map dans MapReduce est exécutée à l’aide de la fonction Mapper().

C La tâche Reduce de MapReduce est exécutée à l’aide de la fonction Map().

D Aucune de ces réponses

A
« Localisation de données » est une caractéristique de MapReduce.

 

 

3. La partie ______ de MapReduce est responsable du traitement d’un ou plusieurs morceaux de données et de la production des résultats de sortie.

A Mapper

B Map

C Reduce

D Aucune de ces réponses

B
La tâche Map dans MapReduce est exécutée à l’aide de la fonction Map().

 

 
 

4. Indiquez l’affirmation incorrecte.

A Une tâche MapReduce divise généralement l’ensemble des données d’entrée en morceaux indépendants qui sont traités par les tâches Map de manière totalement parallèle.

B Le framework MapReduce fonctionne exclusivement sur des paires <clé, valeur>.

C Les applications mettent généralement en œuvre les interfaces Mapper et Reducer pour fournir les méthodes de map et de reduce.

D Aucune de ces réponses

D
Le framework MapReduce se charge de planifier les tâches, de les surveiller et de réexécuter les tâches qui ont échoué.

 

 

5. Bien que le framework Hadoop soit implémenté en Java, les applications MapReduce n’ont pas besoin d’être écrites en ____________.

A Java

B C

C C#

D Aucune de ces réponses

A
Hadoop Pipes est une API C++ compatible avec SWIG permettant d’implémenter des applications MapReduce.

 

 

6. ________ est un utilitaire qui permet aux utilisateurs de créer et d’exécuter des tâches avec n’importe quel exécutable comme mapper et/ou reducer.

A Hadoop Strdata

B Hadoop Streaming

C Hadoop Stream

D Aucune de ces réponses

B
Le streaming Hadoop est l’un des utilitaires les plus importants de la distribution Apache Hadoop.

 

 
 

7. Le nombre de maps est généralement déterminé par la taille totale des ________

A entrées

B sorties

C tâches

D Aucune de ces réponses

A
La taille totale des entrées signifie le nombre total de blocs des fichiers d’entrée.

 

 

8. _________ est le partitionneur par défaut pour le partitionnement de l’espace des clés.

A HashPar

B Partitioner

C HashPartitioner

D Aucune de ces réponses

C
Le partitionneur par défaut dans Hadoop est le HashPartitioner qui possède une méthode appelée getPartition() pour partitionner.

 

 
 

9. L’exécution d’un programme ___________ implique l’exécution de tâches de mapping sur plusieurs ou tous les nœuds de notre cluster.

A MapReduce

B Map

C Reducer

D Aucune de ces réponses

A
Dans certaines applications, les tâches des composants doivent créer et/ou écrire dans des fichiers secondaires, qui diffèrent des fichiers de sortie réels de la tâche.

 

 

10. Quels sont les composants les plus critiques du Big Data ?

A MapReduce

B YARN

C HDFS

D Tous les composants ci-dessus

D
MapReduce, YARN est HDFS sont les composants les plus indispensables du Big Data.

 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *