QCM sur Big Data corrigé – Hadoop, Spark, Hive, HDFS – Partie 8

Questions d’Entretien sur Big Data avec des réponses pour la préparation des entretiens d’embauche, tests en ligne, examens et certifications. Ces questions et réponses sur Big Data comprennent divers sujets tel que les principes de base du Big Data, Hadoop, l’écosystème et ses composants, l’analyse, Hypervisor, etc… Et sont tirés d’un vrai entretien écrit et certaines parties sont en direct. Cette méthode d’apprentissage systématique préparera facilement toute personne pour réussir son test sur Big Data.
 
 

1. Qu’est-ce que le « speculative execution » dans Hadoop ?

A Une technique pour optimiser l’allocation des ressources en prédisant les besoins futurs.

B Un mécanisme pour redémarrer automatiquement les tâches ayant échoué.

C Une stratégie pour lancer des copies de sauvegarde des tâches lentes sur d’autres nœuds afin d’accélérer l’exécution globale du travail.

D Une fonctionnalité pour exécuter des tâches MapReduce en utilisant la mémoire plutôt que le disque.

 

2. Quelle propriété Hadoop permet de compresser les données intermédiaires entre le Mapper et le Reducer ?

A

mapreduce.compress.intermediate
mapreduce.compress.intermediate

B

mapreduce.map.output.compress
mapreduce.map.output.compress

C

mapreduce.shuffle.compress
mapreduce.shuffle.compress

D

hdfs.intermediate.compress
hdfs.intermediate.compress

 

3. Quel est le principal avantage de l’utilisation de YARN par rapport à l’ancienne architecture MapReduce (Hadoop 1.x) ?

A Une meilleure performance pour les tâches de traitement par lots.

B La possibilité d’exécuter plusieurs frameworks de traitement de données (comme Spark, Flink) sur le même cluster.

C Une gestion plus simple du système de fichiers HDFS.

D Une sécurité renforcée pour les données.

 
 

4. Quelle est la fonction du OutputFormat en MapReduce ?

A Organiser la sortie en fichiers JSON

B Spécifier le format de la sortie du Reducer

C Compresser les résultats MapReduce

D Transférer les résultats vers une base de données

 

5. Quelle commande permet de créer un répertoire dans HDFS ?

A

hadoop fs -mkdir
hadoop fs -mkdir

B

hadoop fs -newdir
hadoop fs -newdir

C

hadoop fs -create
hadoop fs -create

D

hadoop fs -makedir
hadoop fs -makedir

 

6. En cas de défaillance du NameNode, que se passe-t-il ?

A Le cluster continue normalement grâce aux DataNodes

B Le cluster s’arrête car le NameNode est un SPOF (Single Point of Failure)

C Les Reducers prennent le relais

D Le ResourceManager remplace le NameNode

 
 

7. Qu’est-ce qu’un « Container » dans YARN ?

A Une unité logique de stockage dans HDFS.

B Une abstraction représentant un ensemble de ressources (CPU, mémoire, etc.) allouées par le ResourceManager à une tâche (par exemple, un mapper ou un reducer).

C Un fichier de configuration contenant les paramètres d’une application Hadoop.

D Une interface utilisateur pour interagir avec le cluster Hadoop.

 

8. Lequel des formats suivants est orienté lignes et bien adapté à l’écriture de données sérialisées dans Hadoop ?

A Parquet

B Avro

C ORC

D RCFile

 

9. Quelle commande permet de vérifier l’intégrité des données dans HDFS ?

A

hadoop fs -check
hadoop fs -check

B

hadoop fs -verify
hadoop fs -verify

C

hadoop fs -checksum
hadoop fs -checksum

D

hadoop fs -audit
hadoop fs -audit

 
 

10. Que fait la commande suivante ?
Plain text
Copy to clipboard
Open code in new window
EnlighterJS 3 Syntax Highlighter
hadoop fs -put fichier.txt /data/
hadoop fs -put fichier.txt /data/
hadoop fs -put fichier.txt /data/

A Elle télécharge le fichier depuis HDFS vers le local

B Elle affiche le contenu du fichier.txt

C Elle copie le fichier local vers le répertoire HDFS /data/

D Elle compresse le fichier et le stocke dans /data/

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *