QCM Apache Spark Corrigé – Partie 7

QCM sur le framework Apache Spark avec des réponses pour la préparation des entretiens d’embauche, tests en ligne, examens et certifications. Ces questions et réponses sur le framework Apache Spark comprennent divers sujets tel que les bases du framework Apache Spark, Hadoop, MapReduce, Requêtes interactives, traitement en flux, ETL, Big Data, etc…. Et sont tirés d’un vrai entretien écrit et certaines parties sont en direct. Cette méthode d’apprentissage systématique préparera facilement toute personne pour réussir son test sur le framework Apache Spark.
 
 

1. Qu’est-ce qu’une action dans Spark RDD ?

A Crée un ou plusieurs nouveaux RDD

B Prend un RDD en entrée et produit un ou plusieurs RDD en sortie.

C Les moyens d’envoyer le résultat des exécuteurs au pilote

D Toutes les réponses sont vraies

C
Les actions sont des opérations RDD, dont la valeur est renvoyée aux programmes du pilote spark, qui lancent un travail à exécuter sur un cluster. La sortie de la transformation est une entrée des actions. reduce, collect, takeSample, saveAsTextfile, saveAsSequenceFile, countByKey, foreach sont des actions courantes dans Apache spark.

Les actions prend un RDD en entrée et produit un ou plusieurs RDD en sortie.

 

 

2. Lorsque nous voulons travailler avec le dataset actuel, nous utilisons alors une transformation ?

A Vrai

B Faux

C Peut-être

D Je ne sais pas!

B
Une transformation est une fonction qui produit un nouveau RDD à partir des RDD existants, mais lorsque nous voulons travailler avec le dataset actuel, c’est à ce moment-là qu’une action est effectuée. Lorsque l’action est déclenchée après le résultat, le nouveau RDD n’est pas formé comme une transformation.

 

 

3. Les défauts de Hadoop MapReduce ont été surmontés par Spark RDD en ___________

A Traitement en mémoire

B DAG

C Évaluation paresseuse (Lazy-evaluation)

D Toutes les réponses sont vraies

D
Toutes les réponses sont vraies.

 

 
 

4. Que fait le moteur Spark ?

A Planification

B Distribution des données sur un cluster

C Surveillance des données dans un cluster

D Toutes les réponses sont vraies

D
Toutes les réponses sont vraies.

 

 

5. La mise en cache est une technique d’optimisation?

A Vrai

B Faux

C Peut-être

D Je ne sais pas!

A
La persistance et la mise en cache de Spark RDD sont des techniques d’optimisation.

 

 

6. Lequel des éléments suivants est le point d’entrée d’une application Spark?

A SparkSession

B SparkContext

C Les deux A et B

D Aucune de ces réponses

B
SparkContext est le point d’entrée d’une application Spark.

 

 
 

8. SparkContext indique comment accéder au cluster Spark.

A Vrai

B Faux

C Peut-être

D Je ne sais pas!

A
Vrai, SparkContext indique comment accéder au cluster Spark.

 

 

9. Lequel des éléments suivants est le point d’entrée de Spark SQL?

A SparkSession

B SparkContext

C Les deux A et B

D Aucune de ces réponses

A
SparkSession est le point d’entrée de Spark SQL.

 

 
 

10. Lequel des éléments suivants est une solution open-source?

A Apache Spark

B Apache Hadoop

C Apache Flink

D Toutes les réponses sont vraies

D
Toutes les réponses sont vraies.

 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *