QCM Apache Spark Corrigé – Partie 1
QCM sur le framework Apache Spark avec des réponses pour la préparation des entretiens d’embauche, tests en ligne, examens et certifications. Ces questions et réponses sur le framework Apache Spark comprennent divers sujets tel que les bases du framework Apache Spark, Hadoop, MapReduce, Requêtes interactives, traitement en flux, ETL, Big Data, etc…. Et sont tirés d’un vrai entretien écrit et certaines parties sont en direct. Cette méthode d’apprentissage systématique préparera facilement toute personne pour réussir son test sur le framework Apache Spark.
1. Spark est développé dans quel langage?
A R
B Python
C Scala
D Java
2. Dans Spark Streaming, les données peuvent provenir de quelles sources?
A Flume
B Kafka
C Kinesis
D Toutes les réponses sont vraies
3. Apache Spark dispose d’API en ___________
A Python
B Scala
C Java
D Toutes les réponses sont vraies
4. Lequel des éléments suivants n’est pas un composant de l’écosystème Spark ?
A Sqoop
B MLlib
C GraphX
D BlinkDB
5. Lequel des langages suivants n’est pas pris en charge par Spark ?
A Java
B Pascal
C Python
D Scala
6. Les utilisateurs peuvent facilement exécuter Spark sur le serveur ________ d’Amazon.
A EMR
B Infosphere
C Nginx
D EC2
7. Indiquez l’affirmation correcte.
A Spark permet aux utilisateurs d’Apache Hive d’exécuter leurs requêtes non modifiées beaucoup plus rapidement.
B Spark n’interagit qu’avec Hadoop
C Spark est une solution populaire de stockage de données fonctionnant grâce à Hadoop.
D Aucune de ces réponses
8. Spark fonctionne sur ___________, un système de gestion de clusters qui assure une isolation efficace des ressources pour les applications distribuées.
A Mesjs
B Mesos
C Mesus
D Toutes les réponses sont vraies
9. Lequel des éléments suivants peut être utilisé pour lancer des jobs Spark à l’intérieur de MapReduce ?
A SIM
B SIR
C SIMR
D RIS
10. Indiquez l’affirmation incorrecte.
A Spark est destiné à remplacer, la pile Hadoop
B Spark a été conçu pour lire et écrire des données depuis et vers HDFS, ainsi que d’autres systèmes de stockage.
C Les utilisateurs d’Hadoop qui ont déjà déployé ou qui prévoient de déployer Hadoop Yarn peuvent simplement exécuter Spark sur YARN.
D Aucune de ces réponses