Questions technique d’entretien DevOps – Partie 13

Questions d’Entretien sur DevOps avec des réponses pour la préparation des entretiens d’embauche, tests en ligne, examens et certifications. Ces questions et réponses sur DevOps comprennent divers sujets tel que les bases du DevOps, le développement, le déploiement continus, l’automatisation, gestion du configuration, etc… Et sont tirés d’un vrai entretien écrit et certaines parties sont en direct. Cette méthode d’apprentissage systématique préparera facilement toute personne pour réussir son test sur DevOps.
 
 

1. Qu’est-ce qu’un « module » dans Puppet ?

A Un fichier de configuration qui définit l’état d’un système

B Un package logiciel installé sur un serveur

C Un ensemble réutilisable de ressources et de définitions pour gérer une partie de l’infrastructure

D Un test automatisé pour vérifier l’état des serveurs

C
Un module dans Puppet est une unité réutilisable de code qui contient des définitions et des ressources pour gérer un aspect particulier de l’infrastructure, comme la gestion des utilisateurs, des services ou des applications.

 

 

2. Quel est le principal avantage de l’utilisation d’un pipeline multibranches dans Jenkins ?

A Permet de déployer automatiquement sur plusieurs serveurs

B Permet de créer un pipeline distinct pour chaque branche de code, facilitant ainsi les tests et les déploiements parallèles

C Permet de réduire le nombre de tests effectués dans le pipeline

D Permet de travailler sur plusieurs projets Jenkins en même temps

B
Le pipeline multibranches dans Jenkins permet de créer des pipelines distincts pour chaque branche de code, ce qui permet d’exécuter des tests et des déploiements parallèles, tout en maintenant un environnement de CI/CD flexible pour chaque fonctionnalité ou version.

 

 

3. Quelle est la principale différence entre docker exec et docker run ?

A docker exec démarre un nouveau conteneur, tandis que docker run exécute une commande dans un conteneur en cours d’exécution.

B docker exec exécute une commande dans un conteneur déjà en cours d’exécution, tandis que docker run démarre un nouveau conteneur et exécute une commande dedans.

C docker exec est utilisé uniquement pour les images Docker, tandis que docker run est utilisé pour les volumes Docker.

D docker exec démarre un conteneur sans exécuter de commande, alors que docker run démarre un conteneur et exécute une commande.

B
docker run est utilisé pour créer et démarrer un nouveau conteneur à partir d’une image, puis exécuter une commande dedans. docker exec, en revanche, permet d’exécuter une commande dans un conteneur qui est déjà en cours d’exécution.

 

 
 

4. Qu’est-ce qu’AWS Elastic Beanstalk ?

A Un service pour déployer et gérer des bases de données

B Un service pour gérer des conteneurs Docker

C Un service pour déployer des applications web sans gérer l’infrastructure

D Un service pour la gestion des utilisateurs et des permissions

C
AWS Elastic Beanstalk est une plateforme en tant que service (PaaS) qui permet de déployer des applications web sans gérer les détails de l’infrastructure. Il prend en charge plusieurs langages de programmation et frameworks, en automatisant le déploiement, la gestion et la mise à l’échelle des applications.

 

 

5. Que fait la commande docker network ls ?

A Affiche les informations réseau de Docker

B Liste les réseaux Docker existants

C Crée un nouveau réseau Docker

D Affiche la configuration réseau du conteneur

B
La commande docker network ls affiche tous les réseaux Docker actuellement disponibles sur votre machine, permettant de voir les réseaux définis pour les conteneurs.

 

 

6. Quelle est la principale fonctionnalité d’AWS CloudFormation ?

A Surveiller la santé des instances EC2

B Créer et gérer des ressources AWS à l’aide de modèles

C Gérer les utilisateurs et les permissions IAM

D Fournir des services de stockage en nuage

B
AWS CloudFormation permet aux utilisateurs de définir l’infrastructure AWS en utilisant des fichiers de modèle, généralement en JSON ou YAML. Cela permet de provisionner, gérer et supprimer des ressources de manière cohérente et répétable.

 

 
 

7. Quel est le rôle d’AWS CodePipeline dans un environnement DevOps ?

A Il gère la sécurité des instances EC2

B Il permet de gérer les permissions des utilisateurs

C Il est utilisé pour automatiser les workflows de déploiement de logiciels

D Il permet de surveiller les applications en production

C
AWS CodePipeline est un service qui permet d’automatiser le processus de livraison de logiciels en orchestrant les différentes étapes du développement (build, test, déploiement). Il permet de configurer des pipelines pour livrer les applications de manière continue.

 

 

8. Quelle est la différence entre un « Deployment » et un « Pod » dans Kubernetes ?

A Un « Deployment » est une ressource Kubernetes qui gère la création et la mise à l’échelle des « Pods »

B Un « Pod » est un type d’application déployée sur Kubernetes, tandis qu’un « Deployment » est un type de service

C Un « Pod » est une ressource Kubernetes qui déploie des applications, tandis qu’un « Deployment » est utilisé pour la gestion des bases de données

D Un « Deployment » est un composant matériel dans Kubernetes, tandis qu’un « Pod » est un composant logiciel

A
Un « Deployment » dans Kubernetes est utilisé pour gérer le cycle de vie des « Pods », permettant de déployer, de mettre à l’échelle, de mettre à jour et de contrôler l’état de l’application dans les pods. Un pod est l’unité d’exécution dans Kubernetes, pouvant contenir un ou plusieurs conteneurs.

 

 

9. Que se passe-t-il si un conteneur Docker ne dispose pas de port exposé via l’option -p ?

A Il ne pourra pas être exécuté.

B Il sera exécuté, mais il ne pourra pas être accessible depuis l’extérieur du conteneur.

C Il sera exécuté en mode interactif uniquement.

D Il s’exécutera en mode détaché par défaut.

B
Si aucun port n’est exposé via l’option -p, le conteneur s’exécutera normalement mais ne sera pas accessible depuis l’extérieur du conteneur, sauf si vous y accédez via d’autres moyens comme un volume ou un réseau interne.

 

 
 

10. Que permet de faire une image Docker multi-architecture ?

A Permet de créer des images pour différents systèmes d’exploitation

B Permet de créer une image Docker compatible avec plusieurs architectures matérielles (x86, ARM, etc.)

C Permet de déployer des images Docker sur des hôtes distants uniquement

D Permet d’inclure des ressources système dans l’image Docker

B
Les images Docker multi-architecture permettent de construire une image qui peut être exécutée sur différentes architectures matérielles, comme x86 et ARM, ce qui permet de rendre les conteneurs compatibles sur différents types de serveurs.

 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *