QCM Intelligence Artificielle Corrigé – Partie 19

Questions d’Entretien sur l’intelligence artificielle avec des réponses pour la préparation des entretiens d’embauche, tests en ligne, examens et certifications. Ces questions et réponses sur l’intelligence artificielle comprennent divers sujets tel que les bases de l’intelligence artificielle, comprendre la théorie de l’Intelligence Artificielle, la conception de modèles, le Q-Learning, le Deep Q-Learning, etc… Et sont tirés d’un vrai entretien écrit et certaines parties sont en direct. Cette méthode d’apprentissage systématique préparera facilement toute personne pour réussir son test sur l’intelligence artificielle.
 
 

1. Quel est le risque si on entraîne un modèle trop longtemps ?

A Il devient plus rapide

B Il oublie les anciennes données

C Il supprime les labels

D Il risque de faire de l’overfitting (surapprentissage)

D
Un modèle trop entraîné peut apprendre par cœur les données d’entraînement et perdre sa capacité à généraliser à de nouvelles données. D’où l’intérêt de l’early stopping et de la validation croisée.

 

 

2. Que veut dire “epoch” dans un entraînement IA ?

A Le nombre de couches d’un réseau

B Une erreur de typage

C Un passage complet sur l’ensemble des données d’entraînement

D Une unité de calcul GPU

C
Une epoch est un tour complet du modèle sur toutes les données d’entraînement. On entraîne souvent un modèle sur plusieurs epochs, en ajustant les poids à chaque passage.

 

 

3. Qu’est-ce qu’une “fonction d’activation ReLU” fait exactement ?

A Elle transforme toute valeur négative en 0 et laisse les positives inchangées

B Elle inverse les données

C Elle normalise les labels

D Elle crée des tokens

A
ReLU (Rectified Linear Unit) est une fonction ultra populaire dans les réseaux profonds. Elle accélère l’apprentissage et réduit le risque de gradient qui disparaît. Très simple: ReLU(x) = max(0, x)

 

 
 

4. Qu’est-ce que le “zero-shot learning” ?

A Apprendre sans ordinateur

B Prédire correctement sans avoir vu d’exemples de cette classe en entraînement

C Un apprentissage avec images floues

D Un entraînement accéléré sur GPU

B
Le zero-shot learning permet à un modèle de faire une prédiction sur une classe jamais vue en entraînement, en s’appuyant sur des connaissances transférées (ex : GPT répond à une question même si ce n’est pas exactement dans ses données d’entraînement).

 

 

5. Quelle est l’utilité du “One-Hot Encoding” ?

A Crypter les données

B Prédire correctement sans avoir vu d’exemples de cette classe en entraînement

C Transformer des catégories textuelles en vecteurs binaires utilisables par les modèles

D Réduire le nombre de neurones

C
Le One-Hot Encoding convertit une valeur catégorielle (ex: “chat”, “chien”) en un vecteur où un seul élément vaut 1, les autres sont à 0. Les modèles ne comprennent que les nombres, donc c’est indispensable en prétraitement.

 

 

6. Qu’est-ce que le “batch size” dans l’apprentissage d’un modèle ?

A Le nombre de classes dans le dataset

B Le nombre de couches d’un modèle

C Le nombre d’échantillons traités avant une mise à jour des poids

D La taille maximale du fichier de données

C
Le batch size, c’est le nombre d’exemples que le modèle traite en même temps avant de mettre à jour les poids. Un batch plus petit → entraînement plus stable, mais plus lent. Grand batch → plus rapide, mais parfois instable.

 

 
 

7. Quelle est la principale utilité des modèles de type “transformer” ?

A Filtrer les images floues

B Convertir les modèles classiques en modèles profonds

C Capturer les relations dans des séquences (texte, audio…) plus efficacement que les RNN

D Générer des fonctions mathématiques

C
Les Transformers, comme ceux derrière GPT ou BERT, permettent de traiter des séquences entières en parallèle et de comprendre les relations entre mots même éloignés. C’est le top du NLP moderne.

 

 

8. Si ton modèle a une accuracy de 98 %, est-ce forcément un bon modèle ?

A Oui, toujours

B Non, surtout si le dataset est déséquilibré

C Oui, sauf si le modèle est lent

D Non, sauf s’il utilise une IA forte

B
Un dataset déséquilibré peut donner une fausse bonne impression. Ex: si 98 % des patients ne sont pas malades, prédire “non malade” donne 98 % de précision… mais ne détecte aucun malade ! Faut aussi regarder recall, F1, etc.

 

 

9. Quelle bibliothèque Python est largement utilisée pour le deep learning ?

A NumPy

B Matplotlib

C TensorFlow

D BeautifulSoup

C
TensorFlow (ou PyTorch) sont les géants du deep learning en Python. NumPy est une brique de base pour le calcul, mais TensorFlow permet de créer, entraîner et déployer des modèles neuronaux puissants.

 

 
 

10. Quel est le rôle de la bibliothèque Python “scikit-learn” ?

A Traitement d’images

B Traduction automatique

C Analyse audio

D Machine learning classique (régression, classification, clustering…)

D
scikit-learn est une bibliothèque ultra populaire pour le machine learning traditionnel :

  • régression linéaire,
  • SVM,
  • K-means,
  • arbres de décision, etc.

Elle est très utilisée en phase d’apprentissage, d’expérimentation et de prototypage.

 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *