Didak'lab : explore, règle, expérimente l'IA

Connaissance & entraînement progressifs

Fais grandir pas à pas la bibliothèque d’une IA éducative. Elle répond avec assurance uniquement dans le rayon sélectionné. En dehors, elle le reconnaît et t’invite à changer d’étagère.

IA : Choisis mon niveau d’étude et pose ta question.

Analogie : imagine une personne qui apprend successivement une recette, puis un dictionnaire, puis une encyclopédie. Tant qu’elle n’a pas lu le bon livre, elle invente comme un élève qui n’a pas révisé. L’entraînement, c’est remplir ses étagères.

Cycle de vie de la donnée visuelle

Dessine quelque chose et observe comment l'IA l'interprète selon son stade d'évolution. D'un simple signal bruité à la reconnaissance conceptuelle complète.

1. Stade d'évolution

Interpolation avec un réseau de neurones

Imaginez que vous apprenez à un chef pâtissier à relier des cerises sur un gâteau : vos points sont les cerises et le réseau de neurones va tracer la crème qui les relie. Chaque commande ci-dessous influence la façon dont le chef apprend et mélange sa crème.

Clic gauche : ajouter un point
Clic gauche maintenu : dessiner en continu

Analogie : pensez à saupoudrer du sucre glace. Plus la densité est basse, plus vous pouvez saupoudrer finement sans faire de grumeaux. Plus elle est haute, plus vous espacerez vos gestes.

Couches cachées

Chaque couche est comme un laboratoire où une équipe de chercheurs affine la recette. Ajouter des couches revient à multiplier les étapes de préparation.

Placez au moins 2 points.
0 points
Analogie : c'est le thermostat d'un four. Si vous montez trop haut d'un coup, le gâteau brûle ; si vous restez trop bas, il ne cuit jamais.
Analogie : imaginez répéter un morceau de musique. Trop peu de répétitions et les fausses notes restent ; trop et vous vous épuisez sans gagner en précision.

Perceptron interactif

Configuration manuelle des entrées d'un neurone artificiel. Réglez les 5 "capteurs" (molettes) pour simuler la perception d'un objet. Le perceptron va ensuite tenter d'interpréter la combinaison.

Niveau de Confiance --%

Résultat du traitement

EN ATTENTE

Configurez les molettes et cliquez sur le bouton vert.

Apprentissage, prédiction et génération

Observe comment une IA prédit le mot suivant à partir de probabilités calculées sur son expérience. Elle ne réfléchit pas comme un humain : elle joue aux devinettes statistiques mot après mot.

Analogie : l’IA est comme un·e météorologue des mots. Elle scrute les nuages de phrases qu’elle connaît pour deviner quel mot a le plus de chances de tomber ensuite. Elle ne pense pas au sens profond ; elle suit les statistiques comme on suit la météo.
En attente…

Explication : saisis une amorce de phrase, puis découvre les trois mots les plus probables. Clique sur une barre pour ajouter le mot et continuer la phrase (co-écriture). 🎲

Tokenization : les mathématiques des mots

L'IA ne lit pas de lettres. Elle transforme le texte en nombres (IDs) via des "tokens". Observez ci-dessous comment les mots rares coûtent plus cher en "mémoire" que les mots courants.

Analogie : Imaginez envoyer un télégramme où chaque morceau de mot coûte de l'argent. "Chat" = 1 pièce. "Anticonstitutionnellement" = 6 pièces. L'IA a un budget (fenêtre de contexte) limité.
0
Tokens (Morceaux)
0
Caractères
0%
Densité
Coût Mémoire (Context Window)
0 / 128 unités simulées

ℹ️ À propos du BPE (Byte Pair Encoding)

Qu'est-ce que le BPE? Le BPE est un algorithme de tokenization utilisé par GPT et d'autres modèles modernes. Il divise les mots en sous-unités (tokens). Chaque token correspond à un ID numérique unique.
Comment ça fonctionne?
  • Les mots courants restent entiers (ex: "bonjour" -> ID 2450)
  • Les mots rares sont divisés (ex: "extraordinaire" → "extra" [401] + "ordinaire" [892])
  • L'IA ne manipule que ces nombres [2450, 401, 892] dans ses calculs.

Les tokens et leurs IDs apparaîtront ici...

Attention aux hallucinations

Une IA ne « sait » rien : elle calcule statistiquement le mot suivant. Parfois, elle comble ses lacunes en inventant des faits avec un aplomb total. C'est ce qu'on appelle une hallucination.

Réponse du modèle

En attente d'une question...
ℹ️ Note technique : Pour cet exercice, nous utilisons le modèle google/gemma-3-4b-it.

C'est un "petit" modèle (4 milliards de paramètres). Contrairement aux géants (GPT-5, Claude 4.5, Gemini 3) qui ont lu tout internet et appris à dire "Je ne sais pas", les petits modèles ont plus de "trous" dans leur mémoire et tentent souvent de les combler par la créativité, générant ainsi plus facilement des hallucinations visibles.

La salle de contrôle

Installe-toi aux commandes du modèle Mistral Nemo Instruct 2407. Ajuste chaque paramètre et observe l’impact direct sur les réponses. C’est un peu comme régler les curseurs d’un synthétiseur créatif.

Température = thermostat de créativité : à 0, l’IA récite, à 2 elle improvise comme un·e poète.
Top-p = loupe des possibilités : on garde uniquement les mots dans le pourcentage cumulatif choisi.
Comme un professeur vigilant : plus la pénalité est haute, plus il sanctionne les redondances.
Imagine un sablier : plus le nombre de tokens est grand, plus le sable autorisé à couler est abondant.

Réponse de l’IA

Prêt à répondre. Ajuste les curseurs puis envoie ta requête.

Note pédagogique : chaque paramètre agit sur une dimension particulière. Expérimente en gardant la même question, mais en changeant un seul curseur à la fois. Tu constateras que la température influe sur la fantaisie, le top-p sur la diversité, la pénalité sur la sobriété et la longueur max sur la richesse ou la concision.

L’IA, kézako ?

🔹 Découvre les ingrédients indispensables d’une intelligence artificielle moderne. Chaque point associe une définition claire, une analogie concrète et l’impact pédagogique à retenir.

  1. 1️⃣ Données d’entraînement

    Qu’est-ce que c’est ? La matière première de l’IA : textes, images, vidéos, sons… tout ce qu’elle va « lire » pour apprendre.

    Analogie : Comme un étudiant qui apprend l’histoire en lisant des livres. Plus ils sont nombreux, variés et fiables, mieux il maîtrise le sujet.

    Importance : Les erreurs ou biais contenus dans les données seront reproduits. D’où le fameux garbage in, garbage out.

  2. 2️⃣ Modèle (architecture)

    Qu’est-ce que c’est ? La structure du « cerveau » de l’IA, un réseau de neurones artificiels en plusieurs couches.

    Analogie : Comme un filtre à café : chaque couche affine le résultat.

    Exemples : GPT pour générer du texte, ResNet pour reconnaître des images.

  3. 3️⃣ Paramètres (poids)

    Qu’est-ce que c’est ? Les réglages internes ajustés pendant l’entraînement pour relier entrées et sorties.

    Analogie : Comparable aux souvenirs d’une personne : ils influencent ses réactions.

    Nombre : Les grands modèles possèdent des milliards de paramètres, presque autant que d’étoiles dans une galaxie.

  4. 4️⃣ Hyperparamètres

    Qu’est-ce que c’est ? Les réglages définis avant l’entraînement qui contrôlent la manière d’apprendre.

    Analogie : Comme la température et le temps de cuisson d’un gâteau.

    Exemples : Taux d’apprentissage, nombre d’époques, taille de batch. Mal réglés, ils freinent ou déréglent l’IA.

  5. 5️⃣ Fonction de perte

    Qu’est-ce que c’est ? Une mesure de l’erreur : elle indique la distance entre la réponse de l’IA et la bonne réponse.

    Analogie : Un professeur corrigeant une dictée.

    Types : Classification (ex. chat vs chien), régression (ex. prix d’une maison).

  6. 6️⃣ Optimiseur

    Qu’est-ce que c’est ? L’algorithme qui ajuste les paramètres pour réduire l’erreur.

    Analogie : Un GPS qui recalcule la route après chaque détour.

    Exemples : SGD, Adam.

  7. 7️⃣ Température (IA génératives)

    Qu’est-ce que c’est ? Le curseur qui contrôle la créativité ou le hasard des réponses.

    Analogie : Température 0 : copie fidèle. Température 1 : peinture libre et parfois fantasque.

    Impact : Plus la température est élevée, plus l’IA prend des risques.

  8. 8️⃣ Top-k et top-p

    Qu’est-ce que c’est ? Des méthodes qui limitent les choix de mots pour garder un texte cohérent.

    Analogie : Top-k = dictionnaire réduit aux k mots les plus probables. Top-p = mots couvrant un certain pourcentage de probabilité cumulative.

    But : Éviter de devenir monotone ou hors sujet.

  9. 9️⃣ Régularisation

    Qu’est-ce que c’est ? Des techniques pour empêcher l’IA de tout mémoriser et l’aider à généraliser.

    Analogie : Un élève qui apprend à comprendre plutôt qu’à réciter par cœur.

    Exemples : Dropout, pénalités L1/L2.

  10. 1️⃣0️⃣ Architecture spécifique

    Qu’est-ce que c’est ? Le choix du type de réseau selon la tâche.

    Analogie : Choisir le bon outil : pinceau pour peindre, marteau pour clouer.

    Exemples : Transformer pour le texte, CNN pour les images, RNN/LSTM pour les séries temporelles.