| Heure | Durée | Activité |
|---|---|---|
| 9h30–11h00 | 1h30 | Concepts fondamentaux / Principaux types d'IA / Les 3 Ingrédients de l'IA (I et II) |
| 11h00–11h20 | 20 min | Pause |
| 11h20–12h50 | 1h30 | Les 3 ingrédients de l'IA (III. Éléments théoriques / Modèles IA) |
| 12h50–13h30 | 40 min | Pause déjeuner |
| 13h30–15h00 | 1h30 | Exploration IA générative multimodale : Suno AI |
| Heure | Durée | Activité |
|---|---|---|
| 9h30–11h00 | 1h30 | Initiation Python & premières manipulations IA |
| 11h00–11h20 | 20 min | Pause |
| 11h20–12h50 | 1h30 | Applications génératives : texte, image, son |
| 12h50–13h30 | 40 min | Pause déjeuner |
| 13h30–15h00 | 1h30 | Enjeux éthiques, conclusion |
Algorithmes qui suggèrent des contenus, produits ou contacts pertinents à chaque utilisateur.
Objectif : Nous aider à découvrir ce qui nous intéresse parmi une grande quantité de choix
=> mais...
À partir de 2012
(= Deep Learning)
| Préfixe SI | Valeur | Échelle pratique | Échelle longue (EU) | Échelle courte (US) |
|---|---|---|---|---|
| kilo (k) | 10³ | mille | mille | mille |
| méga (M) | 10⁶ | million | million | million |
| giga (G) | 10⁹ | milliard | milliard | billion |
| téra (T) | 10¹² | mille milliards | billion | trillion |
| péta (P) | 10¹⁵ | million de milliards | billiard | quadrillion |
| exa (E) | 10¹⁸ | milliard de milliards | trillion | quintillion |
| zetta (Z) | 10²¹ | mille milliards de milliards | trilliard | sextillion |
| Domaine | Utilisation bots | Bases de données (★) |
|---|---|---|
| Vision | Reconnaissance objets/scènes (robots mobiles, surveillance) | ImageNet ★★★★★ COCO ★★★★☆ |
| Parole | Reconnaissance/parole (assistants, robots accueil) | LibriSpeech ★★★★☆ Common Voice ★★★★☆ |
| Langage | Dialogue/texte (chatbots, robots sociaux) | Wikipedia ★★★★★ Cornell Dialogs ★★★☆☆ |
| Manipulation | Manipuler objets (bras robotisés) | YCB ★★★★☆ KITTI ★★★★☆ |
| Navigation | Se déplacer (robots exploration, domestiques) | Matterport3D ★★★★☆ AI2-THOR ★★★★☆ |
| Geste | Gestes humains (robots interactifs, jeux) | MPII Pose ★★★★☆ Human3.6M ★★★★☆ |
| Multimodal | Comprendre scènes complètes (robots compagnons) | VQA ★★★★☆ AVSD ★★★☆☆ |
| Modèle | Société | Open Source | Taille (paramètres) | Multilingue | Date de création |
|---|---|---|---|---|---|
| Gemma 3 | Google Mind | Oui | Non divulgué (~Trillion*) | Oui | Février 2025 |
| GPT-4o | OpenAI | Non | Non divulgué (~Trillion*) | Oui | Mai 2024 |
| Gemini 1.5 Pro | Google DeepMind | Non | Non divulgué | Oui | Février 2024 |
| Llama 3 | Meta | Oui | 8B, 70B | Oui | Avril 2024 |
| Claude 3 Opus | Anthropic | Non | Non divulgué | Oui | Avril 2024 |
| Mixtral 8x22B | Mistral AI | Oui | 141B (MoE) | Oui | Décembre 2023 |
| Gemma | Oui | 2B, 7B | Oui | Février 2024 | |
| Qwen2-72B | Alibaba | Oui | 72B | Oui | Mai 2024 |
| Yi-34B | 01.AI | Oui | 34B | Oui | Novembre 2023 |
| Mistral 7B | Mistral AI | Oui | 7B | Oui | Septembre 2023 |
| BLOOM | BigScience | Oui | 176B | Oui | Juillet 2022 |
* La taille exacte de GPT-4o n'est pas publique, mais les estimations évoquent plusieurs centaines de milliards à un trillion de paramètres.
MoE = Mixture of Experts (architecture hybride).
Sources : Science (2018), WHO (2020), Deeptrace (2020), EU DisinfoLab (2024)
Sources : Originality.ai (2024), NewsGuard (2024), Europol (2024)
| Pays | Nombre de centres |
|---|---|
| États-Unis | 5 383 |
| Allemagne | 522 |
| Royaume-Uni | 512 |
| Chine | 449 |
| France | 316 |
| Afrique (total) | 167 |
| Tunisie | 4 |