[Table ronde] C'est quoi l'IA ?
S01:E15

[Table ronde] C'est quoi l'IA ?

Paris, France

Episode description

Cette table ronde explore les fondements de l’Intelligence Artificielle, de son histoire à ses applications modernes, en passant par ses différentes approches et techniques.
Nous discutons des avancées récentes, notamment l’apprentissage profond, les modèles de langage comme GPT et l’impact croissant de l’IA dans des domaines variés, de la santé au développement durable.
Enfin, le débat soulève les défis éthiques et techniques posés par l’IA, questionnant ses limites et son avenir.

Liens :

Download transcript (.srt)
0:28

[Benjamin] Bonjour, bienvenue dans RdGP, le podcast sérieux qui vous emmène au cœur des enjeux des droits numériques, des libertés individuelles et de la vie privée.

0:35

[Benjamin] Avec un ton accessible, engagé mais bienveillant, nous essayons de démystifier ces risques et ces dangers qui envahissent nos quotidiens.

0:42

[Benjamin] Aujourd'hui un épisode un peu spécial, sans AERIS, un format un peu différent, une table ronde, et nous allons parler d'intelligence artificielle.

0:58

[Benjamin] Bonjour messieurs, puisque c'est une table ronde, on va faire un tour de table. Est-ce que vous pouvez vous présenter les uns après les autres ?

1:05

[Benoît] Bonjour, je suis Benoit Mésognon, ingénieur de recherche.

1:08

[Benoît] en intelligence artificielle appliquée à l'architecture.

1:14

[Cyril] Bonjour, je m'appelle Cyril Hadji-Thomas et je suis ingénieur tout court.

1:19

[Cyril] mais j'ai à peu près 30 ans d'expérience dans des projets...

1:23

[Cyril] autour de l'intelligence artificielle.

1:26

[André] Bonjour, je suis ingénieur récemment diplômé de McGill.

1:30

[André] et je me spécialise dans l'intelligence artificielle pour le développement durable et les enjeux environnementaux.

1:36

[Benjamin] et tu n'as pas de prénom.

1:41

[Benjamin] Donc on est réunis aujourd'hui pour parler d'intelligence artificielle.

1:46

[Benjamin] On va commencer par voir qu'est-ce qu'il y a derrière l'intelligence artificielle, qu'est-ce que ça veut dire.

1:51

[Benjamin] qu'est ce qu'on en fait ?

1:52

[Benjamin] d'où ça vient.

1:54

[Benjamin] Et pour commencer, je me tourne vers mon voisin de gauche.

1:59

[Benjamin] Est-ce que tu, Bonoît, tu pourrais nous expliquer...

2:03

[Benjamin] qu'est ce que c'est l'intelligence artificielle ? Qu'est ce qu'on entend par intelligence artificielle ?

2:07

[Benoît] Alors c'est une vaste question, on va éviter de se lancer dans un débat philosophique de 1 heure.

2:13

[Benoît] Mais je vais commencer par la définition du Parlement européen qui est que c'est un outil utilisé par une machine capable de reproduire des comportements liés aux humains tels que le raisonnement.

2:25

[Benoît] la planification et la créativité.

2:27

[Benoît] Alors cette définition elle a plusieurs défauts, notamment le fait qu'on peut quasiment tout classifier comme intelligence artificielle. Par exemple, une climatisation.

2:35

[Benoît] C'est quelque chose qui régule la température de façon à ce qu'elle soit toujours constante par rapport à une température fixée.

2:42

[Benoît] Donc, techniquement, c'est une intelligence artificielle parce qu'un animal n'est pas capable de faire ça.

2:47

[Benoît] Mais en tout cas, c'est ce qu'on définit aujourd'hui comme l'intelligence artificielle.

2:51

[Benjamin] Tu laisses entendre que cette définition est un peu lacunaire parce qu'on peut tout mettre dedans. Comment est-ce que toi tu définirais l'intelligence artificielle d'une manière plus précise ?

3:01

[Benjamin] Si toi tu devais avoir à l'écrire la définition de l'intelligence artificielle, qu'est-ce que tu dirais ?

3:06

[Benoît] Alors, je pense qu'il faudrait au minimum inclure une notion de complexité de la tâche réalisée par la machine.

3:13

[Benoît] et je pense qu'il faudrait limiter l'intelligence artificielle à des tâches.

3:20

[Benoît] mérite un apprentissage même par un être humain. C'est-à-dire que par exemple, régler une clim, un être humain qui n'est pas entraîné peut le faire. Il regarde juste un thermomètre et puis il met plus ou moins selon la température qu'il fait.

3:32

[Benoît] Mais par contre...

3:34

[Benoît] apprendre à calculer extrêmement rapidement, ça il faut de l'entraînement. Donc j'inclurais la notion de complexité de...

3:41

[Benoît] de raisonnement humain.

3:44

[Benjamin] Et donc pour toi, le climatiseur n'est pas de l'intelligence artificielle parce que n'importe qui peut le faire sans entraînement.

3:50

[Benoît] Voilà.

3:51

[Benjamin] D'accord, ok, donc en fait c'est reproduire un comportement qui a nécessité un apprentissage.

3:56

[Benoît] enfin qui nécessiterait un apprentissage si c'était un être humain qui le ferait.

4:01

[Benjamin] Ok, merci Benoît. L'intelligence artificielle ça date de quand ? Parce que on a tous en tête les photos du pape en doudoune, le tchat GPT...

4:16

[Benjamin] fait connaître l'intelligence artificielle au grand public, mais...

4:19

[Benjamin] Je me semble que c'est un tout petit peu plus vieux, Cyril tu peux nous en dire plus ?

4:25

[Cyril] L'intelligence artificielle dans l'idée des philosophes et des mathématiciens, c'est très ancien.

4:32

[Cyril] Mais en tout cas, quand je donne mon cours à mes étudiants sur l'intelligence artificielle...

4:37

[Cyril] Je la commence en 1956

4:40

[Cyril] à la conférence de Darth Moose.

4:42

[Cyril] où Minsk et McCarthy ont proposé...

4:47

[Cyril] l'intelligence artificielle comme domaine de recherche en mathématiques et...

4:52

[Cyril] En informatique, alors une informatique était naissante.

4:54

[Cyril] mais qui a quand même donné l'objet à beaucoup d'expériences.

5:01

[Cyril] la reconnaissance d'image

5:13

[Cyril] On a un premier âge où on a utilisé ces premiers ordinateurs.

5:19

[Cyril] pour développer des algorithmes.

5:23

[Cyril] et ce premier âge s'est fini grosso modo au milieu des années 70.

5:32

[Cyril] intelligence artificielle.

5:34

[Cyril] Il y a un deuxième âge où en fait on a commencé à s'intéresser notamment aux six M experts

5:42

[Cyril] Et ça, c'est avec le développement notamment de la micro-informatique, on s'est dit, grâce à l'informatique, on va pouvoir faire faire à des ordinateurs qui sont...

5:49

[Cyril] plus transportable qu'on peut mettre dans des machines, dans des avions, un peu partout.

5:53

[Cyril] et on va leur faire faire ce que fait un humain.

5:56

[Cyril] sur des problèmes bien cernés.

5:58

[Cyril] Donc un système expert c'est dans une base de règles.

6:03

[Cyril] disant si c'est comme ça, voilà si par exemple ton avion

6:07

[Cyril] penche vers la gauche, rétabli l'assiette et inversement.

6:12

[Cyril] et c'est comme ça qu'on fait un pilote automatique.

6:22

[Cyril] Mais ce n'est pas un algorithme extrêmement complexe au regard de ce qu'on arrive à faire aujourd'hui. Cela dit, ça a existé déjà dans les années 80.

6:30

[Cyril] Ça a peu stagné et on dit qu'il y a un deuxième hiver alors qu'on en emmène jusqu'à...

6:43

[Cyril] Diblou c'était le jeu, enfin l'intelligence artificielle de DBM qui a battu Kasparov.

6:53

[Cyril] aux échecs.

6:55

[Cyril] Et là, on a dit en 1997, quand c'était le cas...

7:00

[Cyril] que c'était un nouvel essor de l'intelligence artificielle.

7:05

[Cyril] Alors il se trouve que moi j'ai commencé l'intelligence artificielle en tant qu'étudiant

7:09

[Cyril] dans les années 90 donc plutôt 1993-1994.

7:14

[Cyril] Et il y avait des gens qui travaillaient sur le sujet activement. Yann Lequin qui est aujourd'hui le patron de l'IA.

7:30

[Cyril] en reconnaissance d'image et reconnaissance de caractère.

7:33

[Cyril] Moi je faisais dans le labo, j'étais étudiant pour optimiser des algorithmes d'apprentissage sur l'analyse d'image.

7:41

[Cyril] C'était déjà un sujet actif mais dont les applications étaient pas visibles au public.

7:49

[Cyril] Maintenant si on ramène...

7:51

[Cyril] à l'époque on va dire plus contemporaine, plus récente.

7:57

[Cyril] On pourrait dire que l'intelligence artificielle a vu un nouvel essor.

8:02

[Cyril] à partir des années 2010-2012.

8:05

[Cyril] quand notamment l'apprentissage profond...

8:11

[Cyril] les premiers articles et les premières applications.

8:14

[Cyril] Et là, ça a été l'explosion parce qu'effectivement, les applications...

8:17

[Cyril] ont été extrêmement visibles pour le grand public, y compris...

8:21

[Cyril] pour le grand public, pour l'industrie et pour les chercheurs.

8:25

[Benjamin] Alors on va revenir je pense sur l'apprentissage profond et puis toutes les branches de l'IA parce qu'elles sont très nombreuses. Aujourd'hui on parle beaucoup de LLM mais LLM c'est une des branches

8:35

[Benjamin] de l'intelligence artificielle et il y en a beaucoup.

8:40

[Benjamin] juste pour récapituler un peu sur l'histoire.

8:44

[Benjamin] Parce qu'en préparant tu m'as montré un peu...

8:47

[Benjamin] l'espèce de courbe d'évolution de l'intelligence artificielle ou tout.

8:54

[Benjamin] Tu as distingué quatre étapes.

8:57

[Benjamin] ou quatre types d'intelligence artificielle et je trouvais ça assez éclairant.

9:05

[Benjamin] on a tendance à avoir un regard...

9:08

[Benjamin] un peu obtue sur l'IA.

9:11

[Benjamin] tu peux nous rappeler quelles sont les quatre grandes familles d'IA ?

9:16

[Cyril] Alors en fait, l'échelle que je t'ai montrée, qu'on va probablement retrouver dans les cheveux notes du podcast...

9:22

[Cyril] C'est une échelle de la complexité de ce que sait faire une intelligence artificielle.

9:28

[Cyril] en comparaison avec ce que c'est faire un humain.

9:31

[Cyril] Donc l'idée c'est que si ça doit imiter l'intelligence d'un humain, bah...

9:35

[Cyril] ce que fait un humain, comme tu disais tout à l'heure avec le Benoît, avec le...

9:40

[Cyril] climatiseur, ce n'est pas forcément tout au même niveau.

9:43

[Cyril] Donc là, le premier niveau, ce que j'appelle l'automatisation, c'est-à-dire faire marcher.

9:47

[Cyril] Une machine comme si un humain le pilotait.

9:50

[Cyril] Donc c'est ce dont je parlais tout à l'heure.

9:56

[Cyril] autopilote.

9:57

[Benjamin] ou un climatiseur.

9:58

[Cyril] Alors non pas un climatiseur, parce que un climatiseur...

10:02

[Cyril] en fait lui se contente de maintenir une même température.

10:05

[Cyril] mais finalement son champ d'action est assez limité. Notamment il ne pourra rien faire si la température extérieure monte beaucoup.

10:17

[Cyril] alors qu'un a priori

10:19

[Cyril] un pilote automatique d'avion, il est capable quand même de maintenir l'avion sur la bonne direction.

10:25

[Cyril] voire même de changer de direction.

10:27

[Cyril] y compris quand les conditions extérieures ne sont pas complètement optimales.

10:31

[Benjamin] Un climatiseur en fait, c'est un trigger de Schmitz.

10:33

[Benjamin] Et ça ça rentre pas dans le cadre de l'IAD après toi. Benoît t'es d'accord ?

10:39

[Cyril] Par contre, un autofocus...

10:41

[Cyril] C'est de la logique floue.

10:43

[Cyril] et c'est une des premières vraiment...

10:46

[Cyril] très simple, mais application de ce que peut être un algorithme qui imite

10:50

[Cyril] le comportement d'un homme. Alors c'est pas très compliqué non plus, la logique floumée, mais c'est quand même déjà une étape un peu supérieure.

10:57

[Cyril] Et puis après, l'anti-spam, par exemple, qui va trier le courrier, qui existe depuis très longtemps.

11:02

[Cyril] C'est des réseaux baïdiens, c'est très simple.

11:08

[Cyril] Et voilà, c'est pas compliqué.

11:12

[Benjamin] Ouais, réseau baisien en gros pour simplifier c'est des stats sur des nombres d'occurrences de certains mots qui permettent de dire que c'est probablement un spam et de lui attribuer un score.

11:22

[Cyril] Oui, mais on peut faire de l'apprentissage avec un réseau baésien.

11:27

[Cyril] Donc c'est déjà une première façon de...

11:29

[Cyril] de mobiliser une base de connaissances pour pouvoir faire à la machine des choses un peu plus sophistiquées que juste des règles prédéfinies.

11:35

[Benjamin] chaque fois que je reçois un mail, si c'est un spam je dis ça c'est un mail et du coup la machine va enrichir son modèle. Ok.

11:40

[Cyril] exemple. Voilà et puis je peux prendre une base de spam pour le l'UFR apprendre.

11:45

[Cyril] Après le deuxième stade un peu plus compliqué c'est imiter l'homme.

11:49

[Cyril] imiter l'homme dans ses fonctions basiques.

11:52

[Cyril] Alors, imiter l'homme dans ses fonctions basiques mais qu'il a quand même mis quelques années à apprendre.

12:00

[Cyril] qu'un humain normal met 2-3 ans à apprendre.

12:03

[Cyril] L'intelligence artificielle elle met, bah ça dépend ce qu'on lui a fait apprendre mais...

12:08

[Cyril] mais peut-être quelques jours ou quelques mois.

12:11

[Cyril] sauf qu'on compense le temps qu'a mis un humain par la quantité d'informations qu'on a fait nourrir.

12:17

[Cyril] à un algorithme qui là dans ce cas là un algorithme d'apprentissage dans ce cas mais on en reparlera après

12:23

[Cyril] mais finalement imiter un humain c'est pas très complexe parce qu'en fait n'importe quel humain est capable de le faire

12:30

[Cyril] Il ne faut pas être un génie pour savoir parler ou dessiner.

12:33

[Cyril] mais c'est quand même très compliqué pour une machine de guérisse.

12:37

[Benjamin] et donc de la reconnaissance de forme.

12:39

[Benjamin] ça rentre dans cette catégorie là.

12:40

[Cyril] Exactement. Donc ce qu'on appelle Machine Vision historiquement.

12:44

[Cyril] en anglais

12:45

[Cyril] donc la reconnaissance d'image, de forme, la reconnaissance de caractère.

12:52

[Cyril] de cette logique d'imitation.

12:55

[Cyril] de base, c'est-à-dire j'arrive à faire ce que ferait un humain normalement, sans lui avoir appris une compétence particulière à part se comporter en société.

13:06

[Cyril] C'est-à-dire grosso-mono, une intelligence artificielle qui sait faire ça...

13:09

[Cyril] elle correspond à un humain entre

13:12

[Cyril] 4 et 10 ans.

13:15

[Cyril] c'est-à-dire quelqu'un de normal quoi.

13:18

[Cyril] L'étape supérieure, et là on commence à aborder des choses que seul un humain spécialisé...

13:31

[Cyril] ce que moi je résume par optimiser.

13:34

[Cyril] Optimiser, parfois, ce n'est pas possible à faire par un humain.

13:37

[Cyril] parce que c'est trop complexe mathématiquement mais en général.

13:40

[Cyril] grâce à notre cerveau, nos biais, notre heuristique, etc.

13:45

[Cyril] Un humain est capable, s'il a de l'expérience...

13:48

[Cyril] de gérer un certain nombre de choses complexes.

13:50

[Cyril] Donc typiquement, un réseau logistique, passer des commandes...

13:55

[Cyril] par exemple de commander un fournisseur.

13:58

[Cyril] définir le prix d'un billet d'avion. Avec un bon fichier Excel, il y arrive.

14:03

[Benjamin] Le Yield Management ça rentrerait là dedans ?

14:05

[Cyril] C'est exactement là que ça rentre.

14:06

[Cyril] rentre. C'est à dire je vais utiliser un historique, une probabilité.

14:11

[Cyril] de réservation à un tenté pour dire si mon avion est plus ou moins plein, je vais augmenter ou baisser le prix de mon vol. Alors en fait, on l'augmente rarement dans les line management, on baisse le prix.

14:21

[Cyril] faire rentrer les gens.

14:23

[Cyril] Donc on part d'un prix nominal qui est le prix...

14:35

[Cyril] un calcul qui a été fait par une machine.

14:41

[Cyril] en gros, en somme de, c'est des statistiques complexes.

14:43

[Cyril] ou des probabilités complexes.

14:46

[Cyril] ça peut nécessiter un apprentissage, peut avoir plein de techniques.

14:56

[Cyril] plus ou moins sophistiquées.

14:58

[Cyril] Benoît en parlera mieux que moi parce que c'est sa spécialité.

15:02

[Cyril] mais a priori c'est à la portée d'un humain, d'un professionnel avec des outils.

15:08

[Cyril] il ferait pas forcément aussi bien, il ferait pas forcément aussi vite.

15:12

[Cyril] et surtout il n'est pas forcément sûr d'avoir

15:22

[Cyril] Et le troisième niveau...

15:26

[Cyril] C'est ce que moi j'appelle le niveau surhumain.

15:28

[Cyril] C'est-à-dire quelque chose que presque aucun humain est capable de faire.

15:34

[Cyril] niveau, c'est ce que j'appelle concevoir et prévoir.

15:42

[Cyril] d'imaginer pour une machine des choses qu'un humain sait pas faire tout seul, et voire même...

15:48

[Cyril] avec des outils.

15:49

[Cyril] Par exemple, ce qu'a fait DeepMind sur la projection de protéines en 3D à partir d'un code génétique.

15:56

[Cyril] impossible même à un humain avec des outils de le faire tout seul.

16:00

[Cyril] Et donc c'est la première fois qu'on arrive à le faire.

16:04

[Cyril] à partir d'une séquence

16:15

[Cyril] la forme en 3D que va prendre une molécule, ce qui est absolument génial quand on veut, par exemple, ça...

16:21

[Cyril] synthétiser ou imaginer un médicament.

16:24

[Cyril] C'est ce qu'on fait dans un domaine un tout petit peu plus...

16:30

[Cyril] noir quand on fait de la sécurité à très grande échelle.

16:39

[Cyril] vont espionner les gens pour voir s'il y a des comportements suspects ou des liens entre les personnes qui pourraient par exemple permettre de démonter.

16:47

[Cyril] du blanchiment lent, du trafic de drogue, etc.

16:50

[Cyril] Et puis après, il y a toutes les questions environnementales.

16:54

[Cyril] qui sont extrêmement complexes.

16:57

[Cyril] et qu'il faut intégrer dans nos décisions quotidiennes et c'est quasiment impossible

17:02

[Cyril] de faire tout ça soi-même.

17:04

[Cyril] parce que l'échelle est trop grande et la complexité est trop grande.

17:08

[Benjamin] Donc dans les usages qu'on voit se démocratiser ces derniers mois, on est plutôt dans la quatrième étape.

17:19

[Cyril] ce qu'on voit ces derniers mois, c'est beaucoup les robots conversationnels.

17:27

[Cyril] Alors, j'ai pas dit que c'était simple à faire.

17:29

[Cyril] Mais du point de vue de la complexité...

17:32

[Cyril] on va dire, du comportement humain qu'on imite.

17:37

[Cyril] c'est finalement assez basique. Donc on dépense beaucoup beaucoup d'énergie.

17:41

[Cyril] beaucoup d'intelligence d'ailleurs, de chercheurs etc.

17:46

[Cyril] pour aller faire des choses très très basiques.

17:48

[Cyril] à des grandes échelles certes, mais très très basiques.

17:51

[Benjamin] Ok, alors juste pour récapituler les quatre étapes, c'est des étapes...

17:58

[Benjamin] Comment est-ce que tu appelles ça ?

17:59

[Cyril] Non moi c'est une échelle, c'est-à-dire que l'idée c'est que je les ai caté.

18:02

[Benjamin] Donc c'est des barreaux d'échelle.

18:02

[Cyril] C'est des barreaux d'échelle pour dire c'est plus ou moins ça a plus ou moins de valeur en fait

18:14

[Cyril] c'est mieux d'avoir une machine, le quatrième tu ne pourrais pas faire sans. Donc ça, ça a une vraie valeur.

18:19

[Benjamin] je vais les relister donc c'est un automatiser, deux imiter, trois optimiser et quatre concevoir et prévoir.

18:27

[Benjamin] Donc si on reprend des exemples, 1 c'est l'autofocus, l'anti-spam.

18:32

[Benjamin] 2 c'est parler, écouter, voir. 3 c'est la consommation électrique, les prix des billets.

18:37

[Benjamin] Et 4, c'est la météo, les protéines, la sécurité.

18:44

[Cyril] En partie, oui.

18:45

[Benjamin] Ok, c'est déjà beaucoup plus clair.

18:48

[Benjamin] Si ça vous va, j'aimerais bien qu'on parle un peu des différents...

18:53

[Benjamin] des différentes branches.

18:56

[Benjamin] que j'ai évoqué tout à l'heure.

18:57

[Benjamin] Parce que quand on parle d'IA, il y a souvent énormément de mots que personne ne comprend.

19:04

[Benjamin] En tout cas j'imagine que...

19:06

[Benjamin] sont pas nombreux à les connaître tous.

19:09

[Benjamin] Et donc on entend, les mots qu'on entend le plus souvent aujourd'hui, ben c'est IA

19:13

[Benjamin] GPT et LLM.

19:16

[Benjamin] Je pense que ça tout le monde l'entend. On l'entend aussi un peu parler de deep learning.

19:22

[Benjamin] d'apprentissage.

19:24

[Benjamin] est-ce que Benoît, par exemple, tu peux nous expliquer un peu...

19:32

[Benjamin] de l'intelligence artificielle.

19:35

[Benjamin] et comment est-ce que ces familles...

19:41

[Benjamin] s'organise.

19:42

[Benoît] Oui alors tous les termes que tu as cités rentrent dans la catégorie... J'ai fait du name dropping, j'aime bien.

19:48

[Benjamin] J'ai fait du name dropping, j'aime bien.

19:50

[Benoît] Tout à fait, mais ça rentre en fait dans la catégorie de ce qu'on appelle les réseaux de neurones. Donc il faut expliquer ce que c'est qu'un réseau de neurones.

19:58

[Benjamin] Alors attends, excuse-moi, du coup je t'interromps avant que tu aies commencé, désolé.

20:01

[Benjamin] Il y a de l'IA sans réseau de neurones.

20:03

[Benoît] Ah bien sûr, il y a de l'as en résonnant.

20:05

[Benjamin] Ok.

20:05

[Benoît] mais tous les termes que tu as cités en tout cas ça rentre dans une sous catégorie qui s'appelle les raisons neuronaux. Mais il n'y a pas que des raisons neuronaux, non il y en a.

20:12

[Benoît] Mais aujourd'hui effectivement c'est ceux dont on entend le plus parler parce qu'on entend parler beaucoup d'agents conversionnels donc GPT...

20:19

[Benoît] et ils sont basés essentiellement sur des réseaux NURN.

20:25

[Benoît] c'est un peu le terme qu'il y a à l'amplemment.

20:27

[Benoît] Donc un réseau de neurones, qu'est-ce que c'est ? En fait, c'est simplement une façon de modéliser mathématiquement la probabilité dont tu parlais tout à l'heure, Cyril.

20:36

[Benoît] En gros, par exemple, si je fais une phrase, quelle est la vérité que tel mot vient après tel mot ?

20:45

[Benoît] Au départ, on peut faire des modèles très simples.

20:49

[Benoît] Les réseaux neurones, c'est une certaine forme de modèle.

20:51

[Benjamin] Alors je vais poser une question idiote.

20:53

[Benjamin] Est-ce que les réseaux de neurones ont un rapport quelconque avec les neurones qu'on a dans le cerveau ?

20:58

[Benoît] Oui, alors la forme mathématique des réseaux de neurones est inspirée de la fraction dont les neurones fonctionnent.

21:08

[Benoît] C'est-à-dire que le modèle le plus simple aujourd'hui du fonctionnement neuronal, c'est un système de nœuds qui sont connectés.

21:15

[Benoît] et un nœud envoie une information à un suivant, qui envoie une information à plusieurs suivants, etc. et l'information se propage de nœuds en plus en plus de nœuds.

21:26

[Benoît] Et donc, un réseau de neurones mathématiques imite ce fonctionnement en propageant une information.

21:33

[Benoît] à différentes fonctions de façon ce qu'on appelle récursive.

21:37

[Benjamin] Donc de manière informatique on a modélisé ce modèle mathématique.

21:42

[Benoît] Voilà, exactement.

21:43

[Benoît] Donc ça, c'est les réseaux de neurones.

21:48

[Benoît] La sous-branche suivante, c'est ce qu'on appelle l'apprentissage profond, donc le deep learning.

21:54

[Benoît] Donc en fait, c'est assez simple.

21:56

[Benoît] le deep learning, c'est de l'intelligence artificielle qui utilise des réseaux de neurones extrêmement compliqués.

22:05

[Benoît] pour reprendre l'analogie des neurones, énormément, énormément de couches de neurones ou énormément, énormément de neurones. Donc l'information se propage à travers de très nombreuses couches et chaque couche est composée de nombreux neurones.

22:16

[Benoît] Donc c'est simplement ça qui définit l'apprentissage profond par rapport à un apprentissage pas profond. C'est la taille en fait du réseau de neurones qu'on utilise pour faire de l'intelligence artificielle.

22:26

[Benjamin] Et donc comme on va descendre dans les couches, on descend profondément, on appelle ça Deep Learning.

22:31

[Benoît] Voilà, exactement.

22:33

[Benjamin] et ça a des conséquences par exemple sur les types de machines qu'on peut utiliser

22:37

[Benoît] Alors oui, plus les réseaux de neurones mathématiques est compliqué, plus ça va être compliqué de l'optimiser de façon à ce qu'ils répondent aux besoins qu'on veut. Donc par exemple pour un genre conversationnel, le besoin c'est de comprendre comment on crée du langage. Donc pour arriver à ça, il faut faire des réseaux de neurones extrêmement profonds et plus il y a de neurones entre guillemets, plus il y a de calculs qui sont faits et donc plus il va falloir des machines puissantes.

23:03

[Benoît] Donc d'où la problématique aujourd'hui de...

23:05

[Benoît] la taille des serveurs de calcul sur lesquels sont ce qu'on appelle entraînés.

23:13

[Benoît] qui m'amène du coup au terme suivant qui est l'apprentissage. Qu'est ce que ça veut dire d'apprentissage ?

23:19

[Benoît] Qu'est-ce que ça veut dire d'entraîner un réseau de neurones ? Eh bien c'est simple.

23:22

[Benoît] Le modèle mathématique, c'est qu'on a une fonction très compliquée avec énormément énormément de paramètres.

23:28

[Benoît] et la question c'est comment on choisit ces paramètres alors on ne les choisit évidemment pas au hasard

23:33

[Benoît] Ce qu'on fait c'est qu'on prend une base d'exemples. Donc par exemple pour le langage, il suffit de prendre un corpus de texte avec énormément, énormément de texte.

23:41

[Benoît] Donc évidemment des textes...

23:43

[Benoît] qui sont syntaxiquement correctes.

23:46

[Benjamin] des livres, des dictionnaires, des encyclopédies.

23:50

[Benoît] Voilà, exactement, typiquement, où tout le contenu qui est sur Internet, par exemple.

23:55

[Benoît] et on essaye de faire une optimisation qui consiste à dire quels sont les coefficients.

24:01

[Benoît] qui font que quand je vais passer du langage dans ma fonction mathématique, à la fin...

24:05

[Benoît] j'obtienne un objet qui comprend ce que c'est qu'une phrase. Et donc ça c'est ce qu'on appelle l'apprentissage, cette partie d'optimisation c'est l'apprentissage.

24:15

[Benjamin] Ok, et alors comment est-ce qu'on passe de ça à un LLM par exemple ou un GPT ?

24:20

[Benoît] Alors, GPT c'est simplement un modèle qui...

24:25

[Benoît] qui est en fait c'est un métamodèle, c'est à dire qu'il a plusieurs sous-modèles de raisonnons.

24:31

[Benoît] Après on va pas rentrer dans la taxonomie de tous les réseaux de neurones parce que c'est un peu compliqué mais il y a ce qu'on appelle des réseaux de neurones...

24:37

[Benoît] à courte mémoire, à longue mémoire, à courte mémoire, à long terme, etc.

24:44

[Benoît] Ce qui les distingue, c'est simplement les cas d'utilisation et leurs efficiences dans différentes situations. Typiquement dans le langage, il y a ce qu'on appelle des longues short-time memories.

24:57

[Benoît] neural network, donc des réseaux de neurones à longue mémoire à court terme. Donc c'est des réseaux de neurones qui sont capables, en fait, quand on est loin, à partir du début d'une phrase, de se souvenir de ce qu'il y avait au début de la phrase. Donc ce qui est utile quand on veut extraire de l'information d'une phrase.

25:14

[Benoît] Donc ça, c'est les modèles qui ont été très utiles au début de ce qu'on appelle le traitement naturel du langage, c'est-à-dire l'utilisation d'intelligence artificielle pour comprendre le langage humain.

25:27

[Benoît] Et après GPT en fait ne fait que agréger des modèles comme ça avec des couches de plus en plus grandes de modèles et donc c'est un espèce de métamodèle énorme avec énormément de couches de sous-modèles.

25:38

[Benjamin] Alors juste une parenthèse parce que on parle de GPT et on pense forcément à chat GPT

25:48

[Benjamin] qu'un exemple de transformeurs génératifs pré-entrainés. Donc GPT, Generative Pre-Train Transformer.

25:57

[Benjamin] C'est un des outils.

26:00

[Benoît] Oui, absolument, c'est un des outils. Après, effectivement, bon, là, j'ai parlé beaucoup de traitement naturel du langage, mais il y a beaucoup le traitement d'image qui est en ce moment en plein essor également. Donc la génération d'image, par exemple, comment...

26:13

[Benoît] à partir d'une simple description textuelle, on génère une image qui correspond à la description. Donc ça c'est le même type d'objets qui est derrière, c'est des réseaux de neurones et c'est des accumulations de couches de réseaux de neurones qui font des méta-modèles très compliqués. Alors, comment on construit un tel modèle ?

26:32

[Benoît] C'est un peu compliqué, c'est du métier. C'est, je pense, beaucoup, beaucoup d'itération.

26:39

[Benoît] Mais effectivement, c'est le même principe, sauf que ce n'est pas la même utilisation, c'est la génération d'images en l'occurrence.

26:44

[Benjamin] Et puis après on a les robots conversationnels qu'on connaît tous très bien.

26:48

[Benjamin] qui eux agrègent un petit peu plusieurs fonctionnalités.

26:52

[Benoît] Oui, exactement. Effectivement, ils font un peu tout. Après, je pense que les agents conversationnels, en fait...

27:00

[Benoît] font selon la fonction qu'on leur demande une bascule vers un ou plusieurs métamodels. Typiquement sur GPT aujourd'hui on peut lui demander de générer une image, il va basculer sur un métamodel de ce qui s'appelait DAL-E avant qui était simplement un modèle qui générait des images. Et si on lui demande d'écrire un poème, il va basculer sur un autre modèle qui est plutôt optimisé pour générer du texte.

27:22

[Benjamin] Et ça en fait moi en tant qu'utilisateur lambda quand je suis sur le chat GPT ou un autre je le vois pas forcément qu'il est en train de basculer et d'utiliser un outil ou un autre.

27:32

[Benoît] Non pas du tout, en fait c'est transparent pour nous donc c'est plutôt bien fait dans ce sens interface utilisateur mais effectivement derrière il y a énormément de fonctions différentes, de métamodels différents et il y a probablement une usine à gaz...

27:46

[Benoît] dont on ne soupçonne pas l'étendue.

27:50

[Cyril] Oui oui je pense qu'il faut distinguer...

27:53

[Cyril] l'interface

28:09

[Cyril] la machine répond avec du langage.

28:12

[Cyril] Ce qui n'a pas toujours été le cas en informatique, ça...

28:15

[Cyril] peut être quand même différent.

28:17

[Cyril] on peut avoir des graphes, on peut avoir plein de choses comme pour interagir avec un humain.

28:22

[Cyril] Et après ce qui est derrière ça peut être complètement autre chose.

28:24

[Cyril] donc il génère une image. Je vais utiliser un algorithme de diffusion.

28:33

[Cyril] d'apprentissage et d'intelligence artificielle, mais je pourrais très bien générer du texte avec Codex par exemple pour...

28:42

[Cyril] générer du code.

28:44

[Cyril] Et je crois, il me semble qu'André...

28:48

[Cyril] toi tu utilises des foundation model, des outils du type

28:54

[Cyril] mais pour faire complètement autre chose.

28:58

[Benjamin] Alors juste avant de donner la parole à André et de rentrer dans le vif du sujet, c'est-à-dire...

29:03

[Benjamin] qu'est ce qu'on fait aujourd'hui, à quoi ça sert l'intelligence artificielle parce que il y a des usages

29:09

[Benjamin] c'est vraiment utile.

29:13

[Benjamin] Pour clore ce chapitre sur l'historique

29:18

[Benjamin] Il y a une question que je me pose souvent, c'est qu'est-ce qui fait qu'on a l'impression en tout cas ?

29:25

[Benjamin] que depuis cinq ans il y a une explosion de l'intelligence artificielle et on a vraiment l'impression qu'il y a une accélération

29:33

[Benjamin] dans les progrès des technologies et que oui, il y avait de l'intelligence artificielle depuis les années 50 si j'ai bien compris, mais personne n'en entendait parler. Comment ça se fait que depuis cinq ans ou deux ans en tout cas, on en voit partout, il y a eu une rupture technologique ? Qu'est-ce qui s'est passé ?

29:53

[Benjamin] qui va répondre.

29:56

[Benoît] Oui alors Cyril a donné un émement de réponse tout à l'heure, au milieu des années 2010 en fait il y a une rupture technologique qui est tout simplement la puissance des processeurs graphiques. Alors il se trouve que...

30:06

[Benoît] pour faire de l'apprentissage, donc ce qu'on a décrit précédemment.

30:12

[Benoît] les outils les plus optimisés, c'est des cartes graphiques.

30:15

[Benoît] Et il y a une rupture technologique en milieu des années 2010 qui font que les calculs ont été possibles sur des modèles très gros. Et donc qui dit modèles très gros dit plus de précision et dit donc des résultats plus impressionnants. Donc à partir des années 2010, on s'est aperçu qu'on pouvait utiliser des modèles de langage de réseau de neurones.

30:36

[Benoît] qui étaient jusque-là plutôt théoriques ou alors qui ne marchaient que sur des cas d'utilisation très très très simples. Et donc on s'est mis à faire de plus en plus d'intelligence artificielle à partir de là.

30:49

[Cyril] Ça faisait très longtemps qu'on cherchait une solution technique pour faire tourner des gros modèles d'impréhensage.

30:55

[Cyril] Ça faisait au moins...

31:00

[Cyril] d'eBlue par exemple IBM, ils ont construit des ordinateurs spécifiquement pour le faire.

31:07

[Cyril] Ce qui a vraiment changé, c'est qu'on...

31:10

[Cyril] détourné du jeu vidéo grosso modo

31:19

[Cyril] pour pouvoir faire du calcul mathématique.

31:25

[Cyril] Mais sauf qu'on n'avait pas vraiment l'usage. Il faut savoir que jusque...

31:29

[Cyril] début des années 2010.

31:31

[Cyril] On faisait des gros modèles mais en fait la nécessité de calculer, de faire des très très gros calculs, était quand même assez faible.

31:39

[Cyril] quand on a commencé à faire de l'apprentissage profond.

31:41

[Cyril] C'est-à-dire avec beaucoup de couches, beaucoup de paramètres pour un même...

31:46

[Cyril] millions, puis à maintenant on est en dizaines de milliards ou en centaines de milliards.

31:53

[Cyril] En fait, le besoin a augmenté et le détournement du usage des processeurs graphiques...

32:02

[Cyril] Et donc une industrie est née à ce moment-là.

32:06

[Cyril] mais en fait les deux ont co-développé.

32:10

[Cyril] On ne sait pas vraiment lequel est de la poule et l'œuf.

32:13

[Benjamin] la poule et l'oeuf.

32:17

[Benoît] Oui, je voudrais compléter ça sur le fait qu'il n'y a pas que la rupture technologique qui explique l'explosion de l'IA aujourd'hui.

32:23

[Benoît] Ce qu'il faut comprendre c'est que l'IA c'est pas magique, c'est à dire qu'il suffit pas d'avoir des données en entrée, un modèle et faire de l'optimisation avec la meilleure crainte graphique qui soit. Il y a beaucoup beaucoup beaucoup de ce qui s'appelle du fine tuning, c'est à dire en fait du peau finement qui consiste à faire un peu en fait, moi j'appelle ça un peu de la cuisine scientifiquement, c'est à dire on bouge des petits paramètres et puis on voit est ce que c'est mieux qu'avant, est ce que c'est moins mieux qu'avant. Ça ça prend énormément énormément de temps. Testé différents modèles ça prend beaucoup beaucoup beaucoup de temps.

32:51

[Benoît] Et je pense que ce qui s'est passé c'est qu'on a eu des acteurs comme OpenAI qui il y a deux trois ans ont investi énormément de moyens là dedans, ont recruté énormément de personnes pour faire...

33:04

[Benoît] justement du perfectionnement sur des très gros modèles et tester les meilleurs modèles qui soient.

33:08

[Benoît] et ça, ça a vraiment fait une grosse différence dans...

33:13

[Benoît] l'intelligence artificielle. Parce que ça prend du temps en fait de faire de l'intelligence artificielle qui marche, ça prend beaucoup de temps et ça prend du coup beaucoup d'ingénieurs, beaucoup de personnes compétentes.

33:23

[Benjamin] Dernière question parce qu'on parle énormément d'apprentissage puisque là on est dans de l'IA qui fonctionne par apprentissage.

33:31

[Benjamin] Et on a parlé aussi de GPU, de carte graphique.

33:34

[Benjamin] Donc l'intelligence artificielle telle qu'on la voit aujourd'hui au quotidien.

33:39

[Benjamin] C'est de l'intelligence artificielle qui fait appel à une phase d'apprentissage qui est lourde.

33:46

[Benjamin] Et donc en fait on a bien deux programmes. Comment ça se passe ? Il y a deux programmes différents, un d'apprentissage et un qui permet d'utiliser l'apprentissage qui a été fait.

33:55

[Benoît] Oui, absolument. Il y a une grosse étape de ce qui s'appelle l'apprentissage, qui est le calcul d'optimisation lui-même, qui permet de trouver les meilleurs...

34:03

[Benoît] coefficient dans notre modèle mathématique. Donc ça, ça prend énormément de temps. Il n'y a pas de contrainte de temps a priori puisque...

34:10

[Benoît] ça ne concerne pas l'utilisateur final lui si ça a pris dix ans pour

34:14

[Benoît] trouver le meilleur modèle.

34:17

[Benoît] ça ne le regarde pas. Et après effectivement, il y a une deuxième étape qui est le fonctionnement d'utilisation en production, c'est-à-dire...

34:26

[Benoît] quand on va utiliser notre modèle qui a été entraîné avec des coefficients optimisés sur de nouvelles données, c'est-à-dire qu'on lui met des données, il lit les données, les données passent dans le modèle, et à la fin on a une sortie. Et ça en général c'est beaucoup plus rapide puisqu'il suffit juste d'évaluer l'entrée.

34:42

[Benjamin] Et là on n'a pas forcément besoin d'un GPU par exemple.

34:45

[Benoît] Non, en théorie on n'a pas besoin de GPU.

34:48

[Benjamin] Donc pour bien comprendre, aujourd'hui quand on parle d'IA, ça veut dire qu'on a pris des données.

34:57

[Benjamin] On a entraîné un modèle grâce aux données qu'on a collectées avec ce que t'appelles les coefficients, on entend parler de poids aussi.

35:06

[Benjamin] ça génère un modèle entraîné ?

35:09

[Benjamin] un peu comme un code compilé.

35:11

[Benoît] Oui.

35:11

[Benjamin] On peut faire une analogie à ça ?

35:12

[Benoît] C'est ça en fait, enfin plus exactement.

35:14

[Benoît] les coefficients qu'on a trouvé par entraînement du modèle sont stockés. Donc évidemment on s'amuse pas à les recalculer à chaque fois parce que c'est l'étape la plus longue et après on les réutilise parce qu'ils sont stockés quelque part et on a juste à les lire pour dire voilà le meilleur modèle.

35:29

[Benoît] C'est un petit peu comme si on avait une machine à café très sophistiquée, on passe beaucoup beaucoup de temps à choisir la meilleure température, la meilleure pression, et une fois qu'on l'a trouvé, on bouge plus, et la seule chose qui se passe c'est qu'on met du café, ça passe dans de l'eau et ça sort.

35:42

[Benjamin] Ok, on ne touche plus au réglage.

35:43

[Benoît] Voilà, exactement, le réglage est...

35:46

[Benjamin] un peu comme la voiture que tu as tuné quoi.

35:49

[Benoît] Exactement, voilà.

35:50

[Benjamin] Et donc quand on utilise un modèle d'intelligence artificielle, enfin quand il y a un logiciel d'intelligence artificielle, on ne sait pas le temps qu'il a fallu, qui a été nécessaire à l'apprentissage.

36:01

[Benoît] Non pas du tout, c'est complètement inconnu. Alors souvent ils communiquent sur ce qui s'appelle le nombre de paramètres.

36:08

[Benoît] Donc là, il y a quelques chiffres, par exemple.

36:16

[Benoît] 100 millions de paramètres, quelque chose comme ça. Les derniers, ils en sont à 200 milliards je crois. Donc ça c'est en fait c'est le nombre de coefficients qu'ils ont trouvé par entraînement mais après...

36:28

[Benoît] Bon ça donne pas beaucoup d'idées sur combien de temps ça leur a pris pour...

36:33

[Benoît] pour faire le calcul lui-même.

36:34

[Benjamin] Oui, ça donne une idée de l'efficacité, de la précision du résultat, et encore que c'est pas parce qu'on a passé plus de temps à tuner sa voiture qu'on va faire Paris-Marseille plus vite.

36:46

[Benjamin] Donc il y a de l'optimisation dans tous les sens qui est possible. Mais en tout cas quand on parle du coût environnemental de l'intelligence artificielle, c'est pas juste le serveur qui répond à l'utilisateur quand on lui pose une question, c'est aussi tout le temps qui a été nécessaire à l'entraînement avant cela.

37:02

[Benoît] Oui et c'est même probablement, essentiellement cette phase là qui, elle, pour le coup, a clairement été faite sur...

37:12

[Cyril] Comme on n'en a pas parlé, je précise une chose et Benoît pourra compléter parce qu'il en est...

37:18

[Cyril] spécialistes. Il n'y a pas que de l'apprentissage dans l'intelligence sociale comme on l'a dit tout à l'heure.

37:24

[Cyril] Et pour le coup, il y a une énorme différence.

37:29

[Cyril] d'apprentissage, notamment le cours en énergie et en...

37:33

[Cyril] matériel etc pour un modèle entraîné surtout avec beaucoup de paramètres

37:38

[Cyril] et d'autres stratégies d'intelligence artificielle.

37:44

[Cyril] énergétique, matériel, de temps de développement etc. qui est bien inférieur.

37:49

[Cyril] Donc effectivement le coût environnemental n'est pas égal, quelle que soit l'application.

37:55

[Cyril] Il dépend aussi du type d'algorithme ou du type de stratégie qu'on a pris pour développer.

38:01

[Cyril] et aujourd'hui tout le monde parle.

38:03

[Cyril] de modèles entraînés, de deep learning, etc. parce que c'est ce qui...

38:07

[Cyril] qui fait marcher les modèles conversation.

38:10

[Cyril] Mais il n'y a pas que ça.

38:12

[Cyril] Et à ce titre, c'est intéressant de choisir la bonne stratégie, mais on en parlera peut-être.

38:20

[Benjamin] Oui, on a probablement intérêt à utiliser le bon outil qui fait uniquement ce dont on a besoin.

38:25

[Benjamin] et puis pas utiliser des LLM pour faire tout et n'importe quoi.

38:32

[Cyril] planter une vis par exemple.

38:34

[Benjamin] pour planter une vis avec un marteau

38:36

[Benjamin] Oui oui je me suis énervé il y a trois semaines là-dessus. Non mais typiquement entraîner un modèle pour faire du calcul arithmétique ça a pas de sens.

38:44

[Benoît] Non, parce qu'aujourd'hui on a des calculateurs, enfin aujourd'hui ça fait plusieurs décennies qu'on a des calculateurs qui sont très performants, qui le font sans raison de ronde.

38:51

[Benjamin] Et alors il y a énormément de cas où...

38:56

[Benjamin] ça a du sens d'utiliser l'intelligence artificielle. Est-ce que vous pouvez nous dire ce sur quoi vous avez travaillé, ou vous travaillez, ou vous allez travailler, ou qui vous intéresse ?

39:07

[Benjamin] André

39:07

[André] Donc en ce moment, je me concentre sur plusieurs domaines dans le développement durable où l'intelligence artificielle a beaucoup d'avantages.

39:18

[André] Donc, par exemple, là ça fait quelques mois où je travaille avec un labo de recherche à l'université de McGill qui est spécialisé dans tout ce qui est...

39:29

[André] spécialisé dans tout ce qui est prédictions.

39:32

[André] hydrologique et climatique.

39:39

[André] qui était tout ce qui était prédiction de niveau d'eau.

39:47

[André] prédictions d'inondation mais aussi la gestion de production d'énergie des centrales hydroélectriques.

39:54

[André] et grâce au modèle qu'on est en train de développer avec l'intelligence artificielle.

40:00

[André] des résultats d'augmentation de performance de...

40:04

[André] aux alentours de 5%, ce qui pourrait signifier une augmentation de la production énergétique des centrales hydroélectriques.

40:09

[André] qui pourraient alimenter par an une ville comme Dijon ou Rennes.

40:14

[Benjamin] Alors j'ai pas compris, 5% de quoi ?

40:16

[André] c'est à dire en fait 5% de la...

40:20

[André] de la précision des modèles de prédiction du niveau d'eau.

40:23

[Benjamin] C'est-à-dire que c'est précis à 5%. Il y a 5% d'erreurs.

40:25

[André] Non, c'est à dire qu'en améliorant ces modèles de 5%, on réussit à avoir une génération d'électricité qui pourrait être suffisante pour alimenter une ville comme Rêve.

40:36

[Benjamin] C'est à dire qu'un gain de 5% correspond à l'alimentation d'une ville comme Dijon.

40:39

[André] Exactement. Et ça c'est encore le début. Et on pourrait améliorer encore les performances et puis...

40:43

[Benjamin] D'accord mais quels sont les outils qui sont utilisés derrière et pourquoi est-ce qu'on ne pourrait pas le faire sans IA ?

40:50

[André] quand on fait de la prédiction hydrologique.

40:54

[André] de précipitation ou bien de niveau d'eau.

41:13

[André] pourrait être implémenté mais ça prend beaucoup de temps, ça prend beaucoup de données et puis c'est pas facilement adapté à différentes régions.

41:22

[André] ce qui fait qu'une fois qu'on implimente des modèles d'intelligence artificielle, c'est plus rapidement implimenté, mais on a des performances qui sont élevées aujourd'hui par rapport aux modèles physiques.

41:35

[Benjamin] typiquement là on est dans de l'IA qui s'appuie sur de l'apprentissage

41:40

[André] Exactement, donc...

41:42

[André] ce qu'on utilise comme modèle, il y a plusieurs modèles qu'on est en train de tester pour voir les...

41:47

[André] comparer l'efficacité.

41:55

[André] qui sont des modèles très entraînés.

42:02

[André] de repasser toutes les données qu'on a pour pouvoir avoir des résultats. Ce qui fait que ça accélère beaucoup le développement des modèles et puis on a des performances où on arrive à prédire le niveau d'eau à 95% du temps.

42:17

[Benjamin] Alors j'ai pas bien compris, c'est-à-dire que Foundation Model, c'est...

42:19

[Benjamin] c'est un type d'IA qui permet de faire des prédictions.

42:23

[Benjamin] sans passer par la phase d'apprentissage sur mon data set.

42:27

[André] Exactement donc en fait

42:28

[André] c'est on passe par le data set.

42:32

[André] mais il n'y a pas besoin d'entraîner le modèle.

42:35

[André] Donc en fait, c'est des modèles qui sont déjà entraînés sur plusieurs types de données. Et puis c'est spécifique sur tout ce qui est time series. Donc par exemple, la fluctuation du prix du stock d'Apple, c'est une time series.

42:51

[André] tout ce type de données qui pourrait fluctuer de différentes manières.

43:01

[André] de données qui suivent ce type de fluctuation et puis après on obtiendra le résultat qu'on...

43:11

[Benjamin] Donc en fait c'est des outils qui...

43:13

[Benjamin] qui sont très bien adaptés pour faire des prévisions.

43:16

[André] Exactement.

43:17

[Benjamin] Ça pourrait marcher aussi pour des prévisions de marché, des...

43:19

[Benjamin] Ok

43:21

[Benjamin] qu'est ce qu'on a d'autre comme exemple d'utilisation concrète ?

43:24

[Benjamin] de l'IA, évidemment sur des choses qu'on ne pourrait pas faire sans.

43:29

[Cyril] Je pense que en ce moment, ce qui est le plus intéressant en termes d'application d'intelligence artificielle...

43:35

[Cyril] C'est tout ce qu'on fait dans le domaine médical.

43:37

[Cyril] Alors en fait il y a deux grands schémas

43:41

[Cyril] une grande voix qui est celle de la reconnaissance d'image.

43:45

[Cyril] notamment de tout ce qui est imagerie médicale.

43:48

[Cyril] En cytopatologie, je prends par exemple une coupe.

44:00

[Cyril] extrêmement important, pourquoi ? Parce que...

44:02

[Cyril] ça me permet à moi médecin qui suis pas forcément un spécialiste

44:10

[Cyril] ça permet à des spécialistes de traiter des très grands noms de

44:20

[Cyril] qui est supérieure à celle de l'homme.

44:22

[Cyril] l'algorithme fait moins de faux négatifs ou moins de faux.

44:28

[Benjamin] Il y a aussi le fait que l'intelligence artificielle, on entend de plus en plus dire qu'elle peut faire des erreurs.

44:37

[Cyril] Alors, en fait...

44:45

[Cyril] si je prends un robot et que je lui apprends à marcher

44:49

[Cyril] théoriquement tous les robots de la Terre savent marcher.

44:51

[Cyril] C'est à dire qu'une fois que j'ai entraîné...

44:55

[Cyril] faire quelque chose, ça veut dire que c'est reproductible.

45:00

[Cyril] Et donc quand j'ai appris à reconnaître du texte, et bien finalement on a pu utiliser des reconnaissances de texte dans tous les...

45:11

[Cyril] ça veut dire que un médecin qui sait quand même vérifier et regarder par exemple une coupe pour dire oui il y a un cancer où il n'y en a pas

45:19

[Cyril] il peut utiliser deux informations, le fait que la machine lui dise

45:23

[Cyril] Cette cellule est malade, donc il va regarder.

45:28

[Cyril] mais aussi là je suis sûr à x% du résultat.

45:35

[Cyril] hyper important parce que si je suis très si la machine est très certaine

45:40

[Cyril] Peut-être qu'on ne va pas traiter ces échantillons à la main rapidement.

45:44

[Cyril] Par contre on va se concentrer sur ceux qui sont un peu incertains.

45:55

[Cyril] certaines pathologies, les jours comptent, voire les heures comptent.

45:59

[Cyril] Donc on a une utilisation...

46:01

[Cyril] dans ce domaine là qui est...

46:03

[Cyril] extrêmement vertueuse.

46:08

[Cyril] ce qu'on sort est essentiel. C'est un peu le problème.

46:14

[Cyril] c'est qu'on ne regarde pas vraiment avec quel pourcentage de fiabilité.

46:18

[Cyril] l'IA marche. En l'occurrence on entend très très souvent des startups parler et dire mon IA elle est fiable à 80% 80% ça sert à rien.

46:27

[Cyril] si je conduis une voiture je ne peux pas être fiable à 80% que mon algorithme de conduite automatique

46:37

[Cyril] pour un algorithme médical etc etc. Donc il y a dans plein de domaines 80% ça suffit pas.

46:43

[Benjamin] J'ouvre une parenthèse parce que quand on parle de fiabilité à 80%, vous me corrigez si je dis n'importe quoi.

46:52

[Benjamin] Quand on parle d'intelligence artificielle par entraînement, on a un dataset, on s'entraîne sur son dataset et après on vérifie...

47:01

[Benjamin] mais on vérifie sur une partie du dataset qui n'a pas servi à l'entraînement.

47:05

[Benjamin] Parce que forcément si on utilise une partie du dataset qui a servi à l'entraînement, la fiabilité ça va être 100%

47:11

[Cyril] En fait, on coupe le data set en deux.

47:13

[Cyril] une grosse partie pour l'entraîner et une petite partie pour le tester.

47:18

[Cyril] possible bien échantillonner pour qu'on ait un peu tous les cas.

47:22

[Benjamin] Ok, et si possible des cas qui ne sont pas...

47:26

[Benjamin] excessivement similaire à ceux qu'on servait à l'entraînement parce que sinon effectivement c'est pas très dur d'arriver à 100% aussi.

47:33

[Benjamin] Donc ce que je veux dire c'est que c'est pas forcément évident.

47:37

[Benjamin] à partir d'un data set de se dire bon bah je vais prendre ça pour l'entraînement et puis après je vais utiliser ce qui reste pour

47:45

[Benjamin] pour vérifier que effectivement ça marche.

47:48

[Cyril] Bah alors là on revient un peu à la théorie mais...

47:55

[Cyril] Il y a vraiment un métier qui s'est développé ces dernières années, c'est celui d'aller traiter un data set.

48:00

[Cyril] et c'est un métier très particulier et qui est très technique.

48:04

[Cyril] pour dire, bon ben voilà, quel est le data set qui...

48:06

[Cyril] qui correspond bien

48:08

[Cyril] à ce que je veux faire faire à la machine.

48:10

[Cyril] pour que d'abord ça marche

48:12

[Cyril] que effectivement j'ai une bonne fiabilité mais surtout que j'ai le moins de biais possible.

48:17

[Cyril] Parce que si mon dataset il est incomplet...

48:20

[Cyril] Et en fait, on apprend à la machine qu'une partie de l'information.

48:26

[Cyril] j'apprends à ma machine à reconnaître des chats.

48:35

[Cyril] sur un réseau convolutif on va apprendre à reconnaître des chats par exemple.

48:39

[Cyril] Si je lui montre plein d'animaux à poil...

48:48

[Cyril] réalise que ce n'est pas des chats.

48:49

[Benjamin] que c'est pas un chat.

48:50

[Cyril] Donc il faut aussi...

48:53

[Cyril] avoir une bonne diversité, être relativement équilibré, etc. Donc il faut faire très attention aux données qu'on utilise en entrée parce qu'elles ont un impact très fort sur les données.

49:02

[Cyril] sur la farçon dont la machine va faire sa prédiction.

49:06

[Benjamin] C'est à dire que si je reprends ton exemple des cellules cancéreuses, ça va...

49:09

[Benjamin] ça veut dire qu'il faut que dans mon dataset j'ai évidemment des images de cellules cancéreuses, des images de cellules saines et peut-être des trucs qui pourraient ressembler à des cellules cancéreuses mais qui n'en sont pas pour que la machine soit capable de faire la différence sinon elle ne saura pas la faire.

49:23

[Cyril] Ouais alors heureusement on ne regarde pas dans un détail aussi fin mais est-ce qu'on se...

49:29

[Cyril] qu'on fait en général c'est qu'on échantillonne les data sets.

49:34

[Cyril] comme on le fait quand on fait un sondage par exemple

49:37

[Cyril] on a un échantillon représentatif du phénomène qu'on veut analyser.

49:40

[Cyril] Donc typiquement tout à l'heure on parlait de

49:42

[Cyril] phénomènes hydrologiques.

49:49

[Cyril] le comportement de par exemple la quantité de pluie qui tombe à tel jour dans telle saison etc

49:57

[Cyril] il n'est pas complètement anormal, c'est-à-dire qu'on ne va pas entraîner sur les données de puvémétrie de Brest.

50:04

[Cyril] et puis après essayer de l'appliquer partout dans le monde. Il va falloir avoir une petite diversité.

50:09

[Cyril] de climat pour que ça puisse marcher dans tous les cas.

50:13

[Benjamin] Ok, merci, bah du coup je te laisse continuer.

50:15

[Cyril] Alors sur les autres applications dans le domaine médical, on n'en a pas parlé mais...

50:19

[Cyril] En épidémiologie, il y a énormément aujourd'hui de champs.

50:23

[Cyril] d'investigation, notamment pour aller identifier typiquement si un médicament

50:34

[Cyril] Et pourquoi ? Parce qu'on travaille là sur des très grands échantillons de gens.

50:39

[Cyril] et on va pouvoir croiser des informations, non seulement...

50:43

[Cyril] sur des enquêtes médicales...

50:45

[Cyril] des traitements, des caractéristiques, des symptômes, etc. mais on va pouvoir croiser ça aussi avec des critères génétiques.

50:52

[Cyril] Là, ça devient passionnant parce que...

50:54

[Cyril] C'est très compliqué d'analyser le génome de quelqu'un, mais quand on a une IA...

50:58

[Cyril] on va pouvoir croiser des informations à la fois

51:12

[Cyril] est-ce qu'elle fume etc etc

51:14

[Cyril] Et ça c'est génial et c'était pas possible mais pour le coup...

51:21

[Cyril] peut-être mettre ça comme critique aux épidémiologiques jusqu'à maintenant, c'est-à-dire les mathématiques utilisées, les statistiques...

51:34

[Cyril] et de faire des choses très très intéressantes.

51:36

[Benjamin] Quand tu disais qu'on a des modèles qui sont fiables à 80%, évidemment on comprend que...

51:43

[Benjamin] si on parle d'une voiture automatique autonome ça va poser de sérieux problèmes

51:48

[Benjamin] Mais parce que historiquement l'informatique, on s'est habitué à ce que ce soit fiable à 100%.

51:55

[Benjamin] machine elle fait pas d'erreur. Donc là on est vraiment dans un nouveau champ de l'informatique où il y a des erreurs c'est est-ce que c'est possible d'avoir une IA fiable à 100% ?

52:03

[Cyril] Est-ce que c'est possible d'avoir un humain fiable à 100% ?

52:06

[Cyril] C'est ça la question.

52:06

[Benjamin] Alors si Aery c'était là, il dirait oui moi.

52:09

[Benjamin] Il est malade le pauvre.

52:11

[Cyril] Mais il est pas fier parce qu'il est malade.

52:13

[Cyril] Non, je pense qu'on est dans un champ où on essaie d'imiter les hommes, enfin les humains, les hommes et les femmes...

52:19

[Cyril] qui vivent, etc.

52:24

[Cyril] la capacité à imiter un comportement humain implique

52:35

[Cyril] faillibilité.

52:40

[Benjamin] on le rajoutera dans le Wiktionnaire s'il n'existe pas.

52:42

[Cyril] Donc on peut accepter. Il y a la deuxième chose qu'il faut comprendre.

52:47

[Cyril] la proposition qui est faite par une IA.

52:51

[Cyril] son imprévisibilité, le fait que ce n'est pas toujours exactement la même chose.

52:58

[Cyril] partie de la qualité de ce qui est proposé. Si je demande par exemple à une IA de me composer un poème

53:05

[Cyril] si elle me compose toujours le même poème ou toujours la même chanson.

53:09

[Cyril] on va dire qu'au bout d'un certain temps je vais arrêter de l'utiliser parce que ça sert à rien.

53:13

[Cyril] Donc la question de l'imperfection de la proposition, il y a un petit aléatoire là-dedans.

53:21

[Cyril] Elle est quand même consubstantielle à l'algorithme lui-même. Et c'est ce qui fait qu'on a l'impression que c'est un humain.

53:28

[Benjamin] Mais alors, comment ça se fait ça que si je pose deux fois la même question à une IA, j'ai pas deux fois la même réponse ?

53:34

[Benjamin] Pourquoi ?

53:35

[Benoît] Je pense qu'il y a des fonctions aléatoires qui quelque part partent d'idées aléatoires dans le modèle à la base.

53:42

[Benjamin] Mais c'est quoi ? C'est un bug ou c'est une fonctionnalité ? Pourquoi est-ce qu'on est de l'aléatoire ?

53:54

[Benjamin] Oui, évidemment je pense aux agents conversationnels qui... Si je pose deux fois la même question, j'ai pas deux fois la même réponse. Mais ça serait possible d'avoir des outils comme ça qui ont un comportement totalement prévisible ?

54:05

[Benjamin] Parce que c'est quand même pour nous qui sommes informaticiens depuis quelques années, c'est assez déroutant de se dire...

54:11

[Benjamin] C'est quand même bizarre, comment est-ce que je fais pour debuguer un truc si quand je le teste deux fois j'ai pas deux fois le même résultat ?

54:15

[Cyril] On peut faire une petite expérience de pensée. Alors on va pas la faire en vrai parce que ce serait pas très sympa pour les auditeurs.

54:21

[Cyril] mais on prend le micro et on augmente le son à fond et en plus on l'amplifie derrière.

54:27

[Cyril] qu'on a un micro hyper sensible qui capte.

54:31

[Cyril] les bruits de la pièce.

54:33

[Cyril] Donc ils captent évidemment notre voix mais aussi nos claquements de langue, mais aussi le bruit de fond, l'air qui bouge, le bruit dans les feuilles des arbres, la climatisation, tout.

54:45

[Cyril] ce qui sort

54:52

[Cyril] qu'en fait il peut se passer plein de choses. Alors après si je me concentre sur un son ou un autre...

54:57

[Cyril] Je vais pouvoir reconnaître...

54:58

[Cyril] par exemple quelqu'un qui marche

55:00

[Cyril] qui fait la cuisine, qui bouge, qui claque les dents etc.

55:07

[Cyril] Il faut voir un peu les grands modèles, et arrêtez-moi si vous avez une autre interprétation, mais les grands modèles, notamment les grands modèles de langage ou les grands modèles...

55:20

[Cyril] avec des centaines de milliards de paramètres.

55:23

[Cyril] un peu comme un micro super ouvert. Il y a beaucoup beaucoup beaucoup de paramètres. Et le fait qu'il y ait beaucoup beaucoup beaucoup de paramètres fait qu'il y a beaucoup beaucoup de solutions.

55:31

[Cyril] au fait qu'on veut se concentrer sur un bruit ou un autre.

55:35

[Cyril] on veut focaliser le micro sur une partie de la pièce ou l'autre.

55:39

[Cyril] C'est la même chose quand on pose une question, par exemple...

55:41

[Cyril] un modèle de langage, un robot conversationnel, on lui demande de générer une image.

55:46

[Cyril] il va générer quelque chose.

55:48

[Cyril] qui dépend de plein de paramètres y compris de la pluie ou de la température qui fait dehors, enfin des agers mais...

55:54

[Cyril] mais de plein de paramètres qu'on ne maîtrise pas.

55:57

[Cyril] Donc il y a un phénomène à laitoire parce qu'il y a plusieurs solutions possibles à la question posée en fait.

56:02

[Cyril] S'il y a une centaine de milliers de possibilités, de réponses pertinentes...

56:12

[Cyril] Parfois c'est un peu moins.

56:13

[Cyril] Mais quand on est à l'échelle du discours, c'est-à-dire de mots par exemple qui sont mis...

56:20

[Cyril] En fait, les possibilités sont énormes.

56:22

[Cyril] Donc ce n'est pas complètement impossible à comprendre pourquoi c'est aléatoire.

56:28

[Cyril] C'est ce qui fait qu'on a l'impression que c'est un humain qui l'a fait.

56:32

[Benjamin] Non mais c'est aléatoire parce que le programmeur a décidé que ça devait l'être ? Non.

56:38

[Cyril] la fonctionnement d'un cerveau humain.

56:41

[Cyril] et qu'une des particularités...

56:44

[Cyril] justement, enfin, c'est une conséquence.

56:45

[Cyril] de ce modèle-là, du modèle d'apprentissage en réseau de neurones.

56:49

[Cyril] fait qu'un cerveau, ce n'est pas prédictible à 100%.

56:55

[Cyril] Donc en fait on a créé un modèle à partir d'une machine qui est le cerveau humain.

57:00

[Cyril] pas prédictible à 100%, elle fait des choses qui sont pas prédictibles à 100%.

57:03

[Cyril] Et d'ailleurs, plus le résultat est fiabilisé...

57:11

[Cyril] par exemple censure

57:12

[Cyril] pour s'assurer de la bonne réponse, etc. plus la réponse est stéréotypée.

57:17

[Cyril] Quand on rajoute de l'informatique...

57:21

[Cyril] on fait des filtres, on teste, on vérifie, en fait on se rend compte que...

57:25

[Cyril] La réponse elle devient un peu bébête.

57:29

[Cyril] Je pose une question légèrement différente, il me répond presque la même chose.

57:33

[Cyril] Donc je demande par exemple à Tchaïa Pt de m'écrire une chanson sur un thème

57:36

[Cyril] il va m'écrire une chanson, je lui donne un e-Thème, il va écrire presque la même chanson en changeant quelques mots.

57:42

[Cyril] ça, ça veut dire qu'en fait on l'a un peu encadré.

57:45

[Cyril] et que du coup comme on l'a encadré à la main

57:50

[Benjamin] qu'est-ce qu'on a d'autre comme exemple d'utilisation concrète de l'IA ?

57:55

[Benjamin] encore une fois, qui ne pourrait pas exister sans IA.

57:59

[Benoît] Je peux parler de ce que je fais moi aujourd'hui dans mon métier. Par exemple, nous on fait de l'aménagement automatique d'espace. Donc imaginez que vous déménagez.

58:07

[Benoît] dans un nouveau logement. Donc vous avez la question de comment vous disposez vos meubles dans l'espace.

58:12

[Benoît] Donc il y a plusieurs contraintes, du genre on évite de mettre le frigo dans la chambre, on évite de mettre un gros meuble devant la télé parce qu'évidemment...

58:20

[Benoît] ça sert pas à grand chose.

58:21

[Benoît] il faut qu'on puisse circuler entre les meubles, etc. Bon, on arrive à résoudre le problème assez rapidement en général.

58:26

[Benoît] Maintenant imaginez que vous n'avez pas un appartement de quelques dizaines de mètres carrés, mais un plateau de 10 000 mètres carrés d'espace et vous devez disposer des bureaux à l'intérieur.

58:37

[Benoît] Là, le problème, c'est une sorte de Tetris dans le monde réel, la complexité est absolument gigantesque pour un cerveau humain. En temps fini, un être humain ne pourrait pas résoudre le problème de façon optimale.

58:52

[Benjamin] Alors pourquoi ? Parce qu'il y a trop de paramètres ?

58:55

[Benoît] Il y a trop, plutôt de possibilités et même si un humain essaierait de le faire de façon intelligente, donc sans tester toutes les possibilités.

59:05

[Benoît] Il faudrait quand même qu'il en teste une quantité qui est tellement grande qu'il ne suffirait pas de l'âge de l'univers pour aboutir à une solution qui soit optimale.

59:13

[Benjamin] Oui mais avec un ordinateur on devrait pouvoir y arriver quand même non ?

59:16

[Benjamin] avec des algorithmes classiques.

59:19

[Benjamin] Je dis à l'ordinateur, fais-moi toutes les possibilités.

59:22

[Benoît] Alors non, parce que même un ordinateur ne pourrait pas faire toutes les possibilités. Alors par exemple, si vous avez 200 meubles à disposer, bon je vais pas faire trop de maths, mais il y a 10 puissance 600 possibilités, ce qui fait plus longtemps que l'âge de l'univers en seconde de beaucoup beaucoup beaucoup, et même le plus puissant processeur du monde actuel n'arriverait pas à tester toutes les possibilités.

59:43

[Benjamin] Donc si j'ai 600 bureaux, ce qui est beaucoup, évidemment c'est pour un particulier, mais c'est pas énorme 600 bureaux, j'imagine qu'il y a plein de sociétés qui ont 600 bureaux.

59:52

[Benjamin] Si je veux calculer toutes les possibilités, même si je m'y étais pris au Big Bang, je serais encore en train de calculer.

59:58

[Benoît] Voilà, et même si tu étais mis au Big Bang, avec le meilleur ordinateur de 2025.

1:00:02

[Benjamin] Et alors comment est-ce que l'IA arrive à résoudre ce problème là ? C'est quoi la baguette magique ?

1:00:08

[Benoît] Alors tu veux dire quel est le type de solution qu'on utilise ? Alors justement, c'est un des algorithmes dont on n'a pas trop parlé, parce qu'on a parlé beaucoup d'apprentissage au début.

1:00:21

[Benoît] Ici c'est une solution qui n'utilise pas d'apprentissage, donc on n'a pas besoin de données sur lesquelles apprendre à disposer des objets dans l'espace. Donc c'est ce qu'on appelle dans ce cas-là des algorithmes génétiques.

1:00:33

[Benoît] Alors pourquoi ça s'appelle comme ça ? Parce que c'est inspiré de la génétique du monde réel. Donc en fait on a ce qu'on appelle une population de candidats qui sont des solutions. Donc un candidat c'est simplement un aménagement possible. Donc même si l'aménagement c'est n'importe quoi, les bureaux sont dans tous les sens, ils sont pas du tout ordonnés, c'est une solution possible. Donc on prend une population de solutions.

1:00:56

[Benoît] On les évalue, c'est à dire qu'on leur donne un score à chacune, donc celle où tout est désordonné on lui met un mauvais score, celle où c'est plutôt bien ordonné on lui donne un meilleur score.

1:01:04

[Benoît] Et ce qu'on fait, c'est qu'on va faire se reproduire les meilleures solutions entre elles. Alors évidemment, il faut donner un sens à ce que ça veut dire de faire reproduire des solutions, parce que c'est des objets mathématiques, mais on peut le donner un sens. Donc on fait reproduire les meilleurs candidats, un peu comme si on faisait reproduire les meilleurs chevaux de course.

1:01:19

[Benoît] et on obtient une nouvelle population de solutions et on continue, on les value à nouveau, on prend les meilleurs, on les fait se reproduire etc.

1:01:27

[Benoît] de nombreuses itérations et il se trouve que à partir d'un nombre fini d'itérations, donc quelques dizaines, on aboutit à une solution qui est

1:01:36

[Benoît] quasiment optimale voire optimale.

1:01:39

[Benjamin] Et à quel moment est-ce que je donne mes critères de préférence ?

1:01:43

[Benoît] Alors ça il faut le donner au tout début du modèle, donc effectivement il faut bien donner sa fonction d'évaluation, c'est à dire comment je note mes candidats, parce que c'est ce qui va faire que l'algorithme converge plus ou moins vite. C'est à dire que ça va me prendre plus ou moins de temps de trouver une solution informativement.

1:01:58

[Benjamin] Parce que si je lui dis moi ce que je veux c'est avoir les 600 bureaux dans la même pièce...

1:02:03

[Benjamin] forcément le résultat va correspondre aux critères que j'ai définis au départ.

1:02:08

[Benoît] Oui exactement alors en l'occurrence il va probablement te trouver la meilleure solution qui essaye de répondre à ça même si c'est probablement pas possible de mettre les 600 bureaux dans une pièce mais il va donner une solution où il a mis un maximum de bureaux dans la même pièce.

1:02:20

[Benjamin] Ok, très bien.

1:02:22

[Benjamin] Est-ce que vous voulez ajouter quelque chose ? Est-ce que vous avez d'autres exemples ?

1:02:27

[Benoît] Oui, parce que tout à l'heure t'as parlé de probabilité d'erreur ou de succès.

1:02:35

[Benoît] enfin de taux d'erreur. Alors il y a une composante qui est très importante dans l'intelligence artificielle aujourd'hui c'est que

1:02:43

[Benoît] il est très difficile d'expliquer pourquoi un outil d'intelligence artificielle s'est trompé.

1:02:49

[Benoît] et même pourquoi en fait il a bon.

1:02:51

[Benoît] Il faut imaginer par exemple qu'on a une espèce de machine à popcorn avec 2000 rouages, on met un grain de maïs en entrée et à la sortie on n'a pas de popcorn.

1:03:01

[Benoît] il faut se poser la question donc on ouvre la machine et il y a 2000 rouages à examiner.

1:03:06

[Benoît] dans le cas des réseaux neurones de Tchadjipiti par exemple.

1:03:11

[Benoît] c'est pas 2000 rouages qu'on a, c'est 200 milliards.

1:03:13

[Benoît] évidemment que tout le cadre est à la main, c'est impossible.

1:03:16

[Benoît] Donc c'est ça le problème, c'est que les modèles sont tellement compliqués qu'on n'est pas capable de rentrer sous le capot et d'expliquer pourquoi il a fourni ce résultat.

1:03:23

[Benoît] Ça c'est une des raisons pour lesquelles l'intelligence artificielle a un petit peu traîné en fait à s'installer dans des solutions de production parce que ça existe depuis quand même quasiment une bonne dizaine d'années, en tout cas des outils performants qui font des tâches complexes.

1:03:39

[Benoît] mais l'industrie a été un peu réticente à les mettre en production, c'est à dire les utiliser pour des cas concrets à cause de ce phénomène là. Et notamment en finance, il y a assez peu d'intelligence artificielle qui est utilisée parce qu'on n'est pas capable d'expliquer le résultat et ça c'est un vrai problème. Et en particulier...

1:03:55

[Benoît] La finance de marché est régulée aujourd'hui par ce qui s'appelle les lois de balles qui interdisent complètement de créer des produits financiers dont on n'est pas capable d'expliquer le comportement. Donc dans les lois européennes aujourd'hui, on n'a pas le droit d'utiliser des réseaux neurones, par exemple, pour faire des produits financiers.

1:04:13

[André] Donc j'aimerais discuter de quelque chose que... En fait, parler de... D'un des avantages de l'intelligence artificielle...

1:04:20

[André] reliés sur le développement durable en fait.

1:04:35

[André] sur le développement économique.

1:04:39

[André] Il y a plusieurs exemples qui prouvent que, en implémentant de l'intelligence artificielle dans des problèmes de développement durable, on arrive à...

1:04:50

[André] mais aussi réduire l'impact environnemental et je vais vous donner un exemple par exemple.

1:04:55

[André] En Afrique subsaharienne, il y a un grand problème chez les agriculteurs, c'est qu'ils ne sont pas assurés à cause du manque de données hydrologiques.

1:05:08

[André] les pluies, événements climatiques extrêmes et tout ça. Donc il n'y a pas assez d'assureurs.

1:05:20

[Benjamin] ils sont pas capables de mesurer le risque.

1:05:22

[André] Exactement.

1:05:23

[André] Donc il y a un groupe de chercheurs de l'université de Cornell qui sont en partenariat avec un groupe de hydro météorologiques.

1:06:12

[André] mais aussi on arrive à avoir des...

1:06:20

[André] cas qui est plus que suffisante.

1:06:22

[Benjamin] Ce que tu veux dire c'est que grâce à l'IA, on arrive à créer une opportunité et à amener un service là où ce n'était pas possible avant.

1:06:30

[André] Exactement. Et puis en termes environnemental, même si entraîner des modèles pourrait prendre un gros coup environnemental, le fait de par exemple sur toute l'Afrique...

1:06:40

[André] réduire le nombre de stations qu'on implémenterait, ça réduirait le coût environnemental de développement de stations, de toutes les données reliées aux stations, mais aussi, donc ça fait que sur le long terme, on réduit le coût environnemental de ces déploiements.

1:06:53

[Benjamin] Et c'est quel type d'outils qu'on utilise pour ça ?

1:06:56

[André] Donc pour tout ce qui est placement par exemple...

1:07:00

[André] des stations, c'est par exemple on pourrait utiliser les algorithmes génétiques comme ce que Benoît vient de mentionner, donc où l'on place tous les paramètres, où serait optimalement placé une station pour pouvoir créer ce réseau de stations. Et puis pour tout ce qui est améliorer la qualité de données.

1:07:19

[André] Il y a plusieurs types de modèles comme les modèles de LSTM, donc mémoire courte sur longue durée ou long short term memory.

1:07:30

[André] qui permettrait d'améliorer et de combler ces données entre plusieurs stations.

1:07:36

[Benjamin] C'est-à-dire que si on a des trous dans le temps ou dans l'espace, l'IA est capable de venir...

1:07:42

[André] Exactement.

1:07:43

[Cyril] Je pense que ça soulève la question de...

1:07:46

[Cyril] des applications il y en a de plus en plus

1:07:48

[Cyril] Mais la question du choix, de la stratégie...

1:07:52

[Cyril] pour aller développer une IA est essentielle.

1:08:04

[Cyril] parce que c'est les EIA très généralistes dans leur utilisation.

1:08:07

[Cyril] pour faire des choses qui peut-être seraient bien mieux faites.

1:08:11

[Cyril] avec une bien meilleure précision par une autre stratégie, un autre algorithme.

1:08:16

[Cyril] Et c'est très important aujourd'hui de bien choisir la stratégie de l'algorithme qu'on va utiliser.

1:08:22

[Cyril] mais aussi de mesurer à la fois le coût qu'il a fallu, le coût environnemental, humain et financier.

1:08:29

[Cyril] a fallu pour le développer.

1:08:30

[Cyril] par rapport aux gains qu'on va obtenir.

1:08:36

[Benjamin] Je crois que c'était le mot de la fin.

1:08:38

[Benjamin] Merci André.

1:08:39

[André] Merci.

1:08:40

[Benjamin] Merci Cyril.

1:08:41

[Cyril] Merci beaucoup.

1:08:42

[Benjamin] Merci Benoît.

1:08:43

[Benoît] Merci.

1:08:44

[Benjamin] Vous avez écouté RdGP, le podcast sérieux qui vous emmène au cœur des enjeux des droits numériques, des libertés individuelles et de la vie privée.

1:08:51

[Benjamin] Ce podcast est hébergé par Castopod, solution open source libre et gratuite d'hébergement de podcast sur toutes les plateformes et sur le Fédiverse. N'oubliez pas que vous pouvez interagir avec nous sur Mastodon.

1:09:04

[Benjamin] et surtout le Fédiverse.

1:09:05

[Benjamin] Vous pouvez partager, liker et commenter cet épisode directement sans intermédiaire.

1:09:11

[Benjamin] Merci de nous avoir écouté et à très bientôt !