[Entretien] Katia Roux : De Tiktok à Pegasus
S01:E06

[Entretien] Katia Roux : De Tiktok à Pegasus

Episode description

Aujourd’hui nous recevons Katia Roux, Chargée de plaidoyer Libertés chez Amnesty International France. Katia nous éclaire sur les menaces que font peser les technologies de surveillance et l’intelligence artificielle sur nos libertés fondamentales. Ensemble, nous explorons le cadre légal actuel, les failles dans la protection de nos données personnelles, et l’impact grandissant des nouvelles technologies de surveillance.

Liens :

Download transcript (.srt)
0:09

[Générique] L’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques.

0:31

[Benjamin] Bonjour et bienvenue pour ce sixième épisode de RdGP, le podcast sérieux qui vous emmène au cœur des enjeux des droits numériques, des libertés individuelles et de la vie privée. Bonjour Aeris.

0:40

[Aeris] Bonjour Benjamin, aujourd'hui nous avons le privilège d'être reçu chez Amnesty International France par Katia Roux, chargée de plaidoyer Liberté. Katia a la gentillesse de bien vouloir nous consacrer une petite heure pour répondre aux 450 questions qu'on aimerait bien lui poser.

0:53

[Aeris] Bonjour.

0:59

[Benjamin] Alors pour commencer, en deux mots, est-ce que vous pouvez vous présenter et nous expliquer comment est-ce qu'on devient spécialiste technologie en droit humain Amnesty International France ?

1:09

[Katia] Alors en deux mots, je suis donc chargée de plaidoyer Technologie et Droits humains à Amnesty France, ce qui consiste à porter nos recommandations en la matière sur ces questions-là auprès des décideurs pour leur faire intégrer ces recommandations.

1:22

[Katia] Et donc, comment on devient chargé de plaidoyer sur ces questions-là, ça dépend un petit peu des parcours. En ce qui me concerne, j'ai plutôt travaillé sur les questions de liberté fondamentale pendant plusieurs années, c'est-à-dire liberté d'expression, de réunion, d'association. Et puis, on s'est heurté assez rapidement aux questions numériques, à l'usage de technologies, par exemple, aux frontières, pour le maintien de l'ordre, dans l'application des lois.

1:47

[Katia] et on s'est rendu compte que c'était une priorité au regard de l'impact sur les droits humains. Et donc moi personnellement je me suis spécialisée sur cette question depuis quelques années et aujourd'hui Amnesty France est mobilisée de manière prioritaire sur ces questions.

2:01

[Benjamin] D'accord. Et donc ça fait combien de temps exactement ?

2:04

[Katia] Alors ça fait sept ans et demi que je travaille à Amnesty International France, mais on va dire trois ans et demi que je me suis spécialisée sur les questions technologie et droits humains.

2:14

[Benjamin] Et vous direz qu'en sept ans, les technologies ont beaucoup évolué. C'est un travail de se maintenir au courant et informée de ce qui se passe ?

2:23

[Katia] Absolument, c'est un travail de tous les jours. Sur les dix dernières années, on a vu un développement exponentiel de ces technologies-là, de leur usage par les gouvernements, et on a de plus en plus de recul maintenant sur l'impact que ces technologies ont sur les libertés fondamentales, sur les droits humains.

2:39

[Katia] Amnesty en tant que mouvement international se penche sur la question depuis une bonne dizaine d'années, mais on a besoin tous les jours de se tenir au courant, d'être en veille, en analyse. Ces technologies se développent très vite, on a de nouveaux usages et donc de nouveaux impacts et on a besoin effectivement de s'adapter au jour le jour.

2:57

[Benjamin] D'accord, mais est-ce que vous diriez que globalement le monde va mieux ou le monde va plus mal que... Parce que...

3:03

[Benjamin] D'un point de vue extérieur, nous on voit qu'il y a plein de nouveaux outils, qu'il y a aussi plein de nouvelles législations. On pense évidemment au RGPD qui est rentré concrètement en application en 2018.

3:13

[Benjamin] dans la théorie en tout cas.

3:14

[Benjamin] De votre côté, vous trouvez que ça va plutôt mieux ou plutôt moins bien ?

3:20

[Benjamin] On va commencer par la conclusion en fait.

3:22

[Katia] Oui, c'est ça, on termine déjà. Je dirais que tout dépend et du contexte et de l'usage. À Amnesty, on n'a pas de position a priori technophile ou technophobe. On regarde l'usage de ces outils, on regarde leur conformité ou pas avec les principes du droit international et on voit effectivement quel impact pour la vie des personnes.

3:42

[Katia] Les technologies se développent plus vite que le droit. Ça c'est un fait et donc on a besoin de travailler aux réglementations, on a besoin de s'assurer qu'on met des cadres qui vont bien en face des différents usages, on a besoin d'analyser, ça prend aussi du temps, l'impact de ces technologies et bien souvent avec ces outils on regarde vers le futur parce qu'on est dans une...

4:03

[Katia] une trajectoire d'innovation, on pense que c'est forcément une manière d'aller vers le mieux, vers du progrès. Et dans certains cas ça l'est, c'est à dire que les systèmes d'intelligence artificielle, par exemple, peuvent offrir de formidables opportunités dans certains domaines, certains secteurs, présentent de certains avantages, mais on ne doit pas fermer les yeux sur les préjudices ici et maintenant que causent déjà ces outils.

4:24

[Katia] Et ça, ça fait partie de notre travail de regarder l'impact que ça peut avoir dans la vie des personnes sur des principes d'égalité, de discrimination parfois, et ça, c'est des fois un peu occulté.

4:36

[Katia] Donc effectivement ça va vite, ça va loin. On a un narratif autour de ces technologies qui, de la part en tout cas des autorités, se vaut plutôt positif sur le...

4:47

[Katia] dans le champ lexical de l'innovation, nous on va regarder effectivement concrètement dans la vie des gens ici maintenant est-ce que l'impact est positif ou pas, est-ce que les obligations des entreprises par exemple qui développent ces outils, des états qui les utilisent sont bien respectés et est-ce que les droits humains au final sont bien protégés ?

5:07

[Benjamin] C'est le miracle de la Startup Nation.

5:09

[Katia] C'est un petit peu ça. Aujourd'hui en France, on a vraiment ce discours de la French Tech, de l'innovation. La France veut être un hub effectivement de l'usage de ces technologies-là. L'année prochaine, on va accueillir le sommet mondial

5:22

[Katia] d'action sur l'IA. Encore une fois, on présente cette belle vitrine des technologies qui vont nous emmener forcément vers du mieux. On a toute cette doctrine, ce technosolutionnisme qui est avancé par les autorités. Nous, on propose de regarder l'impact que ces technologies ont et de ne pas écarter en fait l'aspect préjudiciable qu'elles peuvent avoir.

5:45

[Aeris] Par contre, quand vous dites que la technologie avance souvent plus vite que la législation, moi pour travailler surtout sur la partie législative, des fois je me rends compte que les textes en fait on les avait très tôt puisque la Convention européenne des droits de l'homme de 1950, la loi informatique et liberté de 1978,

5:59

[Aeris] on avait déjà quasiment tous les principes fondamentaux encore aujourd'hui qu'on retrouve dans le RGPD, l'AI Act, etc.

6:05

[Aeris] Et du coup, est-ce que ce n'est pas juste les entreprises ou la société en général qui n'a pas du tout tenu compte de ces textes-là pour limiter son développement sur ces technologies-là ? Et quand je retrouve aujourd'hui avec un problème d'avoir une législation qui existe et qui est très fonctionnelle pour moi, en tout cas...

6:19

[Aeris] et des entreprises qui font n'importe quoi pour des questions de business, clairement. Alors que ces textes-là étaient quand même là depuis quasiment 80 ans pour certains.

6:28

[Katia] Alors il y a un peu de ça effectivement, certains textes existent et devraient tout simplement être appliqués et ne le sont pas. Et c'est bien là le problème effectivement, le RGPD et d'autres textes beaucoup plus anciens, en fait s'ils étaient appliqués à la lettre et respectés, éviteraient un certain nombre d'écueils. Pour d'autres textes ,vous citez l'AI Act, on considère que le texte en lui-même ne va pas assez loin en termes de protection des droits humains.

6:50

[Benjamin] Je vous interromps, le Candide du podcast c'est moi. Vous parlez de quoi là ? C'est quoi ? L'AI Act ?

6:55

[Katia] L'AI Act, c'est le règlement européen sur l'intelligence artificielle qui vient tout juste d'être adopté et qui veut réguler les systèmes d'intelligence artificielle en adoptant une approche par les risques.

7:07

[Katia] Il faut imaginer une sorte de pyramide qui va du sommet avec des systèmes extrêmement dangereux.

7:14

[Katia] qui posent par exemple un risque inacceptable pour les droits humains et qui doivent être interdits, un étage en dessous de systèmes qui présentent des risques élevés qui vont devoir faire l'objet d'obligations, l'étage encore en dessous des risques plus limités avec là des contraintes de transparence et puis la base a priori des systèmes qui présentent des risques...

7:31

[Katia] beaucoup moindre. Et donc ça a été une tentative de régulation de l'utilisation des systèmes d'IA par l'Union européenne, une tentative que nous on a saluée, mais qui représente à notre avis une occasion manquée puisque certaines interdictions souffrent d'exception qui rendent ces principes d'interdictions illusoires comme par exemple l'identification biométrique à distance.

7:52

[Katia] alors même qu'on aurait pu tracer un certain nombre de lignes rouges. Donc pour ce texte-là, effectivement, on aurait pu aller plus loin. Certains aspects de ce texte sont intéressants, mais on a pu, pour aussi faire écho à ce que vous venez de mentionner, constater le très fort pouvoir d'influence du secteur privé qui est venu effectivement affaiblir les protections qui auraient pu être incluses dans ce texte-là des acteurs privés qui avaient l'oreille des gouvernements, et notamment du gouvernement français.

8:22

[Benjamin] Oui en fait on sait pas trop quelle est l'off et la poule, est-ce que c'est le secteur privé qui répond à une demande politique ou est-ce que c'est...

8:29

[Katia] C'est une bonne question, c'est effectivement un peu des deux. Il y a vraiment cette volonté des pouvoirs publics, nous on le constate depuis quelques années, de recourir de plus en plus.

8:40

[Katia] aux technologies pour par exemple répondre à des enjeux sécuritaires. Ça c'est très net. En France, on a une trajectoire, notamment à travers l'adoption d'un certain nombre de lois qui viennent étendre les pouvoirs de surveillance de la police par exemple.

8:53

[Katia] Et puis effectivement, on a des entreprises qui ont des technologies qu'elles veulent tester, expérimenter, qui attendent par exemple qu'une occasion comme les JO par exemple, pour pouvoir tester, expérimenter, entraîner davantage leurs algorithmes, perfectionner leurs technologies. Et une fois que ces technologies existent, elles sont utilisées.

9:15

[Benjamin] Et alors je pense qu'on a tous en tête la VSA, la vidéo surveillance algorithmique.

9:21

[Benjamin] Aujourd'hui on en est où ?

9:24

[Benjamin] Et qu'est-ce que vous prévoyez de faire chez Amnesty International France ?

9:28

[Katia] Alors la VSA est un sujet qui nous préoccupe beaucoup et d'autant plus effectivement depuis l'adoption de la loi autour des Jeux Olympiques 2024 qui est venue légaliser à titre expérimental. Mais on a vu récemment que...

9:44

[Katia] que ça allait être pérennisé, légaliser l'usage de ces outils-là dans le cadre des JO, mais c'était déjà bien au-delà puisque c'était tous les événements sportifs, culturels, festifs qui étaient concernés jusqu'en mars 2025. Donc on alertait déjà sur la portée très large de ce texte et sur les risques inhérents à l'usage de ces technologies, des risques

10:05

[Katia] en matière de droits humains à savoir le droit à la vie privée, la protection des données personnelles, des risques sur l'exercice des libertés fondamentales puisque ces technologies peuvent avoir un effet dissuasif extrêmement fort par exemple lorsqu'il s'agit d'exercer son droit de manifester.

10:20

[Katia] Et puis des risques aussi en termes de discrimination. On nous présente souvent ces outils comme...

10:27

[Katia] des outils neutres qui viennent simplement aider à la décision humaine. Or ce sont des outils qui sont conçus et utilisés par des personnes et qui peuvent amplifier des biais discriminatoires existants. Donc on a alerté sur ces questions-là au moment de la loi JO. Malheureusement, le dispositif a été validé. Et aujourd'hui effectivement, avant même les conclusions de l'évaluation qui est prévue par la loi JO d'ici la fin de l'année,

10:53

[Katia] on a eu des déclarations du gouvernement qui sous-entendent donc une normalisation, une généralisation de l'usage de ces technologies-là.

11:01

[Katia] Nous on a alerté d'une part sur les risques.

11:03

[Katia] et ce que ça vient de dire de la société vers laquelle on va, c'est-à-dire une société qui permet la surveillance de masse, potentiellement le contrôle social, et puis on a alerté sur la possible étape d'après, c'est-à-dire qu'on a considéré qu'il s'agissait là d'un pied dans la porte vers l'usage de technologies toujours plus intrusives, typiquement la reconnaissance sociale, bien qu'elle n'ait pas été prévue dans ce dispositif-là et qu'on nous...

11:27

[Katia] On nous dit à peu près tous les jours qu'elle est interdite. Dans les faits, il n'y a pas d'interdiction formelle de cette reconnaissance faciale et on pourrait tout à fait imaginer qu'on irait vers un recours grandissant de vers ces outils-là.

11:42

[Aeris] Il joue clairement sur les mots dans les textes de loi en jouant sur la notion de biométrie. Est-ce que c'est donné biométrique ou pas quand on vérifie la taille d'une personne, ou le poids, ou comment elle se comporte dans l'espace public. Et tous les politiques disent « bah non, c'est pas de la biométrie parce que tout le monde pense en prendre digital ou reconnaissance faciale » alors que...

11:57

[Aeris] La CNIL en particulier dit bien, si si, c'est de la biometrie pure et dure, mais ils jouent énormément sur ces incompréhensions-là.

12:05

[Katia] Exactement et c'est un sujet qui est perçu comme un sujet technique aussi par la population donc en jouant effectivement sur les mots, en assénant des vérités qui sont en fait très faciles à déconstruire dès lors qu'on regarde la définition effectivement des données biométriques dans le RGPD.

12:20

[Katia] Ce sont des données qui permettent d'identifier une personne de manière unique. Il n'y a pas que l'état civil qui permet d'identifier une personne sur une personne dans son déplacement. Sur un écran, ça peut amener à son identification. Donc on pourrait à posteriori effectivement considérer que certains traitements ont utilisé des données biométriques.

12:39

[Katia] Et ça c'est un autre aspect qui est assez important, c'est à dire qu'en jouant aussi un petit peu sur les formulations, en agitant la reconnaissance comme un chiffon rouge, en disant mais non vous inquiétez pas c'est interdit, et puis il n'y aura pas de données biométriques, ça participe d'une acceptabilité sociale aussi d'utilisation de ces technologies-là, en agitant aussi les arguments sécuritaires, évidemment qui...

13:03

[Katia] Nous on avait une position très claire au moment des JO, oui garantir la sécurité est un objectif légitime, mais il ne faut pas confondre la nécessité de garantir la sécurité d'un côté avec celle de recourir à ces outils-là pour le faire.

13:14

[Katia] Le droit international fournit un cadre très clair pour l'utilisation de ces outils, c'est-à-dire que toute ingérence dans le droit à la vie privée doit être nécessaire et proportionnée. Il appartient au législateur de faire ces démonstrations-là.

13:27

[Katia] dans le cadre de l'utilisation de la VSA, elle n'a pas été faite et pour autant on a des expérimentations qui courent depuis très très longtemps, bien avant la loi J.O. et c'est pour ça qu'en fait ça vient tout simplement fournir un cadre légal à des pratiques qui étaient déjà existantes et ça vient agir comme un catalyseur de l'usage de ces technologies-là.

13:46

[Aeris] Est-ce que la population n'aurait pas tendance aussi à demander ces technologies, parce que par exemple sur la vidéosurveillance on parle de la VSA qui a été appliquée dans les JO, mais moi je combat par exemple aussi les dash cams qui enfilment l'espace public en permanence et les gens ne se rendent même pas compte en fait de la...

13:59

[Aeris] justement du danger sur les droits, des libertés de se déplacer, de manifester, de religion, d'opinion. Et les gens disent mais non en fait j'ai le droit, c'est aussi ma liberté à moi de pouvoir filmer l'espace public et il y a des débats mais sans fin.

14:11

[Aeris] C'est des arguments qui ont été repris par les députés aussi pour justifier de la VSA en disant si la population se filme en permanence en fait on rajoute pas grand chose de donner la caméra à un flic. C'est acceptable. C'est acceptable et du coup si c'est les forces de l'ordre bah du coup il n'y a pas de problème et j'ai l'impression aussi que la population s'auto-formate et accepte en fait ces technologies là.

14:29

[Aeris] parce que c'est aussi fun, que c'est à la mode, il y en a partout et j'ai l'impression que la population est aussi une partie prenante dans cette équation-là.

14:36

[Katia] Il y a un vrai enjeu autour de la sensibilisation du grand public. Nous, quand on a commencé à mener campagne sur la VSA autour des JO, la première réponse à laquelle nous sommes heurtés, c'est...

14:48

[Katia] Ce n'est pas si grave, je n'ai rien à cacher. Si ça peut permettre d'éviter un attentat, alors mon droit à la vie privée face au droit à la vie tout court, au final, ça ne pèse pas lourd. Ça a été effectivement les premières réactions qu'on a eues. Quand on a commencé à expliquer que cette efficacité promise, affichée, elle est toute relative, que cette nécessité, cette proportionnalité n'avait pas été démontrée, que finalement les autorités arrivaient avec un postulat en disant voilà, cette technologie là, elle est efficace et on en a besoin.

15:18

[Katia] Et après on commence à parler et nous on arrive en disant bah cette efficacité et ce besoin, on va l'interroger un petit peu.

15:23

[Katia] Ça nécessite plus de temps, ça nécessite de déconstruire un petit peu, ça nécessite d'aller un peu dans l'analyse. Et effectivement, avec la procédure accélérée qui a été déclenchée autour du texte, c'était difficile. Maintenant, on a aussi constaté dans le cas de la campagne publique qu'on a menée, que quand on commençait à expliciter aussi un petit peu les enjeux, notamment le type de société vers lequel on pourrait aller, s'il y avait une généralisation de technologies qui permettent la surveillance de masse.

15:49

[Katia] Les gens commençaient un petit peu à s'interroger, commençaient un petit peu à regarder aussi dans la rue, à noter qu'il y avait effectivement un certain nombre de caméras, à comprendre que si on était tous et toutes concernés, on n'était pas toutes et tous affectés de la même manière, et ça c'est quelque chose effectivement qui commence, alors ça prend du temps ?

16:07

[Katia] mais qui commence à faire son chemin. Et quand on donnait des exemples de tentatives d'expérimentations alors qui heureusement ont été retoquées, mais je pense à la reconnaissance des émotions dans le tramway à Nice ou à la volonté d'installer des portiques de reconnaissance faciale dans des lycées à Marseille ou à Nice, encore une fois, quand on commence à parler en fait de ces expérimentations-là et à réfléchir à ce que ça pourrait donner en termes de société.

16:31

[Katia] rapidement on comprend qu'on peut vraiment basculer vers une société de suspicion généralisée où de citoyen citoyenne on devient finalement suspect potentiel et que le contrôle social n'est pas loin. Et donc là ça commence à interroger.

16:46

[Katia] et on n'a pas besoin d'aller très très loin non plus parce que c'est vrai qu'on convoque souvent des exemples un peu un peu ultimes comme la Chine ou d'autres pays qui utilisent de manière très

16:57

[Katia] très fortes ces technologies, mais en fait c'est déjà là, c'est déjà expérimenté, c'est déjà en germe dans beaucoup d'aspects de notre vie.

17:05

[Benjamin] Enfin, si on regarde ce qui se passe en Chine où traverser en dehors des clous amène automatiquement une baisse de son scoring social...

17:15

[Benjamin] même si c'est à plusieurs milliers de kilomètres, c'est quand même un peu flippant.

17:19

[Katia] C'est très effrayant, mais en même temps quand on regarde aussi ce qui se passe en Europe, où on voit une automatisation croissante par exemple du système de la protection sociale et de plus en plus d'États qui...

17:29

[Katia] qui vont recourir à des algorithmes pour noter ou allouer un score de risque, par exemple aux bénéficiaires de système de protection sociale, savoir qui doit être contrôlé en premier lieu. Quand on regarde les critères ensuite qui sont définis pour établir ce score de risque, on voit que ce sont des critères discriminatoires, que ce sont souvent les personnes les plus précaires qui vont être ciblées. Et ça, c'est déjà à l'œuvre dans les services publics en réalité.

17:59

[Katia] d'organisation qui a porté plainte devant le Conseil d'État contre l'algorithme discriminatoire utilisé par la Caisse nationale des allocations familiales.

18:09

[Katia] en France.

18:10

[Benjamin] Vous pouvez nous expliquer un peu de quoi il retourne ?

18:13

[Katia] Oui, alors en fait plusieurs organisations et des médias, la Quadrature du Net notamment.

18:19

[Katia] ont eu accès au code source de l'algorithme qui était utilisé par la CNAF, la Caisse nationale des allocations familiales, pour cibler des personnes en vue d'effectuer des contrôles.

18:31

[Katia] Concrètement, il s'agissait de déterminer où étaient les indus, les erreurs, et d'essayer de flécher un peu mieux les contrôles. On s'est rendu compte que la CNAF allouait un score de risque

18:45

[Katia] aux allocataires entre 0 et 1, plus le score est proche de 1, plus la probabilité d'être contrôlée est grande. Et parmi les critères qui augmentent ce score de risque, on va retrouver le fait…

18:56

[Katia] d'être un parent isolé, le fait d'être au RSA, le fait de toucher par exemple à l'occasion adulte handicapé.

19:03

[Katia] Donc des critères discriminatoires qui font augmenter ce score de risque et qui font que plus les personnes sont précaires...

19:11

[Katia] plus elles vont être ciblées par de potentiels contrôles. Ça, c'est ce qui se passe en France. Nous, on a demandé à la CNAF de mettre fin à l'utilisation de cet algorithme-là, comme on n'a pas eu de réponse.

19:23

[Katia] on a été directement devant le Conseil d'État. Ça va prendre du temps, ça va prendre des années d'obtenir une décision sur le sujet.

19:29

[Katia] Mais en l'occurrence ce sont des pratiques qu'on a pu documenter dans d'autres pays, je pense aux Pays-Bas, je pense à la Serbie, où effectivement les États...

19:40

[Katia] ont de plus en plus recours à ces technologies-là dans les services publics et notamment dans leur système de protection sociale.

19:47

[Katia] Donc il y a une vraie automatisation de ce secteur, alors ça passe par la dématérialisation des demandes, par exemple d'aide.

19:54

[Katia] ça passe par la création de bases de données et ça passe par des décisions automatisées ou semi automatisées qui vont effectivement flécher les contrôles dans le cadre souvent de luttes antifraude. C'est ce qui s'est passé au Pays-Bas et ça a été un scandale qui a finalement abouti à mettre fin à l'usage de cet algorithme mais on voit très bien qu'il y a une sorte de course.

20:18

[Katia] à l'usage de ces technologies-là, sous couvert d'efficacité, sous couvert de neutralité. On nous dit toujours, mais il y a une décision humaine au bout, c'est pour mieux aider à la décision, mais on connaît aussi très bien le biais d'automatisation qui fait que bien souvent, les personnes vont davantage faire confiance à la technologie, qu'à d'autres facteurs, y compris leur propre jugement.

20:37

[Benjamin] Clique, clique, clique, on valide.

20:39

[Aeris] Et on ne parle pas que de technologies qui sont utilisées dans le public, dans le privé ça fonctionne aussi beaucoup, en particulier dans le monde bancaire, les banques, les prêts à la consommation ou autres

20:46

[Aeris] reposent sur à peu près les mêmes types de critères.

20:49

[Aeris] Pour décider de vous accorder ou non après, les critères peuvent être discriminatoires. Le fait d'être un étranger peut vous empêcher d'avoir accès à un crédit.

20:56

[Aeris] ou d'ouvrir un compte en banque.

20:57

[Benjamin] et on s'y habitue.

20:58

[Aeris] et on s'y habituait et c'est totalement normal, enfin ça a été considéré comme normal par la population.

21:02

[Aeris] Et il y a eu pas mal de décisions justement de la CJUE qui interdit

21:06

[Aeris] le scoring bancaire

21:08

[Aeris] dans ce type de cas parce que justement c'est discriminatoire et ça en plus des effets lourds si vous êtes interdit de crédit c'est quand même pas négligeable

21:16

[Aeris] aujourd'hui en France et il y a eu des décisions très fortes sur le sujet.

21:19

[Benjamin] Parce que ce dont on se rend compte sur tous les sujets qu'on aborde, c'est que l'acceptabilité est le facteur clé en fait.

21:25

[Benjamin] et on a vraiment l'impression qu'il y a un mécanisme à la fenêtre d'Overton où

21:30

[Benjamin] on sort d'abord l'artillerie lourde, le bazooka, et puis on va refaire un petit pas en arrière, on va dire bon d'accord, on va pas mettre de la vidéosurveillance émotionnelle à l'entrée de tous les lycées, mais bon on va quand même mettre de la vidéosurveillance algorithmique.

21:43

[Benjamin] Et là-dessus, il y a un vrai enjeu de...

21:48

[Benjamin] d'éducation et puis d'expliquer.

21:51

[Benjamin] de communiquer, et d'ailleurs c'est une des raisons pour lesquelles on fait ce podcast, on s'en cache pas. À titre personnel, moi il y a une anecdote que j'ai trouvé vraiment édifiante, ma fille est rentrée au lycée cette année.

22:03

[Benjamin] Et pour la cantine, on lui a demandé une empreinte biométrique de sa main pour la cantine.

22:10

[Benjamin] Et en fait, il y a un problème de proportionnalité. C'est-à-dire que pour payer la cantine, recueillir une donnée biométrique...

22:22

[Benjamin] On sait en plus que les bases de données, elles finissent toutes par être hackées.

22:28

[Aeris] Surtout en ce moment, il y en a une par jour à finir sur internet.

22:30

[Benjamin] Surtout en ce moment, il y a un vrai problème de proportionnalité et ben non, c'est la cantine. Une carte en carton, ça fait très bien l'affaire, ça suffit quoi. L'enjeu et le risque de fraude même, il est suffisamment bas pour refuser d'avoir recours à ça.

22:51

[Benjamin] et alors je suis peut-être un petit peu paranoïaque mais je pense que

22:55

[Benjamin] Je suis même pour l'instant beaucoup paranoïaque mais je pense qu'il y a une vraie...

23:03

[Benjamin] un vrai enjeu réfléchi de faire rentrer la biométrie dans les lycées, dans les écoles, pour habituer les jeunes générations dès aujourd'hui

23:12

[Benjamin] à utiliser ces outils.

23:14

[Benjamin] Aujourd'hui, on sait que les jeunes sont très souvent sur les réseaux sociaux et qu'ils ont l'habitude de partager énormément d'informations. Nous, on a grandi, Internet n'existait pas encore, on a vu les réseaux sociaux arriver. Au début, on a été...

23:26

[Benjamin] tout fébrils on trouvait ça génial et puis...

23:29

[Benjamin] on a compris comment ça marchait donc maintenant on sait faire la part des choses et et on fait attention

23:36

[Benjamin] mais là on a affaire à des générations qui sont nées avec un téléphone dans les mains, qui savent pas comment ça fonctionne, qui ne maîtrisent pas les enjeux, qui se rendent pas compte.

23:45

[Benjamin] qu'un monde différent est possible parce que nous on l'a connu mais eux l'ont pas connu.

23:48

[Benjamin] et les obliger à prendre des empreintes biométriques pour aller à la cantine. Je pense aussi que...

23:55

[Benjamin] et bien ça nous amène vers une société où on trouvera ça complètement normal d'avoir de la reconnaissance faciale d'émotions partout.

24:03

[Katia] Oui, il y a un vrai phénomène d'accoutumance et d'acceptabilité qui est aussi lié au début à la question de la transparence. C'est-à-dire qu'au début, on ne sait pas bien comment ça fonctionne, tout ça est très opaque et donc ça facilite aussi l'adoption de certaines mesures. Sur la question des réseaux sociaux, des jeunes, de l'utilisation de ces technologies-là, nous avons beaucoup travaillé sur le sujet.

24:25

[Katia] Et alors c'est vrai qu'il y a une question un peu ambivalente en fait, parce que à la fois sont effectivement des personnes qui ont besoin d'être sensibilisées. Il y a un enjeu d'éducation aux droits humains, à une utilisation on va dire qui soit non problématique, à une certaine hygiène numérique quotidienne on va dire, et en même temps on a constaté que les jeunes, parce qu'ils sont, je dis les jeunes, c'est une grande catégorie,

24:55

[Katia] mais parce qu'ils sont nés aussi avec les téléphones portables, avec les réseaux sociaux, parce qu'ils les connaissent depuis toujours, peuvent aussi avoir un certain recul et pour certains connaître finalement leur fonctionnement. Et donc, en fait, on se retrouve dans une situation, on a fait une campagne justement sur l'impact des réseaux sociaux sur les jeunes. On travaille dessus et on parle avec beaucoup de jeunes.

25:19

[Katia] beaucoup de pays dans le monde et ils nous disent à la fois leur dépendance très très forte.

25:25

[Katia] et leur impuissance dans le même temps. C'est à dire qu'il y a une certaine aussi forme de lucidité.

25:30

[Katia] chez certains qui nous disent, on sait très bien qu'en fait, on paye avec nos données personnelles. On sait très bien qu'il y a la conception même de ces plateformes, tout est fait pour nous maintenir en ligne le plus longtemps possible. Tout est fait pour booster tel ou tel contenu. On sait très bien que notre expérience en ligne, elle est façonnée par l'algorithme de recommandation, que tout ça, c'est pour générer des profits, les publicités ciblées, etc. Il y a quand même une certaine lucidité sur la manière dont ça fonctionne et en même temps.

25:59

[Katia] une impuissance totale à s'en défaire parce que ce sont aussi leurs outils de communication, leurs outils de mobilisation, une manière pour certains et certaines de sortir d'un isolement et à partir de là c'est qu'est ce qu'on fait ? Et nous on considère qu'en fait il faut remettre les responsabilités là où elles sont.

26:14

[Katia] Alors les utilisateurs, les utilisatrices et les personnes qu'ils accompagnent doivent être sensibilisés et au fait effectivement de ces gens-jeux mais c'est aussi les entreprises, les réseaux sociaux et les États.

26:23

[Katia] qui doivent poser les cadres nécessaires et réglementaires pour effectivement s'assurer d'un respect des droits humains et d'une protection des libertés. Et ça aujourd'hui effectivement on commence à travailler sur le sujet. Il y a encore une fois des...

26:38

[Katia] des textes législatifs qui pour certains vont dans le bon sens mais...

26:41

[Katia] mais jamais assez loin de notre point de vue. Et c'est comment on reprend la main, en fait, sur ces technologies-là aussi. Comment on s'assure qu'elles remplissent véritablement leurs promesses de plus de partage, de créativité, d'espace de communication et qu'elles ne viennent pas finalement des espaces toxiques, d'enfermement, où nos données personnelles sont captées, sont collectées, utilisées à notre insu, sans notre consentement, etc. C'est ça la question aussi qui nous anime, c'est comment on reprend la main

27:10

[Katia] sur ces outils-là.

27:12

[Benjamin] Et d'un point de vue législatif, alors à quoi vous faites allusion ?

27:15

[Katia] Alors je faisais allusion au Digital Services Act, le DSA ou la loi sur les services numériques qui a aussi récemment été adoptée au niveau européen avec l'ambition de réguler les grandes plateformes du numérique.

27:30

[Katia] et qui va pour la première fois poser un certain nombre d'obligations à ces grandes plateformes, notamment en termes de transparence, notamment en termes d'accès à des tiers, à des chercheurs ou autres, au fonctionnement de ces plateformes-là, notamment en termes d'interdiction de publicité ciblée en direction des mineurs.

27:51

[Katia] ou en se basant sur la collecte des données sensibles. Donc il y a un certain nombre de dispositions qui vont dans le bon sens en termes de transparence et de redevabilité mais encore une fois, de notre point de vue, ça ne va pas assez loin. C'est-à-dire que si on reconnaît qu'il y a un problème, en face on met la solution qui...

28:09

[Katia] qui est adaptée à savoir de notre point de vue une refonte totale du modèle de développement de ces plateformes là qui fonctionnent sur

28:17

[Katia] sur la publicité ciblée, sur la captation des données personnelles, donc sur une surveillance en ligne à tout moment.

28:22

[Katia] Littéralement, quand on est sur la plateforme TikTok, par exemple,

28:26

[Katia] l'algorithme va pister tout ce que les utilisateurs font en ligne,

28:29

[Katia] et essayer de déduire des centres d'intérêt, des niveaux de bien-être

28:33

[Katia] pour après proposer des contenus hyper personnalisés

28:37

[Katia] pour garder en ligne le plus longtemps possible les personnes,

28:39

[Katia] quitte à proposer des contenus problématiques,

28:41

[Katia] toxiques

28:42

[Katia] qui peuvent avoir des conséquences dramatiques dans la vie réelle.

28:45

[Katia] Et donc c'est ce modèle-là qu'il faut changer. On ne dit pas qu'il faut fermer les réseaux sociaux, il faut les réparer, il faut les transformer, il faut aller vers un modèle où les utilisateurs et les utilisatrices ont véritablement la main, peuvent choisir le type de contenu qu'ils et elles veulent recevoir et non pas...

29:04

[Katia] subir en fait l'analyse de l'algorithme de recommandation qui va identifier tel centre d'intérêt et booster tel contenu de manière à favoriser l'engagement.

29:15

[Benjamin] sur TikTok en particulier je pense qu'ils ont vraiment poussé le curseur

29:21

[Benjamin] J'aurais envie de dire le plus loin qu'on puisse aller mais je pense qu'en fait ils ont énormément d'imagination et qu'ils sont capables d'aller encore plus loin. Il y a des parents qui ont porté plainte contre TikTok.

29:31

[Benjamin] et vous avez une démarche particulière vis-à-vis de ce réseau social en particulier ?

29:37

[Katia] Oui, parce qu'on a mené une enquête spécifique sur TikTok. Et alors la démarche était un petit peu innovante de nos points de vue, c'est-à-dire qu'on avait envoyé un questionnaire en ligne, pour le coup, dans le monde entier, auprès de jeunes, pour leur demander ce qu'ils aimaient et ce qu'ils aimaient pas en ligne. Assez rapidement a émergé la thématique de la santé mentale.

29:55

[Katia] parce qu'ils nous ont confié se sentir complètement aspiré, se sentir des fois dépressif, dépendant, ne pas réussir à sortir de certaines bulles, chambres d'écho, etc.

30:06

[Katia] Et donc on a commencé à creuser cette question. Et effectivement TikTok a poussé cette logique vraiment à l'extrême avec son algorithme de recommandation. Et donc on a continué à...

30:18

[Katia] à nous entretenir avec des jeunes, avec des focus groupes, des discussions dans plusieurs pays dans le monde. Et puis on a mené une enquête technique, on a créé des faux comptes automatisés qu'on a fait tourner une heure par jour pendant plusieurs jours pour voir ce qui se passait.

30:30

[Katia] Et on s'est rendu compte que dès lors que certains utilisateurs présentaient un intérêt pour les enjeux liés à la santé mentale

30:37

[Katia] au bout de maximum 20 minutes, le fil personnalisé de la plateforme, le fil ”Pour toi”,

30:43

[Katia] proposait quasiment que des contenus banalisaient, idéalisaient, voire encourageaient

30:51

[Katia] la dépression,

30:51

[Katia] l'automutilisation

30:52

[Katia] ou le suicide.

30:54

[Katia] Donc ça a amené effectivement à des situations dramatiques.

30:57

[Katia] Là il y a un cas qui est aujourd'hui assez connu de la jeune Marie

31:02

[Katia] qui s'est donné la mort et les parents ont porté plainte contre Tiktok.

31:07

[Katia] On a un collectif de familles de victimes, Algos Victima, qui s'est créé justement pour essayer d'établir la responsabilité de la plateforme. Ça a été aussi le cas au Royaume-Uni il y a quelques années où une adolescente était morte également de la même manière suite à des publications sur Instagram lui expliquant comment s'automutiler. Donc en fait...

31:34

[Katia] on a constaté que l'algorithme de TikTok et de ses plateformes...

31:39

[Katia] s'il n'est pas conçu pour en soi booster ces contenus là, dès lors qu'il identifie qu'il peut y avoir un intérêt sur un sujet lié à la santé mentale, va promouvoir ces contenus. Ça va les attirer ces personnes là dans des spirales toxiques.

31:53

[Katia] Et donc au final, ce qui se passe concrètement, c'est que la plateforme va littéralement exploiter les vulnérabilités psychologiques des utilisateurs et utilisatrices afin de maximiser leur engagement en ligne et de maximiser leurs profits. C'est de ça dont il s'agit. Donc oui, on a publié deux grosses enquêtes sur TikTok fin 2023 pour dénoncer ce fonctionnement-là, ce système, l'impact que ça peut avoir. On s'est concentré sur la santé mentale des jeunes et les implications.

32:23

[Katia] que ça peut avoir dans la vie réelle. Et aujourd'hui, on va mener, on continue à mener cette campagne pour d'une part sensibiliser les jeunes et les moins jeunes à ces questions, mais surtout pour amener TikTok à respecter ses responsabilités en matière de droits humains, parce que les entreprises ont aussi une obligation de respecter les droits humains. Et donc, il y a un certain nombre de mesures qu'elles devraient prendre à commencer par changer son modèle de développement économique, par interdire.

32:48

[Katia] pour tout le monde et partout la publicité ciblée, à arrêter d'hyper personnaliser les contenus, à laisser le choix aux utilisateurs et aux utilisatrices. Il y a beaucoup de choses que les plateformes pourraient faire, elles le savent, les solutions sont connues, mais ce n'est pas le modèle qui a été choisi.

33:03

[Aeris] Et puis c'est surtout de mettre en place aussi des gardes-fous parce que là mettre en avant du contenu justement toxique etc ne fait partie que du... C'est ce qu'on a demandé à l'algo de faire en fait. Les gens on leur on a juste demandé, faites un algorithme qui va mettre en avance ce que les gens cherchent. Bah du coup quand ils cherchent des santé mentale on leur met de la santé mentale à fond. Et avec les conséquences que ça a derrière et au moins d'avoir des gardes-fous et le DSA, le DMA est supposé...

33:24

[Aeris] imposer à ces plateformes d'avoir des blocages.

33:28

[Aeris] au moins de censurer l'algorithme pour qu'il évite de mettre ses contenus en avant. Mais ça ne fonctionne pas bien de toute façon, donc il faut effectivement revoir le modèle. Mais déjà d'avoir des gardes fous, ça serait déjà pas mal.

33:41

[Benjamin] Oui, le garde-fou, il va juste corriger un des problèmes générés par cet écosystème. Mais le problème, c'est bien l'écosystème global. Sur les études que vous avez mentionnées, elles sont disponibles en ligne ?

33:52

[Katia] Absolument. Tous nos rapports sont disponibles en ligne. Là, c'était vraiment sur TikTok, les jeunes et la santé mentale. Mais on a aussi probablement publié des rapports sur Facebook, au Myanmar et en Éthiopie. On a montré comment, dans un contexte de violence ethnique, les algorithmes de la plateforme Facebook, par exemple, pouvaient inciter à la violence, à la discrimination, à la haine. Et par exemple, en ce qui concerne le Myanmar, avaient pu contribuer.

34:17

[Katia] au nettoyage ethnique.

34:18

[Katia] des Rohingyas, donc une minorité musulmane dans le pays, en 2017. On a montré comment, en fait, dans les semaines, dans les mois qui ont pris

34:27

[Katia] précédé ce nettoyage ethnique, la plateforme était inondée de messages appelant à la haine, comparant les Rohingyas à des sous-êtres, à des animaux. Il faut savoir qu'au Mialmar, cette plateforme est utilisée par les autorités, par le gouvernement, par l'armée, donc fait office finalement d'informations, de lieux d'informations. Et donc concrètement, on a mené une analyse juridique qui montre que Facebook, Meta maintenant, a contribué.

34:54

[Katia] aux atrocités commises par l'armée des autorités du Myanmar contre les Rohingyas. Et donc ça, effectivement, c'est quelque chose qu'on a dénoncé. On a dit attention, si le modèle ne change pas. Alors effectivement, la question de la modération, qui est extrêmement importante, mais les moyens ne sont jamais suffisants. Et donc, il y a besoin d'avoir un changement systémique. Et on avait prévenu, on avait dit attention, s'il n'y a pas ce changement là, ça va se reproduire. Et l'année d'après, on a publié un rapport.

35:22

[Katia] avec les mêmes conclusions sur l'Éthiopie, cette fois-ci en direction des populations tigréennes qui se sont faites également réprimer violemment avec la contribution, la complicité de Meta.

35:36

[Benjamin] Donc on mettra dans les chevauches les liens vers toutes ces études.

35:40

[Aeris] Du coup justement sur la partie législation et la partie internationale, comment ça avance aujourd'hui sur le sujet pour justement quelle entité on a en avant sur ces sujets là ?

35:49

[Aeris] essayer de les corriger ? Est-ce qu'on a des législations qui sont en cours de mise au point ?

35:56

[Katia] Alors c'est assez disparate. C'est vrai qu'on a beaucoup parlé de l'Union européenne qui essaye de normaliser. On dit souvent que les États-Unis et la Chine avancent et que l'Union européenne court derrière et tendent de réglementer. En réalité, réglementer, c'est de notre point de vue extrêmement important, de pouvoir poser des cadres et des obligations.

36:14

[Katia] On a mentionné des règlements existants. Là, c'est vrai qu'avec le DSA, avec l'AI Act, qui est une des premières tentatives au monde pour vraiment réguler les différents systèmes d'IA, l'idée c'est que ça puisse aussi probablement influencer ou inciter d'autres régions du monde à faire pareil. On a des législations ensuite nationales qui vont pouvoir être adoptées. Aux États-Unis, ça peut être au niveau aussi de certains États où des mesures ont été prises.

36:44

[Katia] C'est assez tentaculaire en fait d'essayer de réguler les systèmes d'IA. Ça se pose à beaucoup de niveaux. D'ailleurs, il n'y a même pas de définition universellement reconnue de l'IA. Et ça vient mobiliser énormément de ressources, énormément de personnel, des logiciels. Et que ce soit en amont ou en aval de l'utilisation, à chacune des étapes, en fait, la régulation doit s'appliquer, y compris en prenant en compte le contexte.

37:10

[Katia] l'usage qui est fait, donc c'est assez complexe de réguler, complexe mais nécessaire et urgent. Et aujourd'hui ce débat-là, il doit se tenir au niveau international. La question de la gouvernance mondiale de l'IA doit se poser, et pas que à travers un sommet mondial qui est une vitrine de la tech et forcément qui...

37:31

[Katia] vers le technosolutionnisme et d'avoir aussi une approche critique.

37:34

[Katia] qui n'est pas de dire il faut bannir absolument les technologies mais de se dire en fait comment on s'assure d'un développement technologique soit respectueux des droits humains. Et ce débat là aujourd'hui il est nécessaire, il est urgent et on a aussi quand je dis on, société civile, mais beaucoup d'acteurs de ce système, de cet écosystème là, des propositions. C'est à dire que quoi qu'il arrive, les enjeux de transparence, de prise en compte des personnes concernées, le fait que tout...

38:01

[Katia] toute tentative de réguler doit être contraignante, parce que s'il n'y a pas d'obligation, on est sûr qu'il y aura des abus derrière, ou une mise en oeuvre tout à fait aléatoire, tout principe d'interdiction.

38:12

[Katia] ne doit pas souffrir d'exception parce que sinon ça rend effectivement ce principe tout à fait illusoire. Donc il y a des discussions aujourd'hui mais il faut pas non plus renvoyer de dos à dos les niveaux nationaux, régionaux ou internationaux, ça peut se compléter et c'est assez urgent de le faire.

38:32

[Benjamin] les événements un peu qui nous semblent surnaturels en fait. Il y avait le projet Pegasus sur lequel j'avais vu que vous vous étiez positionné.

38:41

[Benjamin] et ça va attirer mon attention. Est-ce que vous pouvez nous en dire deux trois mots ?

38:46

[Katia] Alors Pegasus, c'est un logiciel espion qui est développé par une société de cybersécurité israélienne qui s'appelle NSO Group. Et c'est un logiciel espion qui permet donc d'infiltrer des téléphones portables et de donner accès à absolument toutes les informations du téléphone à l'auteur de l'attaque.

39:09

[Katia] Le projet Pegasus en fait, c'est un projet qui a été mené en partenariat avec Forbidden Stories, qui est un collectif de journalistes. Donc une enquête menée par plus de 80 journalistes de 17 médias dans 10 pays.

39:24

[Katia] et qui a révélé en 2021 en fait l'usage planétaire, illégal et abusif de ce logiciel espion, donc hautement intrusif par plusieurs états.

39:37

[Katia] sous couvert de lutte contre le terrorisme.

39:40

[Katia] Finalement, ce logiciel a été utilisé pour espionner illégalement des membres de la société civile, c'est-à-dire des journalistes, des défenseurs des droits humains, des militants, des opposants politiques, des avocats, etc. Donc en toute illégalité.

39:56

[Katia] Et c'est un projet auquel Amnesty International a participé en tant que partenaire technique, puisqu'on a un laboratoire qui a développé une méthodologie pour analyser les téléphones et détecter si oui ou non il y a une attaque notamment par ce logiciel Pegasus. Et donc dans le cadre de cette enquête...

40:16

[Katia] Les journalistes ont eu accès à une liste de 50 000 numéros de téléphone, de cibles potentielles.

40:23

[Katia] de Pegasus et donc ils ont enquêté sur qui était derrière ces numéros de téléphone et ce n'était pas que des criminels en puissance ou des terroristes en puissance, on retrouvait effectivement des journalistes, des défenseurs des droits humains, des opposants politiques, des personnalités politiques.

40:42

[Katia] Et donc c'est ce qu'on a révélé à l'été 2021. Ça a quand même provoqué une onde de choc parce que là on se rend compte en fait qu'il y a tout un secteur qui est complètement opaque, hors contrôle. C'est vraiment le Far West avec...

41:00

[Katia] pas du tout régulé ou au final des états.

41:04

[Katia] peuvent se doter d'un logiciel et l'utiliser pour espionner qui ils veulent.

41:10

[Katia] Concrètement, c'est ça le projet Pegasus.

41:12

[Aeris] Et avec des notes blanches de la police ou autre, où ils disaient « Cette personne-là nous, elle nous intéresse, on va aller l'infecter avec du Pegasus » alors qu'il n'y avait pas forcément de motivation réelle derrière.

41:21

[Katia] Ah oui et puis c'était vraiment, tous les jours on faisait de nouvelles révélations sur le profil des cibles potentielles. On s'est rendu compte par exemple que le...

41:32

[Katia] Emmanuel Macron et le gouvernement de 2019 à l'époque, 15 ministres du gouvernement étaient sur la liste des 50 000 numéros de téléphone, donc des cibles potentielles. Ce ne veut pas dire qu'ils ont été espionnés en tant que tels mais ça veut dire qu'on pouvait activer Pegasus sur leur téléphone. Et quand je lis activer Pegasus, ça veut dire que globalement le gouvernement qui veut par exemple espionner un journaliste qui fait des enquêtes qui dérangent un petit peu, on va dire.

42:00

[Katia] En activant Pegasus, il va non seulement avoir accès à ses contacts, à son historique de navigation, à ses SMS...

42:08

[Katia] à ses échanges y compris WhatsApp, peut activer à distance le téléphone ou le micro ou la caméra. Donc c'est vraiment un mouchard dans la poche. On appelle ce type de logiciels des logiciels hautement intrusifs parce que on ne peut pas les paramétrer pour limiter le degré d'intrusivité dans l'appareil. Donc nous on demande, on a évidemment...

42:34

[Katia] alertés au moment de ce scandale-là et on a demandé d'une part un moratoire immédiat sur la conception, le commerce, la vente, l'utilisation de ces logiciels espions en attente de la mise en place d'un cadre réglementaire qui soit respectueux des droits humains.

42:51

[Katia] Et puis on a assez rapidement demandé pour certains logiciels du type Pegasi, c'est-à-dire ceux qui sont hautement intrusifs, qui ne permettent pas de limiter l'intrusion, qui ne permettent pas de contrôle externe indépendant, on a demandé leur interdiction parce qu'on considère qu'ils ne sont jamais compatibles avec les droits humains et qu'il s'agit d'une violation du droit à la vie privée.

43:14

[Katia] et que ça, ça n'est absolument pas possible. Donc aujourd'hui, on est encore dans cette bataille-là, puisque ça fait un peu l'effet de...

43:22

[Katia] Voilà, d'un réveil sur ces questions-là. D'un coup, on se rend compte que oui, c'est en train de se passer. Et puis Pegasus est un logiciel d'une entreprise. Il y a beaucoup d'autres logiciels et beaucoup d'autres entreprises.

43:34

[Katia] Donc c'est vraiment la partie émergée de l'iceberg. Et depuis d'ailleurs, malheureusement, il y a eu d'autres scandales, le scandale Prédator, où là on est sur une technologie européenne qui a été exportée vers des pays qui l'ont encore utilisée de manière abusive. Donc c'est pareil, le même type de logiciel espion hautement intrusif.

43:54

[Katia] Alors même qu'on a un règlement européen sur l'exportation des biens de double usage qui devrait normalement nous prévoir l'heure de ce genre d'avis et c'est complètement passé entre les mailles du filet. Donc on voit bien qu'il y a une culture de l'impunité qui s'est développée dans ce secteur là de la cybersécurité en toute opacité et qu'aujourd'hui il est nécessaire non seulement d'alerter, de dénoncer mais de mettre en face les cadres qui...

44:16

[Katia] qui appelle les différents acteurs à leur responsabilité.

44:19

[Aeris] On avait déjà eu le problème avec Amesis Cosmos aussi, il y a dix ans, où la technologie française était revendue en Syrie, en Libye, en Turquie, etc.

44:28

[Aeris] pour surveiller des opposants. Et c'est vrai que les politiques ont tendance à fermer les yeux, en fait, une entreprise française qui va exporter, c'est génial pour le PIB. Mais oui, c'était en fait à mettre sous surveillance des opposants politiques, en Syrie en particulier.

44:40

[Katia] Oui, on a aussi l'exemple de Idemia, entreprise française avec une exportation vers la Chine.

44:46

[Katia] Donc effectivement, ça pose question.

44:48

[Benjamin] Donc c'est bon pour le PIB et pour la balance commerciale.

44:50

[Aeris] Ah ben tout à fait. On vend aussi des armes, etc. Ça fait effectivement partie des technologies qu'on est très fiers de vendre, etc. Alors qu'en fait arrêtez d'envoyer ces outils-là à des...

45:01

[Aeris] déjà arrêtés tout court mais en particulier à des dictateurs ou des dictatures.

45:05

[Benjamin] Pour finir, est-ce que vous auriez des conseils pratiques ? Parce que ce qu'on a entendu, ça fait un peu froid dans le dos. On se doute qu'on n'est pas tous des cibles potentielles. Néanmoins, sans aller jusqu'à ces logiciels comme Pegasus...

45:21

[Benjamin] Quel conseil pratique qu'on peut mettre en application dès demain, vous donneriez à un citoyen en France ?

45:29

[Katia] C'est une question difficile parce que, oui, de fait, il a nécessité d'avoir une...

45:36

[Katia] On appelle une bonne hygiène numérique, c'est-à-dire effectivement s'assurer de différentes pratiques en ligne, par exemple utiliser des messages écripités, de s'assurer d'avoir une double authentification.

45:49

[Katia] essayer de parer au mieux les risques, on va dire.

45:52

[Katia] Malheureusement le risque zéro il n'existe pas et c'est aussi pour ça que je parle souvent de remettre la responsabilité et les responsabilités là où elles sont. C'est à dire qu'à titre individuel il y a des choses qu'on

46:03

[Katia] on peut faire, on peut s'informer, on peut en parler. On a évoqué les réseaux sociaux, c'est très important que l'éducation aux réseaux sociaux, aux médias se fasse et qu'il puisse y avoir aussi des échanges avec les adultes, les parents, les professeurs, les encadrants, enfin que ça devienne des sujets de société et de débats publics. C'est extrêmement important donc s'informer,

46:29

[Katia] cette bonne hygiène numérique. Mais encore une fois, à titre individuel, on se retrouve assez rapidement démunis parce qu'on est face au Big Tech, on est face à des géants du numérique qui sont tout puissants, on est face à des États qui passent au travers des législations et donc...

46:47

[Katia] peut-être le pouvoir aussi individuel, il est dans la capacité à se rassembler et à collectivement demander en fait des comptes, demander de la transparence, refuser certaines pratiques et donc là on va plutôt aller du côté de la mobilisation des campagnes en se disant voilà...

47:05

[Katia] On sait ce qu'on veut, on sait ce qu'on ne veut pas et on refuse d'être pris au piège ou victime de systèmes qui ne sont pas de notre fait, qu'on n'a pas choisi. Donc participer à ce changement systémique, c'est aussi dans l'interpellation, dans la dénonciation, dans l'interpellation, dans la mobilisation. Ça, ça fait partie des campagnes qu'on essaie de mener, mais c'est long, c'est laborieux, c'est compliqué, mais ce n'est pas impossible.

47:31

[Benjamin] Oui, c'est-à-dire avoir une bonne hygiène numérique.

47:35

[Benjamin] on sera tous d'accord, mais aujourd'hui c'est difficile d'avoir une bonne hygiène numérique. Dans les années 80, j'ai commencé l'informatique dans les années 80, avoir une bonne hygiène numérique c'était acheter des disquettes et faire des sauvegardes.

47:46

[Benjamin] et éviter d'installer des disquettes, des logiciels qui proviennent de disquettes douteuses.

47:51

[Benjamin] C'est-à-dire que tout seul, on pouvait avoir une bonne hygiène numérique. Aujourd'hui, avoir une bonne hygiène numérique tout seul dans son coin, c'est compliqué.

47:58

[Katia] C'est compliqué.

47:58

[Aeris] On a la même hygiène numérique qu'il y avait avant mais le problème c'est que les entreprises elles font ce qu'elles veulent et aujourd'hui vous aurez beau avoir une bonne hygiène numérique qui pigment Pegasus, c'est absolument impossible de bloquer ça. Et quand vous allez utiliser les réseaux sociaux, les algorithmes vous n'avez pas la main dessus et donc là vous n'avez plus le choix. Donc votre hygiène numérique personnelle n'a pas changé depuis 20 ans mais par contre c'est surtout les entreprises, le commerce et le business qui posent problème en face et ça on n'a pas la main.

48:22

[Benjamin] Quand même par exemple quand Meta Facebook a racheté WhatsApp, il est vite apparu que c'était problématique.

48:30

[Benjamin] Parce que rien que s'ils font ce qu'ils disent qu'ils font, c'est problématique. Alors on imagine si en plus ils font ce qu'ils nous disent pas qu'ils font, là c'est vraiment flippant. Et moi mon réflexe a été désinstaller WhatsApp et puis dire à tout le monde maintenant pour me contacter, aller sur Signal.

48:47

[Benjamin] Et en fait, tout seul sur signal, ben on est tout seul.

48:50

[Benjamin] Donc dans mon cercle familial, comme ils me connaissent, ils ont compris que je plierai pas. Après dans le cercle professionnel, c'est très compliqué. Et dans le cercle amical, et si en plus on est un jeune et qu'il y a la pression sociale.

49:05

[Benjamin] Avoir une bonne hygiène numérique aujourd'hui, c'est vraiment vraiment compliqué.

49:09

[Katia] Exactement.

49:10

[Benjamin] Et donc c'est là où encore une fois, la pédagogie est primordiale. Et on s'en sortira passant. Et j'ai l'impression que la pédagogie, c'est quand même une des missions de Amnesty International France. Comment est-ce qu'on peut vous aider ?

49:22

[Katia] Alors en rejoignant nos campagnes, en se mobilisant à nos côtés, effectivement, ça fait partie de nos axes de travail de sensibiliser, de donner des clés de lecture, de données à comprendre. Alors on fait beaucoup de recherches, on essaie d'adapter aussi les contenus et les supports pour que ce soit accessible au plus grand nombre et compréhensible. Donc aller voir le site internet, lire les publications. Effectivement, on est aussi sur les réseaux sociaux parce qu'on ne veut pas déserter des espaces où les discussions se font.

49:50

[Benjamin] Vous êtes sur TikTok ?

49:51

[Katia] Alors on est sur TikTok depuis peu.

49:53

[Katia] avec l'idée de pouvoir aussi diffuser sur cette plateforme des contenus qui nous semblent importants. Mais alors on a une grande campagne en même temps qui vise TikTok. Cette position qui pourrait apparaître comme contradictoire, elle a assumé puisque c'est aussi ce qu'on faisait pour Facebook, Meta, etc. On ne s'interdit pas d'y être et encore moins de cibler, de dénoncer, d'interpeller les entreprises et les réseaux sociaux.

50:22

[Katia] pour qu'elle change.

50:23

[Katia] Donc oui, rejoignez nos campagnes. Pour les plus jeunes, on a des antennes jeunes, que ce soit dans les lycées ou dans les universités, qui sont une sorte de structure locale qui permettent de mener campagne, de se mobiliser. On a des groupes locaux, sinon un peu partout en France aussi.

50:41

[Katia] qui sont au temps de relais de nos campagnes, de nos travailleurs de plaidoyer. On fait du plaidoyer local aussi, on peut s'investir à ce niveau-là, on peut tout simplement adhérer à Amnesty International si on le souhaite, s'informer via la newsletter. Il y a beaucoup de manières et d'ailleurs il y a vraiment une page dédiée sur le site avec le parcours d'engagement pour...

51:02

[Katia] à la carte si je puis dire, c'est-à-dire choisir effectivement ce qui nous convient le plus en fonction de d'où on est, de nos centres d'intérêt, de notre âge, parfois on a différentes manières de s'impliquer et c'est très bien comme ça.

51:16

[Benjamin] Et bien voilà, c'est déjà fini. Un immense merci à Katia Roux.

51:19

[Katia] Merci à vous.

51:20

[Benjamin] Merci pour nous avoir accueillis et avoir accepté de répondre à toutes nos questions.

51:25

[Benjamin] Vous avez écouté RdGP. RdGP est hébergé par Castopod, solution libre, ouverte et gratuite d'hébergement de podcast diffusée sur toutes les plateformes d'écoute et sur le fait divers. N'oubliez pas que vous pouvez interagir et nous envoyer vos commentaires,

51:42

[Benjamin] Pour écouter cet épisode, nous vous conseillons une application compatible Podcasting 2.0. Vous trouverez une liste sur newpodcastapps.com

51:49

[Benjamin] Merci à toutes et à tous de nous avoir écouté et à la semaine prochaine !