5 541.99 PTS
-
5 552.0
+0.22 %
SBF 120 PTS
4 432.20
-
DAX PTS
13 463.69
-
Dowjones PTS
26 214.60
+0.55 %
6 906.28
+0.00 %
Nikkei PTS
23 959.30
+0.60 %
Suivez-nous sur Facebook
Suivez-nous sur Google +
Suivez-nous sur Twitter
Suivez-nous sur Youtube

Cnil: il faut sans cesse douter des algorithmes

| AFP | 173 | Aucun vote sur cette news
Isabelle Falque-Pierrotin, présidente de la Cnil, le 27 mars 2017 à Paris
Isabelle Falque-Pierrotin, présidente de la Cnil, le 27 mars 2017 à Paris ( ERIC PIERMONT / AFP/Archives )

Il faut savoir constamment douter des algorithmes, omniprésents dans l'univers numérique, qui forment des chaînes complexes et changeantes, explique à l'AFP Isabelle Falque-Pierrotin, présidente de la Commission nationale de l'informatique et des libertés (Cnil), qui présente vendredi un rapport sur leurs enjeux éthiques.

Q: Pourquoi cette réflexion sur les algorithmes?

R: Le thème des algorithmes et des intelligences artificielles nous est apparu très transversal dans l'univers numérique. C'est un sujet pour lequel il y a un réel intérêt du grand public, et aussi un malaise du fait de l'incompréhension autour de cet objet technique. On a fait un sondage, tout au début de l'année, qui montrait que la plupart des gens avaient identifié cet objet algorithme/intelligence artificielle, et en même temps disaient +on ne sait pas ce que c'est+. Il y avait alors, dans la presse notamment, toute une série de voix --certaines autorisées, d'autres moins autorisées-- tonnant sur la situation française en disant en gros +la guerre est déjà perdue, les algorithmes et l'intelligence artificielle vont nous échapper et seront du domaine des acteurs américains ou chinois+.

Nous nous sommes donc dit que c'était un bon domaine pour pousser un débat collectif qui puisse synthétiser les éléments du problème, et le cas échéant faire des propositions. Au départ, nous n'étions pas sûrs de nécessairement faire des propositions, nous voulions faire apparaître les questions éthiques liées au sujet. Et finalement, des propositions se sont imposées.

Q: Quelles sont les principales conclusions auxquelles vous arrivez?

R: L'éthique, c'est un enjeu collectif, par définition c'est une morale collective appliquée à un sujet. Dans le cas des algorithmes, c'est particulièrement vrai parce qu'on est face à un phénomène de chaîne: il y a des développeurs, des paramétreurs, des utilisateurs, des régulateurs, le grand public... Nos propositions visent à ce que toute la chaîne algorithmique apporte sa contribution éthique.

Avec les algorithmes, on est sur une brique de base de l'univers numérique. Le principe de loyauté a l'air très banal: l'algorithme fait une promesse, par exemple de trier les gens. Il faut qu'il fasse ce qu'il dit, c'est le premier niveau du principe de loyauté. Nous disons que derrière ce premier niveau, il y en a un autre qui est la loyauté à la communauté humaine. L'algorithme ne doit pas trahir les intérêts supérieurs de la communauté humaine, par exemple en ne servant que les intérêts d'une communauté d'utilisateurs en particulier --ce qui désavantagerait les autres.

Un autre principe fondamental, c'est le principe de vigilance, et pour trois raisons. Les algorithmes sont quelque chose qui évolue extrêmement rapidement, on est face à un objet qui se métamorphose constamment. Deuxièmement, cet objet est partagé en une multitude de contributeurs et d'utilisateurs, et chacun de ces gens-là n'a pas forcément connaissance de l'ensemble de la chaîne. Le troisième élément, c'est qu'on a une tendance naturelle à faire une confiance absolue à ces outils. Face à ces trois éléments, on doit constamment créer du doute au niveau de l'algorithme; il doit sans cesse être remis en question.

Q: Quelle est finalité?

R: Nous versons notre réflexion au débat public. Cédric Villani (mathématicien et député LREM, ndlr) doit notamment rendre son rapport sur l'intelligence artificielle dans un mois, j'imagine qu'il trouvera de l'intérêt à notre analyse.

Et quand nous disons, au-delà des recommandations opérationnelles, qu'il y a deux principes nouveaux qui pourraient régir la régulation de ces objets techniques, le principe de loyauté et le principe de vigilance, on pense qu'ils sont suffisamment robustes intellectuellement et suffisamment généraux pour être aussi portés au plan international dans le cadre de la réflexion sur l'encadrement de l'internet et du numérique.

La communauté internationale pourra se saisir de la position française. La question de l'éthique va d'ailleurs être mise à l'agenda de la prochaine conférence internationale des autorités de protection des données à Bruxelles, en octobre de l'année prochaine.

 ■

Copyright © 2018 AFP. Tous droits de reproduction et de représentation réservés.

Toutes les informations reproduites dans cette rubrique (dépêches, photos, logos) sont protégées par des droits de propriété intellectuelle détenus par l'AFP. Par conséquent, aucune de ces informations ne peut être reproduite, modifiée, transmise, rediffusée, traduite, vendue, exploitée commercialement ou utilisée de quelque manière que ce soit sans l'accord préalable écrit de l'AFP. l'AFP ne pourra être tenue pour responsable des délais, erreurs, omissions, qui ne peuvent être exclus ni des conséquences des actions ou transactions effectuées sur la base de ces informations.

Votez pour cet article
0 avis
Note moyenne : 0
  • 0 vote
  • 0 vote
  • 0 vote
  • 0 vote
  • 0 vote
À LIRE AUSSI SUR BOURSE DIRECT
Publié le 23/01/2018

Une exclusivité en France : le groupe Butagaz et Global Bioenergies présentent les premières bouteilles de gaz bio-sourcé     Jusqu'à 40 % d'émissions de CO2…

Publié le 23/01/2018

Les Echos rapportent que Vinci serait très intéressé par ce dossier mis en vente par Cube...

Publié le 23/01/2018

Information réglementée     Bone Therapeutics publie ses perspectives d'affaires et annonce son calendrier financier pour 2018   Achèvement du recrutement de…

Publié le 23/01/2018

Le dirigeant fait son entrée dans le conseil de l'américain...

Publié le 23/01/2018

Dans le cadre de son programme actuel...

CONTENUS SPONSORISÉS