(0)
Outils

« Les promesses du Machine Learning »

  • Antoine Petit
    PDG de l'Inria

Le PDG de l’Institut national de recherche en informatique et en automatique (Inria) évoque les perspectives des innovations de rupture – robots assistants, systèmes personnels de diagnostic médical, interfaces cerveau-machine – et le rôle central de l’analyse de données dans la mise au point des technologies de 2030.

Propos recueillis par Jean-Charles Guézel

 

 

Alliancy, le mag. Une étude, publiée en 2013 par deux chercheurs de l’université d’Oxford*, laissait entendre que d’ici à une vingtaine d’années, près de la moitié des emplois d’un pays comme les Etats-Unis pourrait être confiée à des « machines intelligentes ». A quoi ressembleront ces machines, et faut-il en avoir peur ?

Antoine Petit. Il est toujours extrêmement difficile d’anticiper l’impact d’une innovation ou d’une série d’innovations, comme le montre, par exemple, la réussite de Twitter malgré ses limites techniques. Ce que je crois, c’est que les technologies de 2030 existent déjà, au moins en partie, dans les laboratoires. Et, à l’Inria, nous sommes intimement convaincus que le numérique va continuer de pénétrer tous les secteurs économiques et l’ensemble des couches de la société. Même là où l’on s’y attend le moins, comme dans l’agriculture, où des capteurs et l’Internet des objets fourniront bientôt quantité de données géolocalisées, utiles aux exploitants pour mieux gérer leurs terres.

En dépit des apparences, la révolution numérique n’en est donc qu’à ses débuts ?

Absolument. L’un des principaux leviers d’action dans les années à venir sera l’optimisation du couplage entre les données à traiter et les modèles. Dans le domaine de la défense, cette optimisation a déjà permis de remplacer les essais nucléaires par le calcul haute performance. La même logique porte également ses fruits en météorologie, science dans laquelle nous n’aurons certainement jamais fini d’affiner les modèles… D’un côté, nous avons donc ces modèles et, de l’autre, les machines capables de les mettre en oeuvre rapidement avec des jeux de données de plus en plus volumineux. L’un ne va pas sans l’autre : pour être performant, le calcul doit jouer sur les deux tableaux.

Ceci est un extrait. Pour lire la contribution en intégralité, commandez le hors-série « Vivre et travailler en 2030 »
(0)
Cet article vous a plu ? Retrouvez une sélection des meilleures contributions dans notre hors-série.

Commentaires (0)

Pas encore de commentaires

Commenter cette page

Votre adresse de messagerie ne sera pas publiée.