L'édito de Philippe Bailly

Vous souhaitez recevoir l’Insight NPA ?

Interfaces vocales, algorithmes, machine learning… Une nouvelle grammaire pour l’accès aux contenus ?

  • Bertrand Braunschweig, Directeur du centre de recherche de l’INRIA
  • Bruno Patino, Directeur éditorial d’Arte
  • Stéphane Curtelin, Directeur marketing communication de LG
  • Fabrice Hamaide, Président de Piksel

Bertrand Braunschweig, Directeur du centre de recherche de l’INRIA

L’Intelligence Artificielle : concepts et avancées significatives

En introduction de cette table ronde, Bertrand Braunschweig fait état des principaux concepts que recouvrent le champ de l’intelligence artificielle et passe en revue les étapes marquantes de son développement fulgurant ces dernières années : victoire de l’I.A. dans les jeux (dames, échecs, et plus récemment go et poker), reconnaissance de texte et d’image (assistant M de Facebook), traitement de la parole (assistants vocaux de type Alexa, Cortana, Siri mais aussi Skype Translator), robotique (travail en usine, tâches ménagères, déminage, conduite), web sémantique (Google Knowledge Graph)…

Le Directeur du centre de recherche de l’INRIA définit l’I.A. comme l’automatisation des tâches habituellement accomplies par les êtres humains, qui demande à être capable d’apprendre – seule ou avec un enseignant – d’organiser la mémoire, de raisonner et de coopérer.

Bertrand Braunschweig rappelle qu’il existe deux grands types de méthodes dans l’I.A. : les modèles faits à la main par l’homme et ceux réalisés automatiquement. L’apprentissage supervisé, souvent fastidieux, implique la mobilisation d’un grand nombre d’individus mais présente l’avantage de permettre d’expliquer les conclusions du système et son raisonnement. A l’inverse les modèles d’apprentissage automatique (deep learning, réseaux neuronaux, algorithmes évolutionnistes…), très performants, créent eux-mêmes leurs modèles internes, apprennent et se perfectionnent. Ils sont en revanche insondables et leurs conclusions ne peuvent être expliquées à ce jour.

Les limites du modèle d’apprentissage automatique

Pour Bertrand Braunschweig, il est primordial de ne pas se couper des systèmes d’apprentissage automatique de type deep learning au prétexte que l’être humain n’est pas encore en mesure d’expliquer leurs conclusions. Il s’agit de technologies performantes qui permettent d’obtenir des résultats probants. Il préconise en ce sens de privilégier un mix des deux types de méthodes. Le Directeur du centre de l’INRIA ajoute que le choix du modèle doit avant tout être guidé par la nature du domaine auquel il est appliqué. Ainsi la recommandation d’un programme audiovisuel – où le risque d’erreur a une incidence moindre – et l’optimisation d’une trajectoire d’un véhicule autonome mobiliseront des technologies totalement différentes qui impliqueront une intervention humaine à des degrés très variés.

La France peut-elle devenir un leader mondial de l’I.A. ?

Calcul du meilleur prix, outils d’aide à la décision, perfectionnement d’une trajectoire, organisation d’un planning, communication avec traduction automatique des langages, recommandations de contenus, prédictions… pour Bertrand Braunschweig, l’intelligence artificielle a vocation à s’imposer dans tous les domaines de la vie quotidienne. Si la France dispose de sérieux atouts avec un réseau dense de chercheurs et de startups, il admet que le pays a pris du retard en termes d’investissements. Les États-Unis, portés par les géants de la Silicon Valley (Amazon, Apple, Facebook, Google, Oracle, Uber…) mais aussi le Canada, le Royaume-Uni, la Chine, la Corée du Sud et le Japon ont pris une longueur d’avance et sont aujourd’hui les leaders mondiaux du secteur. Début 2017, un rapport, établi par des spécialistes du secteur et baptisé « France I.A. », a toutefois été remis au précédent gouvernement pour développer une véritable stratégie pour la France et lui permettre de figurer parmi les locomotives mondiales de demain.

Bruno Patino, Directeur éditorial d’Arte

Connaître la grammaire de l’intelligence artificielle

Pour Bruno Patino, il existe actuellement une prise de conscience par l’ensemble du secteur des médias de se trouver face à un nouveau défi qu’est la maîtrise technologique de l’intelligence artificielle. La numérisation ou la digitalisation globale du secteur médiatique impose désormais à ses acteurs de disposer d’une maîtrise du savoir technologique lié à l’intelligence artificielle : si cela ne signifie pas forcément maîtriser la production même d’intelligence artificielle, il s’agit tout du moins d’en connaître la grammaire.

I.A. et évolution de la distribution des contenus

La plateformisation générale des médias implique que l’accès aux contenus dépend d’algorithmes et d’intelligences artificielles sur lequel les acteurs du secteur ne disposent que d’une maîtrise partielle. Un certain nombre d’entre eux tentent d’appréhender voire de maîtriser cette intelligence artificielle afin de disposer d’une forme d’indépendance : plusieurs exemples existent ainsi en télévision, chez les câblo-opérateurs ou dans la presse comme le Washington Post qui affirme que ses algorithmes internes de distribution constituent un instrument d’indépendance vis-à-vis de Facebook ou Google.

Pour la télévision, la programmation se transforme progressivement de plus en plus en recommandation et dépend d’algorithmes qui pour la plupart n’ont pas été créés par les chaînes elles-mêmes.

I.A. et évolution de la production des contenus

Les algorithmes participent activement à la tendance globale d’augmentation des offres et de la production de contenus. Les daily brief, ou newsletters, des organes d’information illustrent bien cette évolution : si auparavant, la réalisation d’une newsletter quotidienne nécessitait 4 à 5 humains, 20 à 30 peuvent désormais être produites quotidiennement par des algorithmes. De même, dans le secteur de la télévision et de la vidéo, les playlists sont désormais toutes réalisées de manière automatique par de l’intelligence artificielle.

Ces nouvelles formes de production pourraient faire évoluer les investissements qui, autrefois réalisés sur un plan industriel (industrie de l’imprimerie pour la presse par exemple), sont de plus en plus réalisés sur tout ce qui a trait à l’intelligence artificielle.

Pour les télévisions, une politique de création d’auteur va devoir s’accompagner d’une politique de production, de distribution et de recommandation faisant de plus en plus appel à l’intelligence artificielle.

I.A. et économie des biens culturels

Bruno Patino constate que l’intelligence artificielle, malgré une volonté affichée de diversité des contenus, amène à la répétition des comportements privant ainsi le téléspectateur de la liberté d’être déçu.

Un bien culturel se définit comme un bien d’expérience, c’est-à-dire que le consommateur n’en connaît l’utilité et n’en retire de satisfaction (ou pas) qu’après l’avoir consommé. Si l’économie des industries culturelles repose en grande partie sur cette incertitude, l’intelligence artificielle et les algorithmes tendent à rendre prédictive l’utilité pour le consommateur final de la consommation de biens culturels. Selon Bruno Patino, le risque d’une telle tendance est la baisse de la production de biens culturels. S’appuyant sur la théorie des biens d’expérience, il note que lorsqu’est connue par avance l’utilité d’un bien culturel, il y a réduction de la production de ces mêmes biens culturels : or, c’est l’incertitude face à l’utilité finale du consommateur qui entraîne une surproduction de biens culturels et porte le dynamisme économique du secteur.

Constat

A l’heure actuelle, les acteurs médiatiques ne disposent pas de la capacité technologique et surtout financière de maîtriser pleinement l’intelligence artificielle. S’il semble absolument nécessaire de la comprendre, de la maîtriser, voire de la produire, les atouts ne sont pas tous présents pour pouvoir réellement le faire.

Stéphane Curtelin, Directeur marketing communication de LG

I.A. : vers moins d’artificiel et plus de concret

Pour Stéphane Curtelin, les fabricants ont vocation à embarquer de plus en plus d’intelligence dans leurs produits pour proposer une expérience connectée à chaque instant de la journée du consommateur. Le Directeur marketing communication de LG identifie quatre pôles de recherche et développement prioritaires : le téléviseur, qui trône au centre du salon, le réfrigérateur, appareil central de la cuisine, la voiture, pour les déplacements, et le smartphone, qui accompagne son propriétaire partout.

Pour ce faire, les maîtres-mots seront simplicité et efficacité. Selon lui, l’intelligence est amenée à être de moins en moins artificielle et de plus en plus concrète.

Tout l’enjeu pour les fabricants sera en effet de séduire les consommateurs par des apports concrets qui simplifieront leur vie au quotidien (cela peut se traduire par la recommandation de programmes sur téléviseur ou par un assistant vocal sur smartphone). C’est à cette condition que l’I.A. deviendra un élément de différenciation majeur sur des marchés d’équipement aujourd’hui saturés.

Multiplication des solutions intelligentes : le consommateur sera le juge de paix

Face à la multiplication des initiatives sur le marché des assistants virtuels (constructeurs, opérateurs, développeurs de systèmes d’exploitation), Stéphane Curtelin estime que le consommateur sera le seul juge de paix, c’est à lui que reviendra le choix final : « le premier qui se dotera d’un système cohérent, efficace et performant » remportera l’adhésion du public. C’est pour cette raison que le groupe sud-coréen a fait le choix de s’associer à Google et à sa solution Google Assistant, qu’il juge « plus en avance, avec une capacité de recherche et de traitement plus importante ».

Interrogé sur le risque d’assister à une domination du marché par les géants du secteur, du simple fait de leur notoriété, Stéphane Curtelin concède qu’il existe bien selon lui un phénomène « d’accélération vers les plus forts ».

La recommandation algorithmique au service de la découverte ?

Sur la question de la recommandation algorithmique, Stéphane Curtelin partage avec la salle la vision d’un partenaire vidéo international du groupe LG. Il explique que d’après les calculs des équipes et les outils d’I.A. de ce partenaire, les programmes mis en avant auprès de l’utilisateur ne sont pas les contenus à forte audience avec lequel ce dernier a le plus d’affinités. Le pari est que cet individu ira naturellement consommer ces programmes, soutenus par ailleurs par un plan média important. Les algorithmes développés par les équipes de ce partenaire privilégient des programmes complémentaires, avec une audience plus confidentielle, qui n’auraient probablement pas été visionnés sans avoir été portés à la connaissance du consommateur.

Fabrice Hamaide, Président de Piksel

Découverte des contenus

Pour Fabrice Hamaide, un des principaux enjeux de l’intelligence artificielle et du deep learning réside dans la découverte, à travers une recommandation efficace et adaptée au téléspectateur, de contenus qui semblent non corrélés.

Piksel a ainsi développé des outils qui, à travers l’observation de la réaction du téléspectateur face aux images d’un film ou d’une série permet d’en analyser le « plot DNA » (l’évolution de l’intrigue) et de déterminer quelle partie lui plaît le plus. En se basant sur des analogies de « plot DNA », il devient alors possible d’effectuer des recommandations de contenus paraissant tout à fait différents mais qui partagent des parties pouvant plaire au téléspectateur.

Une telle utilisation de l’intelligence artificielle, de ses capacités d’analyse, de corrélation d’immenses quantités de données mais également d’apprentissage, permet d’offrir au téléspectateur une meilleure découverte des contenus mais également d’enrichir les connaissances sur son profil.

 Utilisation prédictive de l’intelligence artificielle

L’intelligence artificielle pourrait également être utilisée dans un but prédictif à court terme. Pour exemple, dans le cas de la diffusion de deux matchs de football (A et B) en parallèle, l’analyse des actions menées sur le terrain du match B pourrait permettre de déterminer qu’une action décisive va être menée, prévenir un téléspectateur regardant le match A et l’inviter à basculer sur le match B.

Deep learning et diversité des contenus

Selon Fabrice Hamaide, le système actuel de recommandation des contenus à travers un système de notation par les utilisateurs participe à une forme d’appauvrissement de la découverte des contenus. D’une part, l’équation entre les informations recueillies sur les utilisateurs (ce qu’ils aiment ou non) et sur les contenus est fortement déséquilibrée en faveur des premiers. D’autre part, la recommandation par notation induit un phénomène de mimétisme qui limite la découverte des contenus, la diversité des contenus étant en réalité bien plus importante que celle des utilisateurs et de leurs profils psychologiques. Les éléments de deep learning pourraient offrir la possibilité de recueillir beaucoup plus de données (méta-datas) sur les contenus eux-mêmes afin de rééquilibrer cette équation.

Quelles prévisions pour 2022 ?

Fabrice Hamaid, Président de Piksel

L’objectif principal des recherches en cours chez Piksel est d’augmenter l’accessibilité aux contenus en s’adaptant aux nouveaux modes de consommation de plus en plus tournés vers du short form sur smartphone. Pour cela, il est nécessaire d’arriver à transformer de manière intelligente et automatisée des contenus linéaires ou long form (live, chaîne de télé sur 24h ou séries par exemple) en un format short form. Dans 5 ans, la totalité des contenus aura été analysée, découpée et ajoutée automatiquement à une méta-data extrêmement profonde et descriptive qui permettra de changer les interfaces d’accès aux contenus.

Bruno Patin, Directeur éditorial d’Arte

A l’horizon 2022, les marques médias seront amenées à s’orienter de manière significative sur des activités de production au détriment de la distribution devenant ainsi des labels de production.

Les interfaces vocales devraient avoir une place importante et la recommandation de contenus, devenue contextuelle et émotionnelle, s’adaptera à l’état d’esprit du téléspectateur.

La production de contenus sera de plus en plus automatisée, notamment pour une part du divertissement.

Stéphane Curtelin, Directeur marketing communication de LG

Les assistants vocaux sont appelés à se démocratiser et à s’imposer dans notre quotidien dans les années à venir. Ces solutions sont amenées à se perfectionner et à faire le lien entre les différents appareils intelligents du foyer « pour créer une maison vraiment intelligente ». Stéphane Curtelin insiste une nouvelle fois sur la nécessité de rendre cette intelligence de moins en moins artificielle pour servir concrètement le consommateur. La domotique, l’infotainment et la voiture connectée font partie, selon lui, des secteurs qui devraient le plus évoluer au cours de ces prochaines années.

Bertrand Braunschweig, Directeur du centre de recherche de l’INRIA

L’enjeu des années à venir pour l’ensemble des acteurs du marché sera de développer et d’optimiser l’interopérabilité entre les différentes solutions qui aujourd’hui ne se parlent pas, chacun souhaitant maximiser sa chance de profit. Pour Bertrand Braunschweig, la définition de standards d’interopérabilité sera indispensable dans le futur.

Vous êtes abonnés à l’Insight NPA ? Merci de renseigner vos identifiants pour accéder à l’ensemble de cet article.

Pas encore inscrit à l'Insight NPA ?