Les deep fake et autres manipulations visuelles, vidéos et sonores sont autant de menaces qu’il faut apprendre à détecter et prévenir. Si les algorithmes du machine learning et de l’intelligence artificielle rendent ces nouveaux phénomènes possibles, les deeptechs préparent aussi les professionnels des industries culturelles et créatrices (ICC) à la riposte et les accompagnent vers des innovations de rupture.

Dans le cadre de la DeepTechWeek 2020, Cap Digital a organisé mardi dans ses bureaux une session Futur.e.s autour des deeptechs dans les industries culturelles pour y présenter une quinzaine de projets français et européens. ZDNet propose une sélection de cinq technologies modèles d’innovation.

Le projet Youcheck! pour lutter contre les fake news et détecter les deepfakes

« Sur Twitter, plus de 80 % des personnes retweetent des contenus sans avoir cliqué sur les liens au préalable », souligne Jade Montané, chargée des projets d’éducation à l’AFP, et venue présenter le projet européen d’éducation aux médias intitulé Youcheck! qui lutte précisément contre la désinformation et les fake news.

Financé par l’Union européenne et porté notamment par l’AFP, Youcheck ! s’appuie sur l’extension de navigateur InVID-Weverify qui revendique près de 20 000 utilisateurs à travers le monde (principalement des médias) pour sensibiliser le grand public et les scolaires à la détection des infox en mettant en place notamment des tutoriels et salles de classe intégrés dans l’extension InVID-Weverify.

A travers ses différentes fonctionnalités (Forensic, images clés, analyse, loupe, etc.), cet outil permet d’analyser les photos et les vidéos détournées. Et pour y parvenir, rien de plus simple, « seul l’url suffit », note Jade Montané. La plupart du temps, il est possible de se rendre compte d’une intox « rien qu’en vérifiant l’historique de l’image ou de la vidéo », affirme-t-elle.

INA-Signature détecte les copies

L’équipe R & D de l’Institut national de l’audiovisuel (INA) a présenté son logiciel Signature (lauréat de l’Emmy Award for Technology and Engineering 2018) qui permet de détecter un contenu vidéo et ses copies, même après transformation de la séquence originale. Ce logiciel, né il y a plus de dix ans, est notamment adopté par les ayant droits pour les aider à protéger les droits des contenus (Europacord, Gaumont, Netflix, TF1, Canal +, M6, etc.).

INA-Signature est également utilisé par la plateforme de vidéo Dailymotion depuis 2008 sur le même principe que Content ID de YouTube, indique Frédéric Dumas, responsable de INA Signature, à ZDNet. Il est aussi sollicité par des prestataires de fouille internet et de suivi de diffusion et des entreprises spécialisées dans l’anti-piratage.

Comment ça fonctionne ? La technologie INA-Signature permet de créer une empreinte numérique propre à chaque séquence vidéo, ce qui permet de « comparer un fonds de taille importante avec un grand nombre de flux vidéo ».

« Aujourd’hui, l’outil est développé pour détecter les contenus violents et sensibles afin d’aider les équipes de modération de contenus à repérer les copies », ajoute Frédéric Dumas.

Audionamix isole les sons

La start-up Audionamix, installée entre Paris et Los Angeles, développe des solutions pour séparer les pistes sonores d’un ficher audio. Basée sur le traitement du signal et sur l’intelligence artificielle, la technologie d’Audionamix extrait les composantes constituantes d’un enregistrement audio, comme la parole, le chant et la batterie ou encore la basse.

L’équipe d’Audionamix a notamment travaillé sur des films, des albums et des émissions de télévision.

Goalem simule des foules en 3D

L’éditeur de logiciel Goalem propose de reconstituer une source en 3D et de l’incruster dans des décors de fiction, permettant notamment de simuler une foule en 3D.

Cette spin-off d’Inria, créée en 2009, œuvre notamment sur les films de fiction et d’animation, les séries TV, les publicités et les cinématiques de jeux vidéo. La suite de logiciels Golaem a notamment été utilisée pour la réalisation de scènes de bataille dans la série Game of Thrones ou les films Marvel.

L’équipe élabore une « diversité visuelle, diversité morphologique ou encore une diversité de comportement » pour des « personnages anthropomorphiques ou encore des animaux », décrit Stéphane Donikian, CEO, à ZDNet. Tout ce travail nécessite des « compétences technologiques complexes ». Seules quatre sociétés prennent en charge cette activité dans le monde, pour une clientèle qui se limite à « quelques milliers de studios », observe-t-il.

Les principaux marchés se situent en Amérique du Nord et en Asie, mais la clientèle est minoritaire en France (moins de 10 %) et quasiment inexistante en Afrique. La société, qui emploie six personnes, édite actuellement la V7 de son logiciel et revendique un chiffre d’affaires d’environ « un demi million d’euros », indique Stéphane Donikian.

MocapLab, l’ingénieur du mouvement

La société MocapLab, qui se présente en « ingénieur du mouvement », a pour mission d’enregistrer, d’éditer et de restituer des mouvements humains en 3D. Elle déploie toute une expertise sur la capture de mouvement des doigts, du visage ou des yeux.

Les use cases sont nombreux et MocapLab imprime sa marque dans le cinéma, à la télévision, dans les jeux vidéo, la VR, l’AR ou encore la science et l’art. La société a récemment travaillé avec France Télévisions autour du sous-titrage en langage des signes de ses programmes, par exemple des contenus jeunesse, dont les travaux de recherches ont pris fin en septembre dernier, a évoqué Boris Dauriac, ingénieur R & D, à ZDNet.

Published on: Zdnet.fr