
Recherche
04.01.2019
Médias IA et cyber / European Cyber Week
Manipuler l’information n’a rien de neuf. Ce qui change aujourd’hui, c’est la rapidité et l’échelle à laquelle se propagent les fausse nouvelles. Au point que les « fake news » sont devenues une arme qui menace jusqu’aux fondements de la démocratie. Pour traiter du phénomène, le pôle de compétitivité Images & Réseaux et le laboratoire Irisa ont réuni journalistes, chercheurs et entreprises spécialistes de la cybersécurité et des contenus afin de faire le point sur les solutions pour s’en défendre. Plus d’une centaine de personnes ont pu assister à cette conférence débat à l’occasion de la European Cyber Week au Couvent des Jacobins à Rennes.
Face aux fake News, les médias sont en difficulté
Thierry Fanchon, du groupe France Médias Monde, avouait en introduction que la prise de conscience du risque est récente. Elle date de « l’attaque de TV5 Monde » en 2015. Les journalistes sont désormais soumis à une « inversion de la charge de preuve ». Les « propagateurs de fake news » sont en position de force, les médias traditionnels devant prouver leurs mensonges, ce que confirme Ouest-France. Ce journal a ainsi mis en place une « banque de contenus imparfaite mais maîtrisée » qui s’appuie sur le large historique des articles publiés par le journal.Sciences-Po Paris, présentait les résultats d’une étude réalisée sur l’exemple des données falsifiées de l’immigration répandues pendant les présidentielles françaises de 2017. Il démontrait que le « fact checking », la vérification des faits devenu genre journalistique, peut même être contre-productif dans la mesure où il donne un écho supplémentaire aux fausses informations. Un chercheur en cyberdéfense et cybersécurité regrette que l’on ne puisse encore réaliser «de la contre influence automatique », se basant sur l’exemple d’un faux communiqué de presse, envoyé à partir d’un compte email piraté, ayant conduit à la dévaluation de l’action Vinci en seulement quelques minutes.
Des outils IA pour falsifier, d’autres pour les contrer
Les falsificateurs disposent d’outils de plus en plus performants, notamment « des réseaux neuronaux profonds» développés à l’origine à des fins de recherche ou pour le monde du cinéma et de la publicité. Ces algorithmes de deep learning « une fois entraînés sont très rapides et peu coûteux » constate le directeur scientifique de Valéo. Il prend l’exemple du « Visual Dubbing », une technique de manipulation du visage destinée à faciliter le doublage d’un film, qui peut être utilisée pour créer des « deep fakes », tel que le faux discours d’Obama en 2017. Pour contrer ces derniers, il faut des « deep forensics » tels que proposés par un représentant du CERTH de Salonique (Grèce). Donc, utiliser le deep learning pour créer des outils de détection des manipulations qui ont transformé l’image (appareils de capture d’images, analyse du contexte météo, etc.). Des projets de recherche européens travaillent dans ce sens avec pour objectifs de créer des outils : InVID et Reveal notamment. L’outil OTMedia, un observatoire transmedia présenté par l’Institut national de l’audiovisuel (INA) permet notamment de suivre la propagation de l’information francophone à travers le web et les réseaux sociaux. Des entreprises développent quant à elles des solutions de watermarking contre le piratage. Lamark, spécialisée dans la photographie, puis ContentArmor, dans le domaine de la vidéo, ont ainsi promu deux technologies dans le sens de la certification des contenus. Un sujet évoqué à plusieurs reprises lors des échanges, à côté d’autres solutions de bon sens comme l’éducation et la sensibilisation du grand public aux dangers de la désinformation.