Les événements du CRIM

Le CRIM organise des événements qui traitent d’une variété de sujets à l’intention de la communauté des technologies de l’information du Québec. Ces rendez-vous, qui favorisent le réseautage et le maillage, abordent des thèmes d’actualité qui vous aideront à prendre les meilleures décisions pour la bonne gestion et le bon développement de vos projets TI.

La désinformation à l’ère de l’intelligence artificielle

La désinformation à l’ère de l’intelligence artificielle

La désinformation à l’ère de l'intelligence artificielle

Fausses nouvelles, fausses images, fausses vidéos, fausses voix : produire, interpréter, détecter et contrer les faux contenus. Pas facile de distinguer
le vrai du faux dans le nouveau paysage des médias numériques. Le CRIM propose une conférence pour mettre en lumière ce phénomène émergent,
le deepfake.

Le CRIM vous convie à un rendez-vous techno le 27 novembre. Joignez-vous à nous pour un après-midi de conférences traitant d’un sujet d’actualité technique et scientifique qui touche à la fois le monde industriel et le monde de la recherche.

Alors que les fausses nouvelles (fake news) et l’hypertrucage (deepfake) constituent une part grandissante de notre réalité numérique, les avancées scientifiques et technologiques permettent non seulement de créer des faux contenus, mais peuvent aider à mieux les détecter. Cette édition des Journées Technos du CRIM vise à donner l’occasion à des experts et à des praticiens de présenter et de discuter d'applications de l’intelligence artificielle (IA) liées à la désinformation dans différents secteurs scientifiques et industriels.

L’événement s’adresse à toute personne, experte ou non, intéressée à ces questions, tant au niveau de la R-D que des différents secteurs d’affaires. La série de présentations sera suivie d'un cocktail de réseautage pour poursuivre les discussions.

Sommaire des présentations : 

Vers la génération de fausses nouvelles
Nicolas Garneau, étudiant au doctorat, Université Laval

Reconnaissance vidéo à partir d'ensembles de données d'images de grande taille et faiblement annotées
Eric Granger, professeur, Département de génie des systèmes, ÉTS, LIVIA

Anti-usurpation de la voix – L’approche modulaire versus l'approche de bout en bout
Jahangir Alam, chercheur en traitement automatique de la parole, CRIM

Contrer le deepfake : IA contre IA
Mohamed Dahmane, chercheur en vision par ordinateur, CRIM

Reconnaissance visuelle de contenus, images et vidéos : tendances actuelles
Antoine Normand,
PDG, BlueBear

Désinformation : pourquoi on y croit, trucs pour trier l’information et biais cognitifs
Pascal Lapointe, journaliste et rédacteur en chef, Agence Science-Presse


Programme détaillé :

Mot d’ouverture (13h) 

Françoys Labonté, directeur général, CRIM  


Vers la génération de fausses nouvelles (13h15)

Les fausses nouvelles prennent d’assaut les médias sociaux depuis quelques années déjà. Habituellement, un humain est derrière la génération de telles nouvelles. Mais si ce n’était pas toujours le cas? Cette présentation est un appel à la prudence, exposant les différentes avancées dans le domaine de l’intelligence artificielle nous permettant de générer du contenu inventé de toute pièce.

Nicolas Garneau, étudiant au doctorat, Université Laval

Nicolas est un candidat au Doctorat en informatique à l’Université Laval qui cumule plusieurs années d’expérience en développement logiciel et analyse de données. Nicolas se spécialise en traitement automatique de la langue naturelle en utilisant des méthodes d’apprentissage par réseaux de neurones profonds. Il a eu un pied en industrie tout au long de son parcours académique en appliquant ses connaissances théoriques à des problèmes réels auxquels les entreprises sont confrontées.


Présentation en anglais
Reconnaissance vidéo à partir d'ensembles de données d'images de grande taille et faiblement annotées
Video Recognition from Large and Weakly-Labeled Image Datasets 
(13h45)

Les nouveaux capteurs de signaux audiovisuels à la fine pointe de la technologie ouvrent la voie à des applications novatrices dans plusieurs domaines, qu’il s’agisse de la vidéosurveillance, du diagnostic médical, de la surveillance de la santé ou de la récupération d'images et de vidéos à partir de leur contenu. Par exemple, la détection, le suivi et la reconnaissance – d'actions, de voitures, de personnes, etc. – apparaissant sur un réseau distribué de caméras est un élément clé dans la création de résumé vidéo et la vidéosurveillance. La conception de systèmes de reconnaissance précis pour ces applications pose généralement plusieurs défis parce qu'elle implique l'apprentissage de modèles complexes utilisant de grands ensembles de données faiblement annotées qui incorporent des décalages de domaine, du bruit subtil, des variations et des incertitudes incorporés dans des signaux du monde réel. Axée sur l’entraînement de modèles d'apprentissage profond à partir de grandes quantités de données d'images faiblement annotées, cette présentation traitera des techniques récentes qui promettent de résoudre de tels problèmes complexes de traitement vidéo : l'apprentissage faiblement supervisé, l'adaptation de domaine et la fusion de l'information.

State-of-the-art sensors to capture audio-visual signals are paving the way to innovative, next-generation technologies for many important applications in, e.g., video surveillance, medical diagnosis, health monitoring, content-based image/video retrieval. For instance, the detection, tracking and recognition of actions, cars, people, etc., appearing over a distributed network of cameras is a key component for many video-based summarization and surveillance applications. Designing accurate recognition systems for these applications typically gives rise to several challenges because it involves learning complex models using large weakly-annotated data sets that incorporate domain shifts, subtle noise, variations and uncertainties embedded in real-world signals. Focused on training deep learning models from large amounts of weakly-labeled image data, this talk will discuss recent techniques for weakly-supervised learning, domain adaptation, and information fusion, which promise to address such complex video processing problems.

Eric Granger, professeur, Département de génie des systèmes, ÉTS, Laboratoire d’imagerie, de vision et d’intelligence artificielle (LIVIA)

Eric Granger received Ph.D. in Electric Engineering from École Polytechnique de Montréal in 2001, and worked as a Defense Scientist at DRDC-Ottawa (1999-2001), and in R&D with Mitel Networks (2001-04). He joined the École de technologie supérieure (Université du Québec), Montreal, in 2004, where he is presently Full Professor of Systems Engineering, and director of LIVIA, a research laboratory focused on computer vision and artificial intelligence. His research interests include pattern recognition, machine learning, computer vision, domain adaptation, and incremental and weakly-supervised learning, with applications in biometrics, affective computing, medical image analysis, and video surveillance.


Présentation en anglais
Anti-usurpation de la voix – L’approche modulaire versus l'approche de bout en bout
Voice Anti-spoofing – Modular versus End-to-End Approaches 
(14h15)

Dans une attaque par usurpation, une personne ou un programme informatique tente de se faire passer pour l'utilisateur légitime d'un système d'authentification. Quelques exemples d'attaques d'usurpation vocale sont l'usurpation d'identité, la reprise, la synthèse vocale et la conversion vocale. Les attaques par reprise sont également connues sous le nom d'attaques de présentation ou d'accès physique. Les trois autres attaques sont appelées attaques d'accès logique. Avec l'influence croissante des dispositifs intelligents dans notre vie quotidienne, l'utilisation des systèmes biométriques devient populaire pour une variété d’applications telles que le déverrouillage des téléphones, le contrôle d'accès, l'assistance à domicile intelligente et la sécurité. Les techniques de biométrie, que ce soit par la voix, le visage, les empreintes digitales ou l'iris, sont largement utilisées pour l'authentification des personnes en raison de leur caractère distinctif intrinsèque et de leur facilité d'utilisation. Les milieux universitaire et industriel ont démontré un intérêt particulier pour la biométrie vocale au cours des dernières années. Alors que les systèmes de reconnaissance de locuteurs gagnent en popularité, les fraudeurs utilisent une plus grande diversité de techniques d'usurpation de la voix pour tenter d'obtenir un accès illégitime au système d'authentification. Ce problème a suscité l'intérêt des chercheurs en synthèse vocale et en reconnaissance du locuteur. Avec les progrès récents de la synthèse vocale et des approches de conversion de la voix basées sur les réseaux neuronaux profonds (par exemple la modélisation directe de bout en bout des formes d'onde ou les réseaux antagonistes génératifs (GANs)) et la disponibilité en ligne de boîtes à outils en mode logiciel libre, les attaques d’usurpation par synthèse vocale et conversion vocale deviennent un enjeu crucial. Un système robuste de reconnaissance du locuteur exige non seulement une grande précision dans la reconnaissance, mais aussi une grande robustesse face aux attaques d’usurpation, afin d’assurer aux utilisateurs un moyen sûr et pratique d'accéder à leurs informations personnelles. Par conséquent, l'anti-usurpation vocale est cruciale pour éviter les brèches de sécurité dans les systèmes de reconnaissance automatique du locuteur. Dans cette présentation, je discuterai des conséquences des attaques par usurpation d'identité sur la biométrie vocale et d'autres applications, des différentes représentations de la parole et comment elles sont utilisées comme contre-mesures d'usurpation d'identité, et je comparerai l'approche de bout en bout à l'approche traditionnelle en deux étapes (c'est-à-dire modulaire) de l'anti-usurpation d'identité.   

In a spoofing attack, a person or computer program tries to impersonate the legitimate user of an authentication system. Some examples of voice spoofing attacks are impersonation, replay, speech synthesis and voice conversion. Replay attacks are also known as presentation or physical access attacks. The other three types of attacks are called logical access attacks. With the increasing influence of smart devices in our daily lives, biometric systems are becoming popular in various applications such as phone unlock, access control, smart home assistance, and security. Biometrics, such as voice, face, fingerprint, and iris, are widely utilized for person authentication due to their intrinsic distinctiveness and convenience of use. Voice biometrics, as one of its most popular modalities, has received increasing attention in the academia and industry in recent years. While speaker recognition systems gain popularity, fraudsters present various voice spoofing attacks to the system and attempt to gain illegitimate access to the authentication system. This problem has attracted the interest of both speech synthesis and speaker recognition researchers. With recent advances in speech synthesis and voice conversion approaches based on deep neural networks (for example, end-to-end direct waveform modeling and generative adversarial networks (GANs)) and due to the availability of open-source toolkits online, spoofing attacks generated by speech synthesis and voice conversion techniques are potentially more serious. A robust speaker recognition system demands not only high recognition accuracy, but also robustness to spoofing attacks to provide users with secure and convenient ways to access their personal information. Hence, voice anti-spoofing is crucial to prevent automatic speaker recognition systems from a security breach. In this talk, I will discuss the consequences of spoofing attacks on voice biometrics and other application, local and global representation of speech as spoofing countermeasures, and compare end-to-end with the conventional two-step approach (i.e., modular) for anti-spoofing.   

Jahangir Alam, chercheur en traitement automatique de la parole, CRIM

Jahangir Alam travaille comme chercheur en traitement automatique de la parole au CRIM depuis 2013. Il mène des recherches sur la reconnaissance de la parole, du locuteur et des émotions. Il est titulaire d'un baccalauréat en génie électrique et électronique de la Khulna University of Engineering and Technology (KUET), au Bangladesh, ainsi que d'une maîtrise (2009) et d'un doctorat (2014) en télécommunications de l'INRS-EMT (Institut national de la recherche scientifique - Énergie matériaux télécommunications), Université du Québec, Canada. Ses intérêts de recherche comprennent l'extraction de caractéristiques robustes pour la reconnaissance de la parole, du locuteur et des émotions, le traitement du signal à un ou plusieurs microphones, le traitement binaural du signal pour les aides auditives, la détection de l'activité vocale, l'amélioration vocale, la déréverbération vocale, le traitement acoustique du faisceau et la localisation de source.


Pause (14h45)


Contrer le deepfake : IA contre IA (15h)

À l'ère de l'intelligence artificielle, il n'y a pas de limites au trucage d'images. Le deepfake utilise des algorithmes les plus sophistiqués pour la génération d'images de visage. Il peut interchanger les visages de différentes personnes avec une qualité qui peut incroyablement nous duper. Malheureusement, les processus d'investigation numérique doivent être continuellement à l’affût pour relever les nouveaux défis de ce type d'adversité avec tout ce que cela peut engendrer au niveau individuel et collectif. Dans la littérature, les capacités futures de la forensique (video forensics) pour déterminer l’authenticité des preuves vidéo ont été largement soulignées, ainsi que leur impact sur le processus d’authentification du contenu même devant les tribunaux. Les gouvernements et les institutions privées doivent maintenir des capacités à un niveau technique plus élevé pour démasquer les attaques de falsification les plus avancées qui pourront altérer leurs données multimédia de plus en plus volumineuses. Entre autres, lorsque les données sensibles sont manipulées par des opérateurs, les menaces internes malveillantes représentent un énorme problème et peuvent constituer la plus grande catégorie de menaces par rapport aux opérateurs externes. Le « quoi croirons-nous? » risque de devenir une problématique que nous devrons rapidement résoudre. Dans cette présentation, des jeux de données contributifs aux méthodes de recherche proposées, nous évoquerons les techniques adoptées pour contrer ce type de manipulations.

Mohamed Dahmane, chercheur en vision par ordinateur, CRIM

Mohamed s’est joint à l’équipe du CRIM en mai 2012 à titre de chercheur postdoctorant. Il est spécialiste en analyse d’images, reconnaissance et suivi de motifs à partir d’images. Depuis 2015, il occupe le poste de chercheur. Mohamed est titulaire de deux maîtrises, l’une en télédétection spatiale, l’autre en surveillance vidéo obtenue au Département d’informatique et de recherche opérationnelle (DIRO) de l’Université de Montréal. Il a aussi complété en 2012 un doctorat au DIRO sur l’analyse de mouvements faciaux. Il a travaillé à l’Institut de cardiologie de Montréal comme chercheur stagiaire en analyse d’interactions patient/infirmière. Ses récents travaux ont notamment porté sur l’interaction homme-machine, la détection de cibles et la reconnaissance d’émotions à partir d’images faciales. Mohamed les a présentés dans des journaux et conférences internationales et a participé à plusieurs compétitions. Ses principaux champs d’intérêts sont : l’analyse de vidéo, l’apprentissage machine, les interfaces homme-machine, le forage de données et la détection d’anomalies ainsi que la télédétection.


Reconnaissance visuelle de contenus, images et vidéos : tendances actuelles (15h30)

Les grandes tendances mondiales du contenu visuel illégal, notamment dans le domaine de la pornographie juvénile, secteur où l'on voit de plus en plus de deepfake.

Antoine Normand, PDG, BlueBear


Désinformation : pourquoi on y croit, trucs pour trier l’information et biais cognitifs (16h)

Les fausses nouvelles : un survol des raisons pour lesquelles les gens tombent dans le panneau, des trucs et astuces de base pour faire un premier tri dans l’information et des raisons pour lesquelles il faut se méfier de ses propres biais.

Pascal Lapointe, journaliste et rédacteur en chef, Agence Science-Presse


Mot de clôture (16h30)


Cocktail de réseautage


Les Journées Technos du CRIM sont des rendez-vous où le monde de la recherche et le monde industriel se rencontrent pour échanger sur des thématiques émergentes.


Conférence gratuite. Inscription requise.

Le 27 novembre 2019
De 13h à 19h

Lieu CRIM405, avenue Ogilvy,
Bureau 101, Salle 9-10
Montréal, H3N 1M3
ContactCRIM514 840-1234

Le CRIM propose une conférence pour mettre en lumière ce phénomène émergent, le deepfakeVenez entendre des experts et à des praticiens vous présenter et discuter d'applications de l’IA liées à la désinformation dans différents secteurs scientifiques et industriels.

S'inscrire

Tous les Événements

Liste des événements auxquels le CRIM et ses experts participent. Plusieurs rabais sont offerts à nos membres!

Voir les événements

Vous abonner aux infolettres du CRIM S'inscrire à notre infolettre

Voir nos infolettres récentes

Suivez-nous sur :   LinkedIn Flickr YouTube Medium