La page des séminaires est ici. Les séminaires du département d'informatique et de génie logiciel sont ouverts à tous et ciblent particulièrement les chercheurs et futurs chercheurs du Département d'informatique et de génie logiciel, professeurs et étudiants. Pour recevoir par courriel les annonces de séminaires, visitez ce lien. Pour présenter un séminaire, contactez Claude-Guy Quimper
Intelligence artificielle et mégadonnées : L’essentiel des éléments juridiques à considérer
Vincent Bergeron
Associé, avocat, agent de marques de commerce et Leader du Groupe des technologies émergentes chez ROBIC
Résumé:
La formation d’une durée de 60 minutes, dans le cadre de la maîtrise en IA, visera à présenter les principaux éléments juridiques à considérer en matière d’intelligence artificielle et de mégadonnées, dont notamment les aspects touchant à la propriété intellectuelle, aux données, à la vie privée, aux licences sur les modèles et jeux de données, au développement/amélioration des modèles et algorithmes et à l’utilisation de modules sous licences libres (Open Source).
Bio:
Vincent Bergeron est associé, avocat et agent de marques de commerce chez ROBIC, un cabinet de propriété intellectuelle situé à Montréal et Québec, où il pratique en matière de protection et de défense des actifs de propriété intellectuelle reliés aux technologies de l’information, notamment dans les domaines de l’intelligence artificielle, de la blockchain et autres technologies émergentes. Il est d’ailleurs le Leader provincial du Groupe des Technologies Émergentes chez ROBIC, un groupe constitué notamment d’avocats, d’agents de brevets et d’ingénieurs logiciel et informatique.
Auteur de plus de 160 publications et conférences, Vincent Bergeron a été invité à titre de conférencier en matière de propriété intellectuelle et de technologies par plusieurs organisations à travers le monde. Il est présentement Président international du comité YMC du Licensing Executives Society International (LESI), un organisme international dédié à la propriété intellectuelle et au transfert technologique, après avoir assumé la présidence du volet nord-américain de l’organisme en 2017-2018.
Vincent Bergeron est reconnu par le répertoire Best Lawyers in Canada en droit des technologies. Il est également reconnu par le répertoire Lexpert en droit de la propriété intellectuelle, ainsi qu’à titre de « Leading Lawyer to Watch » en droit des technologies au Canada.
(local en attente d'approbation)
Data Mining and Machine Learning for Authorship and Malware Analyses + A New Project
Benjamin C. M. Fung
Canada Research Chair in Data Mining for Cybersecurity
Associate Professor, School of Information Studies, McGill University
Abstract :
The objective of this presentation is to provide an overview of the research work conducted in the McGill Data Mining and Security (DMaS) Lab. We will discuss three research topics. (1) Given an anonymous e-mail or some tweets, can we identify the author or infer the author's characteristics based on his/her writing styles? I will present a representation learning method for authorship analysis and give a live software demonstration. (2) Assembly code analysis is one of the critical processes for mitigating the exponentially increasing threats from malicious software. However, it is a manually intensive and time-consuming process even for experienced reverse engineers. An effective and efficient assembly code clone search engine can greatly reduce the effort of this process. We have implemented an award winning assembly clone search engine called Kam1n0. It is the first clone search engine that can efficiently identify a given query assembly function's subgraph clones from a large assembly code repository. I will give a live demonstration of Kam1n0. (3) Our team has recently started a new collaborative reesearch project with a neuoroscience team at McGill to study stress and memory. We do not have any reseult yet, but the research problem itself is interesting. I would like to share it with the goal of initiating students' interests in AI.
Bio :
Dr. Benjamin Fung is a Canada Research Chair in Data Mining for Cybersecurity, an Associate Professor of School of Information Studies (SIS) at McGill University, a Co-curator of Cybersecurity in the World Economic Forum (WEF), and an Associate Editor of Elsevier Sustainable Cities and Society (SCS). He received a Ph.D. degree in computing science from Simon Fraser University in 2007. Collaborating closely with the national defense, law enforcement, transportation, and healthcare sectors, he has published over 120 refereed articles that span across the research forums of data mining, privacy protection, cyber forensics, services computing, and building engineering with over 7,900 citations. His data mining works in crime investigation and authorship analysis have been reported by media worldwide, including New York Times, BBC, CBC, etc. Dr. Fung is an Associate Member of MILA and a licensed professional engineer in software engineering. See his research website dmas.lab.mcgill.ca/fung for more information.
Prise en compte des facteurs influençant l’apprenant au sein des plates-formes d’e-learning
Yao Boni
Étudiant au doctorat sous la supervision de la Professeure Laurence Capus, Département d'informatique et de génie logiciel, Université Laval
Résumé : Actuellement, les plates-formes d’e-learning sont largement utilisées pour enseigner. Elles permettent aux enseignants de créer des cours, de créer des groupes-classes, d’échanger avec leurs apprenants sur le cours, de déposer des annonces à travers les forums de discussion, de suivre et d’évaluer la progression et l’apprentissage des apprenants, de créer des activités coopératives/collaboratives, de faciliter le tutorat. Quant aux apprenants, ils ont la possibilité d’accéder aux ressources disponibles pour le cours, d’échanger avec d’autres apprenants et l’enseignant, de suivre leur évolution, de rendre leurs devoirs, de participer aux activités coopératives/collaboratives. Mais comment sont intégrés les principes pédagogiques dans ces plates-formes? En pédagogie, il a été démontré notamment que certains facteurs influencent les apprenants lors de leurs apprentissages et qu'ils devraient donc être pris en compte pour enseigner. Or, fort est de constater qu’il n’existe aucune méthode permettant de dire s’il y a une réelle prise en compte de ces facteurs dans les plates-formes e-learning. Ainsi donc, à travers notre recherche, notre but est d’analyser les plates-formes d’e-learning afin de déterminer s’ils prennent en compte les facteurs influençant l’apprenant. Le cas échéant, comment intégrer ces facteurs dans les plates-formes?
Vers un deep learning vert
Frederic Precioso
Professeur, Laboratoire d'Informatique, Signaux et Systèmes de Sophia-Antipolis (I3S), Université Nice Sophia Antipolis (UNS), France
Responsable Intelligence Artificielle pour la Direction des grands programmesd'investissements de l'Etat et pour le Département Numérique et Mathématiques de l'ANR Agence Nationale de la Recherche de France
Résumé : Comment réduire la quantité de données nécessaires pour entrainer un réseau profond et ainsi réduire les coûts de calcul ? Comment s'inspirer de mécanismes biologiques pour réduire les calculs nécessaires à l'initialisation et à l'optimisation des réseaux profonds ? Avons-nous vraiment besoin d'autant de ressources de calcul et de puissance électrique pour obtenir des résultats équivalents ?
Nous verrons plusieurs pistes de réponse à ces questions en transformant les exemples adversaires en atout, en s'inspirant des ondes rétiniennes pour pré-structurer le réseau, ou en évaluant de nouvelles architectures de calcul.
Nous analyserons également différentes pistes pour mieux comprendre et interpréter les réseaux profonds avec une analyse plus particulière sur les données et sur des données médicales.
Bio : Depuis 2011, Frédéric Precioso est professeur à l'Université de Nice Sophia Antipolis (UNS), maître de conférences à l'École d'ingénieur Polytech'Nice Sophia, membre de l'équipe SPARKS (Scalable and Pervasive softwARe and Knowledge Systems) du laboratoire I3S UMR 7271 CNRS-UNS. Il est responsable du groupe de recherche MinD (Mining Data). Ses principaux intérêts de recherche sont : (i) Comprendre l'apprentissage profond (apprentissage actif, optimisation et interprétation inspirées par la biologie, traitement du langage naturel profond par opposition à l'analyse statistique de texte, apprentissage profonds et représentation des connaissances, apprentissage profond embarqué) ; (ii) Comprendre l'inhomogénéité (sémantique dans les données 3D, sémantique dans les données vidéo et le multimédia, sémantique dans le regard et sémantique dans les séries temporelles) ; (iii) Méta-apprentissage et méta-minage (plate-forme d'IA à la demande, clustering multi-consensus). Depuis septembre 2018, il est responsable scientifique et responsable de programme à l'Agence Nationale de la Recherche (ANR) pour la Division des Programmes des Grands Investissement d'Etat et le Département Sciences Numérique et Mathématiques.
Learning Object Localization and 6D Pose Estimation from Simulation and Weakly Labeled Real Images
Jean-Philippe Mercier
Étudiant au doctorat sous la direction du Professeur Philippe Giguère, Département d'informatique et de génie logiciel, Université Laval, en co-supervision avec Abdeslam Boularias, Rutgers U.
Résumé : Les méthodes par apprentissage profond nécessitent généralement une grande quantité de données d'entraînement. Pour développer des applications spécifiques, un long processus d'acquisition et d'annotation d'images est donc nécessaire à leur bon fonctionnement. Dans cette présentation, nous proposons une architecture de réseau de neurones et un processus d'entraînement qui combine l'utilisation d'images synthétiques et d'images réelles faiblement annotées pour la détection et l'estimation de la pose en 6 dimensions d'instances d'objets. Cette méthode performe comparablement aux méthodes de l'état de l'art tout en nécessitant moins d'images et un niveau d'annotation beaucoup plus faible.
Inférence de réseaux de neurones réels par réseaux de neurones artificiels
Mohamed Bahdine
Étudiant à la maîtrise sous la direction du Professeur Simon Hardy, Département d'informatique et de génie logiciel, Université Laval en cosupervision avec Patrick Desrosiers, professeur associé au Département de physique, Université Laval.
Résumé : L’extraction rapide d’un connectome, soit la liste des neurones et des connexions d’un cerveau, est un défi computationnel. Malgré les avancements d’algorithmes de segmentation de neurone à partir d’imagerie calcique, la détection de synapses individuelles à l’échelle du cerveau demeure intractable. Plutôt qu’observer les connexions entre les neurones, ces dernières sont plutôt inférées à partir de séries temporelles d’activité. Nous comparons des méthodes classiques d’inférence fonctionnelle telles que la causalité de Granger et le transfert d’entropie à des méthodes d’apprentissage profond telles que des réseaux de neurones à convolution et des réseaux récurrents. Ces méthode sont comparées sur de multiples simulations d’activité de neurones à dynamiques variables.
Respect de la vie privée et problématiques éthiques à l’ère des données massives et des services personnalisés
*** Présentation en pdf ***
Sébastien Gambs
Professeur, Département d'informatique, UQÀM
Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives
Résumé : Dans notre Société de l’Information, le profilage des utilisateurs à des fins de personnalisation et de recommandation est devenu la norme, ce qui a permis le développement de services qui sont ciblés sur les besoins spécifiques des individus, mais soulèvent aussi d’importantes questions éthiques et en termes de protection de la vie privée. En particulier, l’absence de transparence sur le processus de profilage et de personnalisation a conduit à une perte de contrôle des individus sur la collecte et l’usage qui est fait de leurs données personnelles tout en rendant impossible la possibilité pour un individu de questionner la décision prise par l’algorithme et de le rendre « imputable » par rapport à cette décision. De plus, la transparence est un prérequis afin de pouvoir analyser les biais possibles que les algorithmes de personnalisation pourraient avoir (par exemple en discriminant contre un groupe sensible de la population) dans le but de pouvoir ensuite les corriger.
Dans cette présentation, je passerai en revue les principaux défis en termes de problématiques éthiques et de respect de la vie privée qui sont apparus récemment avant de présenter les principales approches qui ont été proposées pour répondre à ces défis. Enfin, je conclurai en soulignant quelques questions ouvertes.
Bio : Sébastien Gambs est titulaire de chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives depuis décembre 2017 et professeur au Département d’informatique de l’Université du Québec à Montréal (UQAM) depuis janvier 2016. Précédemment, il avait occupé une Chaire de Recherche sur la Sécurité des Systèmes d’Information conjointe entre l’Université de Rennes 1 et Inria de septembre 2009 à décembre 2015. Sa thématique de recherche principale est sur la protection de la vie privée dans le monde numérique, avec un accent particulier sur les problématiques de respect de la vie privée dans le contexte de la géolocalisation. Il a aussi contribué à la recherche en protection de la vie privée dans les domaines d’applications suivants: réseaux sociaux, systèmes distribués et gestion de l’identité ainsi que les technologies de protection de la vie privée d’une manière générale. Il est aussi intéressé à résoudre des questions scientifiques à long terme telles que les tensions existantes entre l’analyse des données massives et le respect de la vie privée ainsi que les problématiques éthiques telles que l’équité, la transparence et l’imputabilité algorithmique soulevées par les systèmes personnalisés. ll a soutenu en juin 2014 son Habilitation à Diriger les Recherches (HDR) intitulée « Respect de la vie privée dans la société de l’information ».
Une approche dynamique pour la gestion des feux de circulation en temps réel
François Vaudrin
Étudiant au doctorat sous la supervision de la Professeure Laurence Capus, Département d'informatique et de génie logiciel, Université Laval.
Résumé : La programmation des feux de circulation a des impacts importants sur la congestion routière, les temps d'attente, les risques d'accident et la consommation inutile de carburant. La plupart des systèmes sont cependant statiques et ils sont programmés pour des périodes fixes de la journée comme l'heure de pointe du matin ou de l'après-midi. En d'autres mots, la durée des phases et des cycles ne varie pas. Cette recherche vise à mettre au point un système dynamique de feux de circulation en temps réel. Notre approche s'inspire du travail d'un agent de circulation humain et du diagramme fondamental de la circulation.
Vers des interactions homme-robot plus riches et naturelles : la robotique interactive à IntRoLab
*** Présentation en pdf ***
François Ferland
Professeur, Département de génie électrique et de génie informatique, Université de Sherbrooke
Résumé : L'objectif ultime en robotique interactive est d'avoir des robots autonomes qui peuvent interagir naturellement avec les gens, les assister dans la vie courante autant à la maison qu'au travail et qui peuvent s'adapter automatiquement à de nouvelles situations. Pour cela, une véritable intelligence artificielle incarnée, où des capacités de raisonnement haut-niveau sont embarquées sur un robot mobile capable d'interagir directement avec son environnement, est primordiale.
IntRoLab est un laboratoire de recherche qui étudie, développe, intègre et utilise des méthodologies en mécatronique et en intelligence artificielle pour la conception de systèmes autonomes et intelligents. Les recherches menées au laboratoire sont qualifiées de pragmatiques, dans le sens qu'ils s'attaquent aux défis pour amener les robots et les systèmes intelligents à être utilisés en pratique dans le but d'améliorer la qualité de vie de la société, et du même coup découvrir les mystères liés à la création d'une intelligence sur des machines.
Dans le cadre de ce séminaire, je présenterai différents projets de recherche que nous menons au laboratoire dans des domaines variés comme la robotique d'assistance aux personnes âgées et la robotique collaborative en milieu manufacturier dans le but de se rapprocher de cet objectif.
Bio : François Ferland est professeur adjoint au Département de génie électrique et informatique à l'Université de Sherbrooke depuis 2017. Auparavant, il a été chercheur postdoctoral en interactions homme-robot à l'ENSTA ParisTech (Palaiseau, France). Son sujet de recherche principal est le développement d'architectures cognitives pour coordonner les comportements de robots et systèmes intelligents autonomes, notamment en s'inspirant des processus cognitifs humains comme l'attention sélective, dans le but permettre aux robots d'anticiper leurs propres besoins cognitifs selon leurs expériences passées.
Industrie 4.0 et la transformation numérique du secteur manufacturier : Une opportunité formidable pour les informaticiens
Johathan Gaudreault
Directeur du Consortium de recherche en ingénierie des systèmes industriels 4.0,
Codirecteur du Consortium FORAC
Professeur, Département d'informatique et de génie logiciel, Université Laval
Résumé : Le tsunami numérique engendre une profonde transformation de l’économie mondiale. Les pays qui se démarqueront seront ceux ayant développé des avantages compétitifs autres qu’une main-d’œuvre abordable. La révolution « Industrie 4.0 » amorcée en Allemagne et à laquelle se joignent l’un après l’autre les pays de l’OCDE est un mouvement dans cette direction. Cette conférence vous permettra de constater comment notre secteur manufacturier s’ajuste à cette nouvelle donne grâce aux données massives et l’intelligence artificielle : systèmes de production agiles et reconfigurables; acquisition de données pour l’autodiagnostic; prise de décision automatisée... tant de perspectives formidables pour notre société et... pour l'informaticien!
Bio : Jonathan Gaudreault est professeur de génie logiciel à l’Université Laval. Il est directeur du « Consortium de recherche en génie des systèmes industriels 4.0 ». Son équipe crée des systèmes de prise de décision à base d’intelligence artificielle en collaboration avec plus d’une dizaine de partenaires industriels. L’expertise du professeur Gaudreault a été récompensée à de nombreuses reprises; il est notamment l’un des lauréat du Prix du Canada pour la recherche interdisciplinaire en sciences et génie.
La contrainte WeightedCircuitsLmax
*** Présentation en pdf ***
Kim Rioux-Paradis
Étudiante au doctorat, sous la supervision du Professeur Claude-Guy Quimper, Département d'informatique et de génie logiciel, Université Laval
Résumé : Le problème du commis voyageur peut être généralisé au problème du multiple commis voyageur. Dans ce problème, chaque ville doit être visitée exactement une fois par un seul des commis. On cherche à minimiser le plus long trajet effectué parmi les chemins des commis. Cette présentation explique comment résoudre ce problème en utilisant la programmation par contraintes. Pour ce faire, nous généralisons les contraintes Circuit et WeightedCircuit et présentons une nouvelle contrainte qui décrit comment encoder le problème des multiples commis voyageurs où la longueur du plus long cycle est plus petite qu’une variable. Nous allons montrer deux algorithmes de filtrages basés sur la structure du graphe et la distance entre les villes.
Machine learning for small molecules (en anglais)
*** Présentation en pdf ***
Juho Rousu
Professeur, Department of Computer Science, Aalto University
Leader of Kernel Methods, Pattern Analysis and Computational Metabolomics (KEPACO) research group
Leader of Foundations of Computational Health (FCHealth) research programme of Helsinki institute for Information Technology (HIIT)
Résumé : In this talk, I will review several machine learning tasks that fall under the general umbrella of predicting compatibility score F(x,y) of a pair of objects x and y, where both objects are allowed to come from arbitrary sets. Predicting structured output, link prediction in networks as well as multi-variate association analysis in paired datasets falls under this umbrella. I will demonstrate how kernel methods can be used to tackle such modelling problems on medium-scale datasets which are frequent in life science applications.
I will review applications that involve small molecules as one of the object types of interest: Metabolite identification (Brouard et al. 2017), drug bioactivity prediction (Cichonska et al. 2018) and genotype-phenotype association analysis (Cichonska et al. 2016).
Bio : Juho Rousu is a Professor of Computer Science at Aalto University, Finland. Rousu obtained his PhD in 2001 form University of Helsinki, while working at VTT Technical Centre of Finland. In 2003-2005 he was a Marie Curie Fellow at Royal Holloway University of London. In 2005-2011 he held Lecturer and Professor positions at University of Helsinki, before moving to Aalto University in 2012. Rousu’s main research interest is in developing principled machine learning methods, models and tools for computational and data science. Rousu's favourite topics include learning with multiple and structured targets, multiple views and ensembles, with methodological emphasis in regularised learning, kernels and sparsity, as well as efficient convex/non-convex optimisation methods. His applications of interest include metabolomics, biomedicine, pharmacology and synthetic biology.
Toward a Database of Sharp Invariants on Time Series Characteristics (en français)
*** Presentation en pdf ***
Nicolas Beldiceanu
Professeur à IMT Atlantique, LS2N-CNRS, France
Résumé : De nombreuses contraintes restreignant le résultat de certains calculs sur une séquence entière peuvent être représentées de manière compacte par des automates à registres. Nous améliorons la propagation de la conjonction de telles contraintes portant sur une même séquence en synthétisant une base de données d'invariants linéaires et non linéaires à partir de la représentation de ces contraintes en termes d’automates à registres. Les invariants obtenus sont paramétrés par la longueur de la séquence et sont vérifiés pour toute séquence suffisamment longue. Pour évaluer la qualité de ces invariants linéaires, nous avons développé une méthode permettant de vérifier si un invariant linéaire généré est une facette de l’enveloppe convexe des points réalisables. Cette méthode, ainsi que la preuve d'invariants non linéaires, sont basées sur la génération systématique d'automates finis déterministes de taille constante qui acceptent toutes les séquences entières dont le résultat vérifie une condition simple. Nous appliquons cette méthodologie à un ensemble de 44 contraintes de séries temporelles et obtenons 1400 invariants linéaires dont 70% définissent des facettes, et 600 invariants non linéaires, qui ont été testés sur des problèmes de production électrique à court terme.
Bio : Nicolas Beldiceanu est professeur en informatique à IMT Atlantique, LS2N-CNRS à Nantes (France) depuis 2003. Il a auparavant été chercheur senior au SICS à Uppsala (Suède), responsable de la recherche à COSYTEC dans la région parisienne (France), ainsi que chercheur au Centre européen de recherche sur les industries informatiques à Munich (Allemagne). Ses travaux portent sur la programmation par contraintes : contraintes globales et contraintes structurelles de séries chronologiques ; algorithmes de filtrage efficaces décrivant les contraintes (avec métadonnées, graphique, automates, transducteurs) ; synthèse / apprentissage des cartes de connaissances combinatoires ; modèles de contraintes d’apprentissage.
Approche PAC-bayésienne de l'apprentissage automatique: Garanties statistiques et nouveaux algorithmes
*** Présentation en pdf ***
Pascal Germain
Scientifique et chercheur INRIA Lille, Nord Europe; Université de Lille
Résumé : Les algorithmes d'apprentissage automatique construisent un prédicteur en généralisant l'information contenue dans un ensemble d'observations empiriques. La théorie PAC-bayésienne exprime des garanties statistiques sur la capacité de généralisation de tels prédicteurs. Au cours de ce séminaire, je présenterai ma conception de l'approche PAC-bayésienne, qui en fait un cadre de travail suffisamment général pour englober plusieurs variantes du problème d'apprentissage et les relier entre eux. Je conçois notamment cette théorie comme un outil possédant deux attraits majeurs. Un premier attrait est que les garanties PAC-bayésiennes se calculent à partir la perte empirique du prédicteur, c'est-à-dire la perte sur l'ensemble d'observations duquel il est issu plutôt que sur un ensemble de validation. Un second attrait est que chaque nouvelle borne PAC-bayésienne ouvre la voie à la conception d'un algorithme d'apprentissage; en optimisant l'expression mathématique des bornes, on obtient le prédicteur qui minimise une garantie théorique.
J'illustrerai ces deux caractéristiques de l'approche PAC-bayésienne en présentant deux de mes contributions récentes. D'abord, je montrerai qu'une paramétrisation particulière de certaines bornes PAC-bayésiennes permet de calculer des garanties de type «fréquentistes» sur les modèles «purement bayésiens», réconciliant ainsi deux paradigmes souvent considérés distincts. Ensuite, je présenterai une analyse PAC-bayésienne de la méthode d'approximation d'un noyau par attributs de Fourier aléatoires. Cette analyse originale a inspiré de nouvelles procédures d'apprentissage de mesures de similarité.
Deep radiomic analysis for personalized medicine
*** Présentation en ppt ***
Ahmad Chaddad
Adjunct Professor, Department of Automated Production Engineering, ETS
Biomedical Scientist, Department of Oncology, Division of Radiation Oncology, MUHC and JGH
Résumé : Radiomic analysis is a noninvasive technique for characterizing tumor lesions in terms of image texture signatures. It can be integrated into almost any clinical study involving image data, and thus has the potential to become an essential tool for diagnosis, treatment and follow-up of patient diseases. This talk will present my research in radiomic analysis, feature extraction techniques (gray level co-occurrence matrices, linear filters, wavelets, deep convolution neural networks, etc.), machine learning, and applications to tumor grading, prognosis and genomic profiling.
Nouveaux Modèles d’Apprentissage Machine/Profond et Applications (par vidéoconférence)
*** Présentation en pdf ***
Riadh Ksantini
Professeur et Directeur, Département d'Informatique et de Réseaux, Ecole Supérieure des Communications de Tunis (SUP’COM), Tunisie
Professeur Associé, School of Computer Science, University of Windsor, Ontario
Résumé : Dans cette présentation, je fournirai un aperçu sur les différents travaux de recherche basés sur le développement et l’utilisation de nouveaux modèles d’apprentissage machine/profond dans plusieurs applications pertinentes, comme, la Recherche d’Image par le Contenu, la Reconnaissance d’Activité/Comportement Humain(e), le Suivi des Contenus Vidéo, la Détection d’Objets Pertinents, le Rendu et Visualisation de Volume (Médical), la Détection d’Anomalie/Intrusion (Cyber-Sécurité), la Reconnaissance des Visages, etc.
Par exemple, nous avons proposé un nouveau modèle bayésien de régression logistique basé sur une méthode variationnelle. Nous avons comparé le modèle bayésien à d'autres classificateurs linéaires pertinents de l’état de l’art. Aussi, une comparaison de ce nouveau modèle avec le modèle classique de régression logistique a été effectuée dans le cadre de la recherche d'images par le contenu. En effet, la recherche d’images par le contenu trouve des applications concrètes: Reconnaissance faciale et comparaison d’empreintes (Interpol), identification d’appareils ennemis et de cibles à partir d’images satellites (Militaire), protection de la propriété intellectuelle, l’archivage de photographies, diagnostic en utilisant l’imagerie médicale (Médical), etc.