Matches in SemOpenAlex for { <https://semopenalex.org/work/W142565107> ?p ?o ?g. }
Showing items 1 to 25 of
25
with 100 items per page.
- W142565107 abstract "Les progres technologiques recents en matiere d'acquisition de donnees multimedia ont conduit a une croissance exponentielle du nombre de contenus numeriques disponibles. Pour l'utilisateur de ce type de bases de donnees, la recherche d'informations est tres problematique car elle suppose que les contenus soient correctement annotes. Face au rythme de croissance de ces volumes, l'annotation manuelle presente aujourd'hui un cout prohibitif. Dans cette these, nous nous interessons aux approches produisant des annotations automatiques qui tentent d'apporter une reponse a ce probleme. Nous nous interessons aux bases d'images generalistes (agences photo, collections personnelles), c'est a dire que nous ne disposons d'aucun a priori sur leur contenu visuel. Contrairement aux nombreuses bases specialisees (medicales, satellitaires, biometriques, ...) pour lesquelles il est important de tenir compte de leur specificite lors de l'elaboration d'algorithmes d'annotation automatique, nous restons dans un cadre generique pour lequel l'approche choisie est facilement extensible a tout type de contenu. Pour commencer, nous avons revisite une approche standard basee sur des SVM et examine chacune des etapes de l'annotation automatique. Nous avons evalue leur impact sur les performances globales et propose plusieurs ameliorations. La description visuelle du contenu et sa representation sont sans doute les etapes les plus importantes puisqu'elles conditionnent l'ensemble du processus. Dans le cadre de la detection de concepts visuels globaux, nous montrons la qualite des descripteurs de l'equipe Imedia et proposons le nouveau descripteur de formes LEOH. D'autre part, nous utilisons une representation par sacs de mots visuels pour decrire localement les images et detecter des concepts plus fins. Nous montrons que, parmi les differentes strategies existantes de selection de patches, l'utilisation d'un echantillonnage dense est plus efficace. Nous etudions differents algorithmes de creation du vocabulaire visuel necessaire a ce type d'approche et observons les liens existants avec les descripteurs utilises ainsi que l'impact de l'introduction de connaissance a cette etape. Dans ce cadre, nous proposons une nouvelle approche utilisant des paires de mots visuels permettant ainsi la prise en compte de contraintes geometriques souples qui ont ete, par nature, ignorees dans les approches de type sacs de mots. Nous utilisons une strategie d'apprentissage statistique basee sur des SVM. Nous montrons que l'utilisation d'un noyau triangulaire offre de tres bonnes performances et permet, de plus, de reduire les temps de calcul lors des phases d'apprentissage et de prediction par rapport aux noyaux plus largement utilises dans la litterature. La faisabilite de l'annotation automatique n'est envisageable que s'il existe une base suffisamment annotee pour l'apprentissage des modeles. Dans le cas contraire, l'utilisation du bouclage de pertinence, faisant intervenir l'utilisateur, est une approche efficace pour la creation de modeles sur des concepts visuels inconnus jusque la, ou en vue de l'annotation de masse d'une base. Dans ce cadre, nous introduisons une nouvelle strategie permettant de mixer les descriptions visuelles globales et par sac de mots. Tous ces travaux ont ete evalues sur des bases d'images qui correspondent aux conditions d'utilisation realistes de tels systemes dans le monde professionnel. Nous avons en effet montre que la plupart des bases d'images utilisees par les academiques de notre domaine sont souvent trop simples et ne refletent pas la diversite des bases reelles. Ces experimentations ont mis en avant la pertinence des ameliorations proposees. Certaines d'entre elles ont permis a notre approche d'obtenir les meilleures performances lors de la campagne d'evaluation ImagEVAL." @default.
- W142565107 created "2016-06-24" @default.
- W142565107 creator A5003622432 @default.
- W142565107 date "2009-01-01" @default.
- W142565107 modified "2023-09-25" @default.
- W142565107 title "Vers une description efficace du contenu visuel pour l'annotation automatique d'images" @default.
- W142565107 hasPublicationYear "2009" @default.
- W142565107 type Work @default.
- W142565107 sameAs 142565107 @default.
- W142565107 citedByCount "0" @default.
- W142565107 crossrefType "dissertation" @default.
- W142565107 hasAuthorship W142565107A5003622432 @default.
- W142565107 hasConcept C138885662 @default.
- W142565107 hasConcept C142362112 @default.
- W142565107 hasConcept C15708023 @default.
- W142565107 hasConceptScore W142565107C138885662 @default.
- W142565107 hasConceptScore W142565107C142362112 @default.
- W142565107 hasConceptScore W142565107C15708023 @default.
- W142565107 hasLocation W1425651071 @default.
- W142565107 hasOpenAccess W142565107 @default.
- W142565107 hasPrimaryLocation W1425651071 @default.
- W142565107 isParatext "false" @default.
- W142565107 isRetracted "false" @default.
- W142565107 magId "142565107" @default.
- W142565107 workType "dissertation" @default.