Vladimir Vapnik

Cet article est une ébauche concernant un mathématicien.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Vladimir Vapnik
une illustration sous licence libre serait bienvenue
Biographie
Naissance
Voir et modifier les données sur Wikidata (87 ans)
TachkentVoir et modifier les données sur Wikidata
Nationalités
soviétique
américaineVoir et modifier les données sur Wikidata
Formation
Samarkand State University (en)Voir et modifier les données sur Wikidata
Activités
Mathématicien, professeur d'université, informaticien, statisticienVoir et modifier les données sur Wikidata
Autres informations
A travaillé pour
Meta (depuis le )
AT&T Labs (en) (-)
Royal Holloway
Université ColumbiaVoir et modifier les données sur Wikidata
Membre de
Directeur de thèse
Alexander Lerner (en)Voir et modifier les données sur Wikidata
Distinctions
Liste détaillée
Prix Dennis Gabor (en) ()
Prix Paris-Kanellakis ()
IEEE Frank Rosenblatt Award ()
Médaille Benjamin-Franklin ()
Médaille John von Neumann ()
IEEE Neural Networks Pioneer Award
Kampé de Fériet Award (d)Voir et modifier les données sur Wikidata
Œuvres principales
Dimension de Vapnik-Chervonenkis, théorie de Vapnik-ChervonenkisVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Vladimir Naoumovitch Vapnik (en russe : Владимир Наумович Вапник), né le , est un mathématicien et informaticien, célèbre pour avoir développé les machines à support vectoriel, être l'un des principaux contributeurs à la théorie de Vapnik-Chervonenkis et de la théorie de l'apprentissage statistique.

Biographie

Né en Union soviétique, il obtient en 1958 un diplôme de mathématiques à l'université d'État d'Ouzbékistan, à Samarcande, en Ouzbékistan, puis obtient en 1964 un doctorat de statistiques à l'Institut des Sciences de Contrôle, à Moscou. Il travaille dans ce même institut de 1961 à 1990, et en devient le directeur du département de recherche en informatique.

En 1995, il est nommé professeur d'informatique et de statistiques au Royal Holloway College, à l'Université de Londres. Aux laboratoires Bell d'AT&T de 1991 à 2001?, Vladimir Vapnik et ses collègues développent la théorie des machines à support vectoriel (aussi appelées « machines à vecteurs de support », ou encore « séparateurs à vaste marge »), dont ils démontrent l'intérêt dans nombre des problématiques importantes de l'apprentissage des machines et des réseaux de neurones, tels que la reconnaissance de caractères.

Il travaille ensuite aux laboratoires NEC de Princeton, dans le New Jersey, aux États-Unis, ainsi qu'à l'université Columbia, à New York.

En 2006, Vladimir Vapnik est admis à l'Académie nationale d'ingénierie des États-Unis.

En 2008, il a conjointement avec Corinna Cortes reçu le prix Paris-Kanellakis pour la théorie et la pratique pour le développement d'un algorithme hautement efficace pour l'apprentissage supervisé connu sous le nom de machines à vecteurs de support (SVM)[1].

En , il rejoint le laboratoire de recherche sur l'intelligence artificielle de Facebook où il travaille avec Jason Weston, Ronan Collobert et Yann Le Cun[2].

Il reçoit la médaille John von Neumann en 2017[3].

Bibliographie

  • On the uniform convergence of relative frequencies of events to their probabilities (De la convergence uniforme des fréquences relatives des évènements vers leur probabilité), avec A. Y. Chervonenkis, 1971
  • Necessary and sufficient conditions for the uniform convergence of means to their expectations (Conditions nécessaires et suffisantes pour la convergence uniforme des moyennes vers leur espérance), avec A. Y. Chervonenkis, 1981
  • Estimation of Dependences Based on Empirical Data (Estimation des dépendances à partir de données empiriques), 1982
  • The Nature of Statistical Learning Theory (La nature de la théorie de l'apprentissage statistique), 1995
  • Statistical Learning Theory (Théorie de l'apprentissage statistique), 1998
  • Estimation of Dependences Based on Empirical Data (Estimation des dépendances à partir de données empiriques), réédition 2006 (Springer), qui contient également un essai philosophique sur la Science de l'inférence empirique (Empirical Inference Science), 2006

Notes et références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Vladimir Vapnik » (voir la liste des auteurs).
  1. Corinna Cortes et Vladimir Vapnik, « Support-Vector Networks », Machine Learning, vol. 20,‎ , p. 273–297
  2. (en) « Facebook’s AI team hires Vladimir Vapnik, father of the popular support vector machine algorithm », VentureBeat,‎ (lire en ligne)
  3. IEEE JOHN VON NEUMANN MEDAL RECIPIENTS [PDF]

Voir aussi

Articles connexes

Liens externes

  • Ressources relatives à la rechercheVoir et modifier les données sur Wikidata :
    • Digital Bibliography & Library Project
    • Google Scholar
    • Mathematics Genealogy Project
  • Notices d'autoritéVoir et modifier les données sur Wikidata :
    • VIAF
    • ISNI
    • BnF (données)
    • IdRef
    • LCCN
    • GND
    • Pays-Bas
    • Israël
    • NUKAT
    • Suède
    • Tchéquie
    • WorldCat
  • page personnelle sur le site du laboratoire de recherche de Facebook
  • photographie de Vladimir Vapnik
  • (en) mini-biographie de Vladimir Vapnik sur le site du Royal Holloway College
v · m
v · m
Personnalités de l'exploration de données
Source : « Le Data mining Présentation - page 13-14 - Stéphane Tufféry »
  • icône décorative Portail des mathématiques
  • icône décorative Portail de l’informatique
  • icône décorative Portail de la Russie