Mémoire de maîtrise (2011)
Document en libre accès dans PolyPublie |
|
Libre accès au plein texte de ce document Conditions d'utilisation: Tous droits réservés Télécharger (3MB) |
Résumé
Les moteurs de recherche utilisent des mécanismes d'enchères très sophistiqués pour déterminer le positionnement des annonces textuelles sur leurs pages de résultats. Tous les annonceurs désirant faire la promotion de leurs produits ou services doivent se faire compétition au sein d'une enchère fermée visant à établir l'ordre dans lequel leurs annonces sont présentées. Plus précisément, l'ordre d'apparition des annonces est déterminé en fonction de la valeur que les annonceurs sont prêts à payer par clic, ainsi que la pertinence de l'annonce et du site Web qui lui est associé. Généralement, les positions au haut de la liste obtiennent plus de visibilité et plus de clics que les positions au bas de la liste. Les annonceurs cherchent donc à fixer leurs valeurs d'enchère de façon à obtenir une visibilité et un nombre de clics satisfaisants, en limitant toutefois leurs coûts à des montants raisonnables. En appliquant ce principe à plusieurs milliers de mots-clés tout en considérant les diverses contraintes relatives au problème, il peut devenir extrêmement difficile de gérer une campagne publicitaire de façon efficace. Notre travail vise essentiellement à développer des algorithmes automatisables permettant d'améliorer le rendement des campagnes d'annonces textuelles sur les moteurs de recherche. Pour y arriver, nous présentons d'abord une synthèse qui explique le fonctionnement de ce milieu encore très peu connu. Par la suite, en s'inspirant des travaux publiés dans la littérature, nous modélisons le problème à l'aide d'un programme linéaire. En supposant que la performance d'une annonce peut être mesurée par le nombre de clics qu'elle obtient, le modèle vise à déterminer une façon optimale d'affecter les annonces aux diverses positions disponibles, tout en respectant une contrainte de budget. L'utilisation de fonctions de prédiction qui estiment le nombre de clics et le coût par clic moyen en fonction de la position moyenne de l'annonce est nécessaire pour chacun des mots-clés considérés. Puisque les mots-clés ne possèdent pas tous le même potentiel de prédiction, nous développons un algorithme de classification qui vise à affecter chacun de ces mots-clés à une méthode ou un traitement spécifique. En fonction de leurs caractéristiques, les mots-clés sont classés de façon à réduire les erreurs de prédiction et ainsi maximiser la portée du modèle d'optimisation.
Abstract
Search engines use sophisticated auction mechanisms to determine the positioning of text ads on their result pages. Advertisers seeking to promote their products or services must compete in sealed auctions to establish the order in which their ads will appear. More specifically, ad ranks are calculated based on the amounts the advertisers are willing to pay for each click, as well as the relevance of the ads and their related websites. Generally, ads placed at the top of the results list get more visibility and generate more clicks than the ads at the bottom of the list. Therefore, advertisers try to find the optimal bids that will allow them to obtain sufficient visibility and clicks, while maintaining reasonable costs. Our main objective is to develop automatable algorithms that can increase the performance of search engine text ad campaigns. In order to achieve this, we first present a summary explaining the various aspects of this relatively new research field. Thereafter, based on several studies that have been published, we model the problem using a linear programming approach. Assuming an ad's performance is measured by the number of clicks it generates, our linear program is designed to determine an optimal way to allocate the text ads to the various available positions while respecting a budget constraint. In order to estimate the number of clicks and the average cost per click for each position, the use of prediction functions is necessary. Since keywords do not all provide the same quality of regressions, we develop a classification algorithm that allows us to identify which processing can be used, depending on each individual keyword's characteristics. We aim to classify the keywords in a way that should reduce, as much as possible, the prediction errors. This should also maximize the scope of the optimization model, allowing us to estimate the clicks and costs per click of almost every single keyword in a campaign.
Département: | Département de mathématiques et de génie industriel |
---|---|
Programme: | Génie industriel |
Directeurs ou directrices: | Michel Gamache et Gilles Savard |
URL de PolyPublie: | https://publications.polymtl.ca/565/ |
Université/École: | École Polytechnique de Montréal |
Date du dépôt: | 27 août 2012 11:36 |
Dernière modification: | 28 sept. 2024 16:48 |
Citer en APA 7: | Quinn, P. (2011). Modélisation et prédiction du comportement de mots-clés dans des campagnes publicitaires sur les moteurs de recherche [Mémoire de maîtrise, École Polytechnique de Montréal]. PolyPublie. https://publications.polymtl.ca/565/ |
---|---|
Statistiques
Total des téléchargements à partir de PolyPublie
Téléchargements par année
Provenance des téléchargements