Le Web Marketing Les
enjeux du référencement et de la
visibilité sur le Web.
par : |
Alexandra
Raimbault |
|
1.
Le référencement
c’est quoi ?
1.1.
Le référencement, une
définition succincte
1.2.
Les moteurs de recherche (ou
référencement automatique)
1.2.2.
Le monopole Google et son
« PageRank »
1.3.
Les annuaires (ou
référencement manuel)
1.4.
Les différentes
stratégies de référencement
1.4.1.
Le référencement
naturel (SEO)
1.4.2.
Les liens sponsorisés (ou
positionnement publicitaire ou PPC)
1.4.3.
Le référencement
dynamique (XML), Web visible et invisible
1.4.4.
Le référencement
spécialisé
1.5.
Un outil pour comparer la
popularité sur le net
1.6.
Le laboratoire du
référencement
1.7.
Deux leviers importants du Web Marketing
2.
Les enjeux du
référencement
2.1.
L’achat et le choix des
mots-clés (PPC)
2.1.1.
La gestion de l’achat des
mots-clés (liens sponsorisés)
2.1.2.
Le choix des meilleurs mots-clés
2.1.3.
Le suivi des campagnes de liens
sponsorisés
2.2.
Le référencement
naturel (SEO), l’expérience d’un
professionnel
2.2.1.
Les balises dans le code HTML de la page
2.2.3.
Liens entre sites et entre
catégories
2.2.5.
Le suivi d’une campagne de
référencement naturel
2.4.
L’impact sur la structure
organisationnelle des entreprises
2.4.1.
Internaliser ou externaliser ?
2.4.2.
Depuis qu’on utilise le Web de
nouveaux postes sont créés
2.4.3.
Référenceur, un
métier ?
2.4.4.
Le « Reverse
engineering »
2.5.
L’impact du Web Marketing sur la
vente de produits complexes
3.
Les évolutions techniques et les
tendances
3.1.
Le cas du Flash chez Forum Trafic
3.2.
Le Web Marketing prend tout son sens
3.2.1.
« The Long
Tail » ou La Longue Traîne (concept
marketing)
3.2.2.
Le Web 2.0 (concept technique)
3.4.1.
L’évolution de 2000
à 2005
3.5.
Le Web Marketing Néthique
3.5.4.
Quatre moteurs de recherche à
connaître
3.6.
Le référencement
grâce au plan du site
3.7.
La contre-attaque
de Microsoft : Live.com
3.8.
Synthèse : Les
facteurs-clés de succès du
référencement naturel
4.
Référencement :
applications et solutions personnelles
4.1.
Cas n°1 :
Création d’un nouveau site
4.2.
Cas n°2 : Les redirections
4.2.1.
Travail
« néthique » sur le
nom de domaine
4.2.3.
Travail de manipulation de
l’internaute et du moteur
4.3.
Cas n°3 : Travail sur un nom
de produit
4.4.
Cas n°4 :
Problématique due au rachat de NetTest par Anritsu
4.5.
Cas n°5 :
Référencement grâce aux photos
6.3.
Formulaire
de soumission Top Annuaire
6.4.
Exemple de site en 2.0 : Flickr
6.5.
« Notabene.net
: Keyword analysis for NetTest »
6.6.
Séminaire
Imitiki / Chambre de Commerce de Paris Délégation
de Paris
6.7.
« Notabene.net
: Workshop for NetTest »
6.8.
Matrice produit-secteur Forum Trafic en
fonction des critères N2H et n2H
Alexandra Raimbault : Nous
sommes partis du constat que le monopole de Google au niveau du
référencement conditionnait la façon
dont les sites Web étaient conçus et les
campagnes de Web Marketing menées. Nous avons voulu nous
intéresser plus particulièrement au
référencement qui est, selon nous, la pierre
angulaire du Web Marketing. En effet, pour nous, un Web Marketing
réussi s’appuie sur un bon positionnement sur le
Web grâce au référencement naturel
(SEO).
A travers des recherches et des
interviews de spécialistes du
référencement, nous avons voulu
démontrer que :
§
Les
dirigeants doivent prendre conscience qu’il ne
s’agit plus seulement de lancer des campagnes sur le Web
(e-publicité, e-mailing) mais plutôt de soigner
leur référencement donc leur positionnement dans
les résultats des outils de recherche (moteurs et annuaires)
pour accroître le trafic ciblé sur leur site.
§
Les
objectifs d’un site Web et le budget à consacrer
doivent être pensés en amont (il ne
s’agit plus de faire du Web pour du Web). Ceci influe donc
sur la stratégie de l’entreprise mais aussi sur
son organisation car le référencement est un
métier à part entière.
§
Il
existe des techniques de référencement naturel,
c'est-à-dire d’optimisation des pages Web, qui
permettent d’améliorer grandement le
positionnement, mais celles-ci demandent une expérience et
des compétences énormes qui ne
s’inventent pas, et qui, en aucun cas, ne peuvent
être considérées comme secondaires.
Pour étayer cette
démonstration nous avons choisi d’interviewer
plusieurs types de personnes pour qu’elles nous
parlent de sujets qui leur sont propres. Cependant, ce sont plus que de
véritables interviews puisqu’avec certaines
personnes, nous avons travaillé depuis mi-2004 en vue
d’optimiser les pages du site Web NetTest. Les
résultats de ces « interviews
collaboration » sont donc le fruit d’un
travail commun.
Voici les profils de ces
intervenants et leurs sujets de prédilection :
§
Deux
agences avec lesquelles nous avons travaillé sur le
référencement et l’ergonomie du site
Web NetTest (surtout fin 2004 et jusqu’à
mi 2005) : Subsero et Notabene.
§
Deux
Web Masters ayant des spécialités non pas
différentes mais complémentaires :
o
l’accessibilité
et le référencement NetTest: Piotr
Narloch.
o
le
référencement de sites Web dynamiques Didier Favre
§
Un
chef d’entreprise ayant pour spécialité
la vente de produits complexes : Francis Portogallo de Forum
Trafic.
§
Une
spécialiste du graphisme et donc du
référencement d’un site en
Flash : Anouk Perrin de Forum Trafic.
Nous avons choisi
d’intégrer les résultats de ces
interviews dans le corps du Mémoire sous forme de
synthèse des idées-clés de
façon à ne pas charger le texte d’une
liste de questions-réponses (souvent traduites de
l’anglais, par ailleurs).
Le Web Marketing recouvre toutes
les activités qui passent par le réseau Internet
publique, les réseaux internes (Intranet) ou externes
(Extranet) privés et sécurisés, ou
plus généralement tout moyen de communication
électronique. Mais le Web Marketing n’est rien
sans le référencement et c’est
à ce domaine spécifique que nous allons nous
intéresser.
La problématique qui se
pose aussi bien aux entreprises qu’aux particuliers est la
suivante : comment être visible sur le Web
(nécessité de
référencement) ? Ou encore :
comment se positionner et se différencier sur la
toile ? Nous sommes en face d’une nouvelle politique
marketing qui remet en question l’organisation traditionnelle
de l’entreprise.
En effet actuellement beaucoup
d’entreprises se sentent quelque peu perdues et se demandent
où s'arrête le référencement
et où commence le Web Marketing. Nous
démontrerons dans ce document que le
référencement naturel se situe en amont du
marketing dans sa mise en place et que c’est la
nécessité d’un bon
référencement et donc d’un bon
positionnement dans les outils de recherche (moteurs ou annuaires) qui
doit conditionner toute action en Web Marketing.
Ainsi, le premier chapitre
s’intéressera aux différents types de
référencement et distinguera le
référencement naturel du
référencement payant. Car c’est bien
sur le référencement naturel qu’il faut
travailler selon nous.
Puis, nous aborderons les enjeux du
référencement pour mieux comprendre comment le
référencement naturel impacte
désormais : en amont, les objectifs marketing de
l’entreprise et en aval, son organisation.
Dès lors,
l’analyse des évolutions techniques et des
tendances dans le troisième chapitre nous confirmera que le
Web Marketing a pour pilier le référencement
naturel car de nombreux acteurs du Web utilisent des outils plus ou
moins « néthiques »
pour atteindre le meilleur positionnement et ainsi accroître
le trafic ciblé sur leurs sites.
Cette course au
référencement entraîne en effet moult
dérives et nous montrerons, à travers quelques
applications personnelles, une série de techniques
(certaines
« néthiques »,
d’autres moins) visant à pousser un contenu de
site Web et améliorer ses actions Marketing grâce
au référencement naturel.
Pour un tel sujet assez technique,
difficile de ne pas passer par beaucoup de descriptifs. Mais nous avons
essayé d’éviter cet écueil
en utilisant des exemples concrets et en prenant partie, tout en
exposant nos recommandations pour chaque démonstration
développée.
De même, le sujet ayant
énormément de composantes techniques, nous ne
pouvons pas parler de tout. Par exemple, nous n’avons pas
détaillé l’usage de petits morceaux de
code ou de programmes appelés
« robot.txt » qui permettent
d’interdire l’indexation de certaines pages. Ou
encore, nous n’avons pas décrit en
détail ce qu’est le Web interactif (pages
dynamiques) car ceci fait partie du domaine de la programmation pure
(XML, Javascript, Ajax, fils RSS, etc.).
Cependant, un glossaire a
été inséré en fin de
document permettant d’avoir une explication simple et une
idée de base sur ces techniques.
Nous avons aussi choisi
volontairement de ne pas opposer Web Marketing BtoB et BtoC car nous
avons démontré que les techniques de
référencement des sites personnels et
professionnels étaient proches désormais.
De
surcroît, ce sujet est délicat car les techniques
de
référencement naturel ne sont pas
forcément
« néthiques » mais
nous avons choisi de
les présenter car elles reflètent bien que se
positionner
sur la toile est devenu un véritable enjeu pour les
entreprises.
Enfin, nous allons principalement
nous intéresser à Google car ce moteur de
recherche représente à lui seul, 80% du
référencement mondial. Ainsi, Google pourrait
faire l’objet d’un mémoire à
lui tout seul. On se rend compte que le trio incontournable reste
Google/Yahoo/MSN et que Google est en quasi-monopole. C’est
pourquoi notre questionnement sur le
référencement s’intéressera
majoritairement à ce moteur.
La répartition des recherches par moteur
de recherche (Mars 2005)
D’où viennent les
internautes ? (Mars 2005)
Source
Weborama/Takezo Brioudé : www.barometre-referencement.com
Pour être
référencé, donc être visible
sur la toile, il faut tout d’abord inscrire son site Web
auprès des différents outils de recherche
disponibles sur Internet : les moteurs de recherche et les annuaires.
En général c’est un service gratuit
mais le délai d’apparition d’un site Web
nouvellement référencé est compris
entre un et trois mois !
Ensuite, pour rendre maximum la
visibilité d'un site Web dans ces annuaires et moteurs il
faut suivre toute une série d’étapes
très différentes qui vont de la simple
définition de mots-clés à la
création de pages spéciales facilitant le
repérage des sites par les moteurs. Ainsi, dans ce document
nous distinguerons bien :
§
Référencement
naturel (encore appelé
« SEO » pour
« Search Engine Optimization »)
qui couvre toutes les actions à effectuer pour
améliorer le référencement
d’un site Web en le positionnant au mieux dans les moteurs de
recherche ou annuaires, ceci dans le but d’augmenter le
trafic ciblé vers le site.
§
Référencement
payant (encore appelé « Pay Per
Click », positionnement publicitaire, liens
sponsorisés).
C’est en 2001
qu’est apparue la notion de
référencement payant (ou liens
sponsorisés) : le
« payeur » voit alors son site
apparaître en tête des résultats (sur
Overture.com) ou, plus subtil, dans une fenêtre en haut de
page (sur Google). Le référencement devient alors
de la publicité et le référenceur une
centrale d'achat d'espace.
Le
référencement n’est pas une
finalité en soi, c’est un moyen de
générer du trafic ciblé, de
transformer le trafic en audience, d’améliorer le
taux de conversion, d’augmenter la fidélisation et
le buzz marketing autour du site puisque
l’évolution des usages rend les pages Web de plus
en plus différentes, complexes et personnalisables comme en
témoignent les nombreux Blogs, Wiki, Forums, Fils RSS, etc.
Le
référencement naturel permet
d’être présent dans les moteurs et
annuaires et d’obtenir un bon positionnement sur les
mots-clés recherchés dans ces outils.
Les robots des moteurs de recherche
indexent toutes les pages Web d’un site automatiquement et
proposent une recherche par mot-clé.
Aussi appelés
« spiders » ou «
crawlers » ce sont des logiciels qui scannent les
pages des sites Web et engrangent dans un index les pages Web
sémantiquement interprétables par les moteurs de
recherche en fonction d’une analyse statistique de leur
contenu. Cette version du document est appelée la version
« cache ».
Ces robots repassent
perpétuellement les pages Web avec une fréquence
de cinq à quinze jours, pour que l’information la
plus à jour possible soit toujours disponible pour les
internautes.
Les délais de prise en
compte d’un nouveau site sont souvent très longs,
de un à trois mois, à moins de payer
évidemment.
Il existe aussi des
méta-moteurs qui permettent la recherche dans plusieurs
moteurs, augmentant ainsi le nombre de résultats pertinents
pour le visiteur. Il est donc de plus en plus intéressant de
tester plusieurs outils de recherche pour obtenir des
résultats plus exhaustifs.
Les moteurs ne peuvent pas indexer
le Flash, le Javascript et les images. Nous évoquerons
diverses alternatives et solutions à ce problème
dans la partie évoquant « Les
évolutions techniques et les tendances ».
Google
possède un index de plus de quatre milliards de pages Web.
C’est le moteur mondial prédominant, avec presque
80 % de part de voix.
§
Le
« PageRank », c'est l'indice de
popularité d'une page, calculé par Google
à partir du nombre et de l'importance des liens vers cette
page.
Le
« PageRank » ne donne en aucun
cas d’informations sur le positionnement par
mot-clé du site. C’est un système
algorithmique spécifique qui prend en compte une centaine de
critères qui ne sont pas officiellement
communiqués.
§
Pour
savoir si un site Web est bien
« ranké » dans
Google, il faut installer la « Google
Toolbar » sur son navigateur : toolbar.google.com/intl/fr
Exemple de
« PageRank »
Nous pouvons dire que Google est
une des composantes centrales du sujet du
référencement. Les problèmes qui se
posent sont ceux de l’éthique et de la
confidentialité des informations
véhiculées. De nombreux sites
dédiés à Google en font part,
notamment 7-dragons qui parlent de la collaboration
entre Google et la NSA :
« Un
des passages les plus fameux sur la face cachée de Google
concerne l'embauche d'un certain Matt Cutts, ancien
ingénieur du National Security Advisor (N.S.A.),
équivalent de la C.I.A. pour l'armée
américaine. La rumeur s'est ainsi enflammée
concernant Google qui serait en fait un outil de surveillance du N.S.A.
Il est certain que Google est en contact avec les Services Secrets
américains, comme toute entreprise majeure des Etats Unis.
Par contre, le N.S.A. a aussi largement les moyens de se fabriquer son
propre Google ou de le pirater. Bref, pas de preuves sur les liens de
Google et le N.S.A., mais la rumeur est solide car on en parle toujours
aujourd'hui.
Ceci dit, il est vrai que Google est très intrusif via son
cache, sa Toolbar et GMail. Nos disques durs sont la prochaine cible et
Picasa (récemment acheté par Google) se charge de
tout rapporter à propos des images présentes sur
votre système. »
De même, le
récent article du Point confirme la tendance
« Big Brother » vers laquelle
l’américain Page et le russe Brin (les
co-fondateurs de Google) s’orientent.
Les annuaires indexent les sites
Web manuellement et proposent une recherche par catégorie et
sous-catégorie thématiques.
Les responsables des annuaires
demandent au Web Master de remplir une fiche descriptive. Il faudra
définir dans quelles catégories ou
sous-catégories le site Web va être
classé. Il est bon de regarder les sites concurrents et
d’identifier où ils se sont
répertoriés pour avoir le plus de chances
d’être soi-même classé au bon
endroit pour faciliter la recherche des internautes.
Cette fiche descriptive devra aussi
contenir des mots-clés et bien résumer le contenu
du site.
Contrairement aux moteurs, les
annuaires n’indexent pas les pages une à une. Ils
se basent sur cette fiche descriptive uniquement, mais vont bien
sûr vérifier le contenu du site proposé
pour contrôler que ce contenu soit bien conforme à
la description.
On pourra choisir de mettre son
site Web dans plusieurs catégories mais il faudra veiller
à ce que le site ne soit pas relégué
trop loin dans les sous- rubriques. En effet lors d’une
recherche sur Internet on sait que le nombre de clics est crucial et
quand ce nombre est trop élevé
l’internaute abandonne la recherche ou clique sur un lien
placé plus haut dans la hiérarchie des rubriques.
Maintenant, la majeure partie des
offres de référencement est mixte
c'est-à-dire qu’elles combinent
l’indexation automatique et manuelle, ce sont les
méta-moteurs comme par exemple Meta France ou DogPile.
Recherche mixte
Recherche par
compilation de moteurs et d’annuaires
Selon les agences Subsero et
Notabene, les différentes stratégies de
référencement conditionnent la SEO
« Search Engine Optimization »
(encore appelée SEM « Search Engine
Marketing »).
C’est ce dont nous
parlions dans l’introduction, ce sont des techniques pour
optimiser de façon gratuite et manuelle la position
d’un site selon certains critères de recherche
dans les moteurs. C’est un travail qui nécessite
d’agir dès la création du site Web sur
différentes composantes comme le codage, la
sémantique, l’ergonomie, l’indice de
densité d’un mot-clé
(c'est-à-dire combien de fois il revient dans la page). Par
exemple, si le texte est trop long sur une page Web, le poids des
mots-clés diminue.
C’est une technique
consistant à adapter les pages du site Web aux
critères d’indexation des moteurs de recherche.
Plus une page est optimisée, plus son
référencement naturel sera
amélioré. Exemple d’optimisation :
renseigner les
« méta-tags », nommer
correctement les images, insérer du contenu et des liens
pertinents, etc.
Un dernier commentaire qui a son
importance : on optimise une page d’un site pour
telle expression ou tel mot-clé. Etre dans les trois
premiers résultats d’un outil de recherche (moteur
ou annuaire) ne veut rien dire. NetTest veut par exemple
apparaître dans les premières pages de Google sur
l’expression « network
optimization » mais n’y arrive pas car
c’est une expression déjà trop
usitée.
Aussi appelé
positionnement publicitaire ou PPC, « Pay Per
Click », il correspond à
l’achat de mots-clés aux enchères.
Ainsi, sur des mots très concurrentiels, les prix peuvent
grimper très vite. On utilise cette technique pour des
campagnes spécifiques comme des lancements de produits
d’un site déjà existant ou bien le
lancement d’un nouveau site.
Le
paiement se fait au clic de l’internaute sur le lien
sponsorisé. Cette technique est employée quand on
n’a pas le temps d’attendre le délai
normal
d’indexation d’un site par un moteur (de un
à trois
mois comme nous l’avons stipulé dans le chapitre
« Le référencement,
c’est
quoi ? »). C’est un usage qui
doit rester
ponctuel selon nous.
A l’origine, cette
technique était présentée comme un
formidable palliatif pour les sites dynamiques dont le contenu est
difficilement pris en compte par les moteurs de recherche. Un site Web
dynamique ou XML (langage de programmation) est un site qui repose sur
des bases de données où il est possible de faire
des « requêtes ».
Or les robots des moteurs de
recherche ont besoin de suivre des liens à
l’intérieur d’un site afin de pouvoir
indexer les pages correspondantes. En principe dans un site XML, les
pages ne sont accessibles que par le biais de l’interrogation
d’un formulaire.
Deux alternatives :
§
Certains
Web Masters ou agences réécrivent les pages XML
en HTML (« URL rewriting ») et
ces pages apparaissent donc de façon naturelle dans les
résultats d’une recherche sur Google par exemple.
Les URL dynamiques sont converties en URL statiques.
§
Les Flux XML : les
informations utiles par produits sont extraites (par exemple, le nom,
la description, le prix…) des bases de données du
site et via une
interface intelligente les pages XML
générées sont soumises aux moteurs
partenaires (à ce jour, Voilà, Overture France,
Espotting, Inktomi, Yahoo Search Technology). Ces derniers
étant rémunérés au prorata
du nombre de clics (offre « Pay Per
Click »).
C’est une
stratégie nouvelle mais assez controversée
puisque Google par exemple l’assimile à du
« spamdexing » dont nous
parlerons plus bas.
Depuis
quelques jours, Google désindexe beaucoup de pages
dynamiques non
« rewritées » (la
plupart sur des forums). Ces pages deviennent donc invisibles.
Aussi appelé
référencement thématique, il existe
des annuaires spécialisés par région,
par métier et par activité. Ces annuaires
s’adressent à des visiteurs très
ciblés. Ces visiteurs peuvent trouver un produit ou un
service en circonscrivant une zone de trente cinq kilomètres
depuis leur domicile, comme par exemple le site www.aidadomicil.com.
Un
« GoogleFight » est un usage
détourné et amusant de Google. Le site
GoogleFight.com propose de comparer la popularité de deux
mots sur la base du nombre de pages trouvées pour chacun
d'eux sur le moteur de recherche Google.
Par exemple, on peut lancer un GoogleFight entre NetTest et son
concurrent Agilent, ou encore entre Dess Marketing et
Mastère Marketing.
NetTest versus Agilent sur www.googlefight.com
DESS Marketing versus Mastère Marketing
En
2004 a eu lieu un concours de positionnement appelé
« mangeur de cigogne », le but
était de référencer cette expression
peu usitée ! Le gagnant, donc le meilleur
référenceur, était celui qui
obtiendrait la meilleure position dans Google.
L’association SEMA 7 a
soutenu le concours « mangeur de
cigogne » pour recenser l’ensemble des
techniques qui ont été utilisées dans
le cadre de ce concours tant il s’agit d’une
formidable occasion d’avoir un "laboratoire ouvert" des
techniques de référencement qu’elles
soient agressives ou éthiques.
Les résultats ont
été rendus publics à la date du 15
juin 2004, soit deux mois après la date limite
d’inscription.
Un
nouveau concours visant à référencer
l’expression « sorcier
glouton » a
été lancé en avril 2005 sur le moteur
MSN Search
et clôturé le 15 juin 2005.
A suivre.
D’après nos
interlocuteurs Web Masters, un des principaux leviers du Webmarketing
est la fidélisation car créer du trafic c'est
bien, mais le fidéliser c'est mieux.
Il y a aussi un
élément crucial, c’est
« l'usabilité » du
site car bien trop souvent l’internaute fuit après
quelques secondes car il est pressé. En effet,
c’est parce qu’il dispose de peu de temps
qu’il vient sur Internet. Le palmarès des erreurs
à ne pas commettre dans le domaine est :
§
Une
page trop longue à télécharger (page
trop lourde ou page en Flash).
§
Une
page trop chargée qui ne permet pas à
l’internaute de trouver l’information assez
rapidement.
§
Trop
d’animations sur la page qui tuent l’information.
§
Pas
de moteur de recherche interne au site.
§
Des
couleurs peu lisibles et fatigantes pour le regard.
§
Des
fenêtres « pop-up » ou
interstitiels qui s’ouvrent avant même que le reste
de la page ne soit affiché.
Une
fois évoqués les différents aspects
liés au positionnement d’un site Web dans les
outils de recherche, nous allons voir que l’optimisation des
pages Web en vue d’un meilleur
référencement repose sur un certain nombre de
critères qu’il faut absolument connaître.
Ce
choix dans les méthodes de
référencement se révèle
stratégique, dans la mesure où il conditionne
pour partie, l’organisation de l’entreprise mais
aussi la commercialisation des produits.
Dans Google, en partie centrale, les sites
référencés naturellement ;
dans la colonne de droite,
les liens sponsorisés
2.1.1.
La
gestion de l’achat des mots-clés (liens
sponsorisés)
L’entreprise,
grâce à l’achat de mots-clés
et donc de la création de liens sponsorisés, peut
ajuster ses dépenses en fonction du trafic
puisqu’elle ne paye que lorsqu'un internaute clique sur le
lien. Elle peut ainsi estimer le coût de redirection d'un
visiteur sur son site de la même manière
qu’elle calcule un « cost per
lead » pour d'autres formes de publicité.
Cependant,
le système d’enchère est pernicieux car
sur des mots très concurrentiels les prix peuvent augmenter
de façon excessive annihilant tout retour sur investissement.
Selon le Benchmark Group, les deux
tiers des sociétés interrogées passent
par leur agence média habituelle pour la gestion de
l’achat des mots-clés. Seules un tiers
d’entre elles recourent à un
spécialiste du référencement.
Approches
retenues pour l’achat de mots-clés en 2004
Source :
Benchmark Group, « Publicité et marketing
sur Internet », 2005
De même un tiers des
annonceurs pensent d’ailleurs que leur prestataire
n’est pas performant s’agissant de
l’achat de mots-clés. De manière
générale, le principal grief est
« la nécessaire révision des
mots-clés qui avaient, selon les annonceurs,
généré un trafic insuffisamment
qualifié ». Ces optimisations
apparaissent toutefois plus ou moins inévitables selon les
responsables, dans la mesure où c’est un sujet qui
nécessite une part d’expérimentation.
Niveau de
satisfaction des entreprises vis-à-vis des conseils offerts
par le prestataire pour l’achat de mots-clés
Source :
Benchmark Group, « Publicité et marketing
sur Internet », 2005
En 2005, les entreprises semblent
investir davantage de budget dans la mise en place d’une
logique d’achat à l’année sur
certains mots-clés pour lancer de nouveaux produits par
exemple. Ceci au détriment de l’achat
d’espace en e-publicité.
L’achat de
mots-clés semble laisser la place pour 2006 au
référencement naturel, puisque cet achat de
mots-clés venait essentiellement pallier un
référencement naturel déficient qui
sera dorénavant mieux pris en charge.
Les forces et les faiblesses des liens
promotionnels
Source :
Benchmark Group, « Publicité et marketing
sur Internet », 2005
Il faut essayer de trouver les
mots-clés les plus tapés par
l’internaute et ceux qui sont le plus en
adéquation avec le site Web à
référencer. Il existe des outils qui permettent
de comparer le potentiel de trafic d’un mot-clé et
le nombre de résultats renvoyés par le moteur de
recherche pour savoir s’il va être possible de se
positionner (c'est-à-dire que si le mot-clé est
déjà énormément
utilisé, notre site risque d’arriver tout en bas
de la liste).
Plusieurs outils gratuits :
§
Pour
connaître le nombre de fois
où la requête sur tel mot-clé a
été saisie et le nombre de résultats
identifiés par Google pour la requête
(c'est-à-dire savoir s’il n’y a pas
déjà trop de résultats quand on tape
ce mot dans les moteurs de recherche). Ceci nous donne une note sur
l’intérêt et la faisabilité
du positionnement sur ce mot-clé :
Résultats pour l’expression
« logiciel photo »
Nous avons voulu savoir
s’il était judicieux d’optimiser le site
Web dynamique de Didier Favre sur les mots « logiciel photo ». Ici le
diagnostic est peu encourageant. Nous obtenons un meilleur
résultat avec le mot
« diaporama », avec une note de
10 sur 20.
§
Pour
connaître les mots-clés les plus tapés,
de nombreux sites existent comme overture ou encore le site
d’Espotting,
Ce choix de mots-clés
est crucial puisqu’il va conditionner le positionnement du
site Web dans les centaines de milliers de résultats qui
vont apparaître pour telle ou telle recherche.
Le suivi est difficile pour les
entreprises, les seuls indicateurs bien maîtrisés
sont le nombre de clics
générés par les mots-clés
et le coût au clic.
Le taux de transformation est
intéressant mais parfois dur à évaluer
car il est difficile de réussir à
connaître le nombre d’actions transactionnelles ou
relationnelles effectuées sur le site par rapport au nombre
de clics générés par les
mots-clés achetés.
Les indicateurs de performance des liens
promotionnels suivis par les annonceurs
Source : Benchmark Group,
« Publicité et marketing sur
Internet », 2005
Selon Jacob Hageman de
l’agence Notabene, on peut distinguer quelques composantes
d’une page Web qui vont avoir une influence sur le
positionnement d’un site Web dans les moteurs de recherche.
§
La
balise « Title »
Les mots-clés vont
être doublement référencés
s’ils apparaissent ici.
§
Les
balises « Meta name »
La balise « Meta
name description » permet de décrire la
page, en général on y insère encore
une fois le maximum de mots-clés
La balise « Meta
name keywords » permet de lister ses
mots-clés.
Mais on a constaté une
efficacité réduite de cette partie du code qui
n’est plus le critère
prépondérant pour le bon positionnement
d’un site Web par les moteurs. Ainsi la
société NetTest a choisi de ne pas utiliser cette
balise.
Mais le
levier le plus significatif est sans aucun doute le texte.
En effet, tous les
éléments textuels vont être pris en
compte par le robot du moteur de recherche : le titre, les
libellés des photos, les légendes, etc.
C’est pourquoi il faudra tout particulièrement
soigner cette partie.
En conséquence :
§
Le
texte dans la partie haute de la page doit être
particulièrement soigné car le robot commence
bien évidemment par là.
§
L’indice
de densité d’un mot clé doit
être élevé.
C’est le nombre de fois
que le mot-clé apparaît dans la page.
§
La
fonte
Il faut privilégier le
gras, l’italique, une taille de police
élevée, les titres et sous-titres principaux.
Page du site NetTest optimisée pour une
recherche sur le champ sémantique de l’optimisation
§
Le
contenu de l’URL du site doit, lui aussi, reprendre les
mots-clés.
§
Les
liens texte, de la même façon.
§
Les
attributs « ALT » et
«TITLE » des images :
Ceci
est une alternative textuelle pour les images.
« ALT » est le texte qui
apparaîtra si la
photo ne s’affiche pas correctement dans la page.
L’attribut « TITLE »
servira à
donner une description détaillée de l'image.
Ces deux attributs textuels sont primordiaux pour le référencement des pages contenant beaucoup de photos.
Les liens transversaux entre
catégories permettent d’augmenter la
popularité et donc le
« PageRank » du site Web. De
même les liens pointant sur le site et leur pertinence sont
fondamentaux.
Fin 2004, il a fallu repenser le
design et l’ergonomie de la page d’accueil du site
Web NetTest.
Piotr Narloch, alors Web Master a
dû travailler avec les responsables du Marketing des trois
divisions de NetTest pour connaître leurs attentes et
distinguer ce qui était bon pour le
référencement de ce qui ne
l’était pas.
De ce travail
d’équipe auquel nous avons participé en
tant que « Product Marketing
Manager », nous avons conclu qu’il fallait
réorganiser la page de façon
à :
§
Séparer
les informations pour les mettre en valeur sous forme de
« boîtes » :
nouveauté produit, promotion mensuelle,
événements.
§
Rendre
le contenu plus clair et lisible.
§
Permettre
une recherche facile par produit.
§
Créer
un plan du site.
Besoins
spécifiques en ergonomie pour la nouvelle page
d’accueil |
Solutions pour optimiser la page en
vue du référencement |
Organisation par boîte |
Soigner le texte de chaque
boîte en insérant le maximum de
mots-clés Soigner le titre de chaque
boîte |
Rubrique
“recherche” |
Créer plusieurs outils
de recherche (par produit, par technologie et par type de solution) Soigner le texte
décrivant l’outil de recherche |
Clarifier la
page |
Un texte concentré sur
le haut de la page est plus facile à
référencer La page est visible dans sa
totalité sans avoir à utiliser le navigateur
horizontal ou vertical Créer un plan du site
reprenant tous les liens |
Inscription à la
« Newsletter » |
Faciliter l’inscription
en limitant le nombre de clics |
Rubrique
« Contact NetTest » |
Placer cette rubrique importante en
haut à gauche de la page car traditionnellement,
c’est cette barre verticale que l’internaute
regarde en premier |
Les indicateurs à suivre
vont être principalement :
§
Combien
de visites ont été
générées par un clic sur un lien
provenant de Google.
§
Le
taux de transformation provenant de ces clics.
§
Le
trafic généré par le
référencement sur Google par rapport au trafic
provenant d’autres sites ou d’autres
média (publicité, e-publicité, buzz,
etc.)
Attention, ces indicateurs peuvent
être difficiles à évaluer si
l’on ne dispose pas d’un outil de
« tracking »
approprié. Cet outil est en général
fourni dans la prestation des référenceurs ou des
agences de communication.
Statistiques sur le nombre de clics sur chaque lien
de la page d’accueil NetTest
En conclusion, faut-il
préférer le référencement
naturel ou le référencement payant ?
Il ne semble pas que la conversion
soit plus forte avec les liens sponsorisés qu’avec
le référencement naturel. Mais le
référencement naturel ou optimisation est plus
fastidieux car il ne s’agit pas juste d’acheter un
mot-clé mais plutôt de repenser toute sa politique
de Web Marketing. L’objectif étant
double : être visible et
générer des contacts utiles. Chez NetTest, on
peut constater que sur 15 mots achetés 2
génèrent 80% du trafic en 2004.
Les liens sponsorisés
devraient être utilisés ponctuellement et le
référencement naturel devrait faire partie de la
stratégie de l’entreprise.
De plus, les internautes sont de
plus en plus avisés et savent maintenant distinguer
publicité et l'information sur le Web. Les utilisateurs
désirent avoir pour moteur, un véritable outil de
recherche et non un vecteur de publicité.
Pour rester concurrentiel, beaucoup
de sociétés font appel à une
société de référencement.
|
Avantages |
Inconvénients |
Internaliser |
Meilleure adéquation
avec la stratégie de l’entreprise Réactivité
plus grande |
Compétences requises
très diversifiées (optimisation, achat
d’espace, inscription, suivi, veille) Compétences encore rares
sur le marché de l’emploi |
Externaliser |
Facilité de mise en
œuvre Rapidité |
Choix du bon prestataire difficile |
Un simple Web Master ne suffit plus
dans le sens où au départ, selon Kristoffer de Hemmer Hamborg,
Chef de projet à l’agence Subsero, le Web master
était avant tout un programmeur. Maintenant il doit prendre
en compte le design, l’ergonomie, le comportement de
l’internaute qui deviennent des composantes à part
entière du Web Marketing. Nous sommes donc à la
croisée des chemins entre marketing, design et
programmation.
De
surcroît, ce sujet du référencement est
très
consommateur de ressources humaines car très prenant et
demandant une expérience poussée. Le niveau de
complexité du référencement
étant fort
élevé, on assiste à
l’apparition de nouveaux
métiers :
§
Chef
de Projet on-line
§
« Web
designer »
§
« Web
surfer »
§
Responsable
de trafic ou « Traffic manager »
§
Rédacteur
on line
§
Secrétaire
de e-Rédaction
§
Cyber
Documentaliste
§
Ergonome
ou Concepteur réalisateur
Un spécialiste en
référencement est souvent nécessaire
car il s’agit véritablement de conseiller les
entreprises pour qu’elles aient une démarche
cohérente par rapport aux attentes des utilisateurs et des
moteurs de recherche. Le référenceur devient un
expert en « keyword marketing »
et doit posséder des qualités et
compétences aussi bien disparates que complexes, comme nous
venons de le voir.
C'est une partie
intégrante du métier de
référenceur et c’est une expression un
peu pompeuse pour décrire ce que les Web Masters font tous
les jours pour mieux comprendre comment un moteur indexe les pages Web
à partir de leur contenu.
La pluralité
d’un médium comme le Web va pouvoir
libérer toute sa puissance pour la vente des produits
complexes. En effet la structure hypertexte du Web va permettre de
représenter la polymorphie de tels produits. Cependant, plus
encore que pour d’autres types de média
(relationnel ou transactionnel), la combinaison entre le type de
segmentation et la description des produits sera la base
d’une bonne politique de référencement,
point clé de la communication sur le Web.
Ainsi,
le déclenchement d’une décision
d’achat qui
requiert déjà des trésors
d’ingéniosité dans le cas de produits
simples,
demandera l’élaboration d’un processus
encore plus
lourd dans le cas de produit polymorphes. Le Web permet
d’alléger ce processus. Ainsi sur le Web il est
plus
facile d’opérer plusieurs segmentations en
même
temps : par technologie, par solution ou par produit.
En
effet toutes les segmentations sont accessibles depuis la
même
page et l’internaute qui arrive sur la page
d’accueil peut
ainsi combiner différents critères de recherche.
Par
exemple, sur le site NetTest, on peut combiner recherche par
technologie et par nom de produit, ou encore par technologie et
solution. A chaque fois, on arrive à une liste restreinte de
résultats qui permet au visiteur de ne pas passer des heures
sur
chaque site pour obtenir une information.
Chez Forum Trafic, Francis
Portogallo a choisi de définir une segmentation claire de
l’univers fonctionnel des produits
considérés. La méthode a
été de croiser cette première
segmentation avec une typologie des différents secteurs
d’activités susceptibles d’acheter le
produit. Ils ont ainsi obtenu une matrice de grande taille. Pour chaque
couple produit-secteur, a été affectée
une autre classification : N2H (Need to have) ou n2H (Nice to
have). Le sous-ensemble N2H a bien entendu été
privilégié. Selon Francis Portogallo, aucun autre
médium ne permet aujourd’hui une
représentation aussi exhaustive et facilement accessible
d’un portefeuille de produits complexes.
Comme nous venons de le voir, les
principaux enjeux du référencement naturel (SEO)
sont donc bien de :
§
Générer
du trafic ciblé sur son site Web.
§
Fidéliser
les visiteurs.
§
Créer
une bonne notoriété en gardant un positionnement
cohérent sur le Web.
De même, il faudra que
les entreprises tiennent comptent et s’adaptent aux
nombreuses évolutions techniques autour du Web, de
façon à continuer à optimiser leur
référencement et donc à se
différencier de leurs concurrents.
Comme nous l’avons vu
précédemment, le
référencement des sites en Flash est
problématique. Cependant, selon Anouk Perrin de Forum
Trafic, il existe des moyens de contourner cette difficulté.
En effet, les moteurs de recherche
ne prennent pas en compte le Flash. Une alternative est de
générer des fichiers
« swif » (une des formats de
Flash) pour améliorer les chances d’indexation par
les moteurs.
En outre, et en tout
état de cause, il est grandement conseillé de
proposer en ligne une version HTML de son site.
Enfin, il existe une autre
façon de bien positionner un site en Flash sur les
moteurs de recherche : passer par les offres de positionnement
publicitaire pour être certain d'être en
tête de liste. Mais, comme nous l’avons vu
précédemment, le recours à cette
méthode est payante et doit demeurer ponctuelle.
Grâce à de
nouveaux concepts, le Webmarketing change vraiment
d’orientation et prend désormais tout son sens.
Des idées vraiment audacieuses comme
« The Long Tail » (la Longue
Traîne) et les évolutions techniques montrent que
le Web est désormais un enjeu de taille pour les entreprises.
On peut aussi désormais
obtenir une mine d’informations sur le comportement des
internautes grâce aux blogs et aux
« chats ».
L’idée
est de ne plus se focaliser sur quelques gros marchés connus
de tous mais de s’intéresser à la
multitude de couples produit-marché
qui peuvent être mis en relation grâce à
l’Internet.
L’humanité
crée énormément de matière
intellectuelle ou physique. Cette dernière est souvent oubliée parce qu’il
n’existe pas la structure pour la présenter. Le
simple fait de la « marqueter » sur le Web peut réveiller une
demande suffisamment importante pour qu’il y ait
matière à vendre en quantité.
Les consommateurs
sont lassés des choix limités imposés
par la mode. Ils ont des goûts personnels qu’ils ne
retrouvent pas dans les produits « marquetés » à large
échelle.
Une
difficulté des marchés traditionnels
est liée à la nécessité
d’avoir des clients concentrés sur une surface
géographique délimitée. Il est
également impossible de se lancer dans une commercialisation
qui ne remboursera pas ses coûts de production.
Dans ces cas de figure, il est
donc difficile
d’offrir un large choix de produits ou services
diversifiés.
Cependant
l’inadéquation entre la demande et
l’offre ne génère pas de vente. Une
solution consisterait
donc à changer de
modèle économique en offrant des alternatives aux
produits-phares
et ceci en
utilisant la vente en ligne. Il existe de nombreux produits ou
solutions qui ne sont pas « marquetés » et des produits de niches qui existent mais qui ne sont pas encore visibles sur le
net.
La théorie de la Longue Traîne dit que pour tout article qui est
proposé,
il y a un potentiel de vente, même s’il ne
s’agit que de quelques personnes par mois dans le monde. Ainsi,
on peut tout trouver sur la
Longue Traîne et pas forcément de la
qualité. Mais, en
additionnant tout ce qui se vend sur la Longue Traîne, on
obtient un marché qui dépasse celui des produits-phares.
Les entreprises qui
réussissent le mieux sur l’Internet travaillent
toutes sur la Longue Traîne. Ainsi, Google tire la
majorité de son chiffre d’affaires de la
publicité chez de petits annonceurs.
Source :
Chris Anderson,
rédacteur en chef de Wired.
Il possède un
blog consacré au phénomène
qu’il décrit dans l’article : thelongtail.com
Il n’existe
pas de définition précise du Web 2.0 car il
n’y a pas d’organisme pour cela. Il est cependant
possible de distinguer les technologies et les comportements des internautes
afin de se donner une idée des différences entre
le Web 1.0 et le
Web 2.0 :
§
Le Web 1.0 :
C’est le Web classique que nous connaissons
depuis dix ans.
Il est souvent réalisé avec les langages
historiques du monde du Web
dont le HTML, le Javascript et le Flash. Un utilisateur arrive sur un
site Web et
navigue de page en page. Pages qui sont figées dans ce site en
fonction des différents liens définis par le
créateur du site.
§
Le Web 2.0 :
C’est un Web qui répond
précisément à chaque demande
d’un utilisateur. Il est réalisé avec
des langages permettant de réaliser des pages dynamiques
dont le PHP,
.Net, Java, XML
et surtout l’accès aux bases de données
et le chargement asynchrone de données serveur (Ajax). Un
utilisateur navigue sur la toile en passant d’une information
à l’autre sans se poser de question sur les
créateurs des sites. Les contraintes
d’accès à une information disparaissent
au profit de l’interaction et du relationnel.
Ceci va même jusqu’à l’aspect
collaboratif où l’utilisateur peut
lui-même modifier les informations des sites auxquels il
accède.
Il n’y a
pas vraiment de transition du Web 1.0
au Web 2.0 mais
un passage régulier de l’un à
l’autre. Les techniques liées au Web interactif sont connues depuis
longtemps par les créateurs de sites. Ce qui
est nouveau,
c’ est
l’utilisation fréquente de ces techniques au
niveau de la structure générale du site Web et plus uniquement dans une sous-partie du site.
L’engouement
pour le Web 2.0 permet principalement de vendre des
développements autour d'un nouvel acronyme Ajax (JavaScript
+ XML) aux responsables de sites Web.
Il n’en reste pas qu’il existe une
véritable évolution sous le nom Web 2.0 qui recouvre un ensemble d’approches
(API, fils RSS,
Folksonomies, Réseaux sociaux) et qui propose aux créateurs de sites une
nouvelle manière d’aborder les problèmes complexes pour
arriver à de vraies solutions pour les besoins des
Internautes.
|
Web 1.0 |
Web 1.5 |
Web 2.0 |
Type de Web |
Statique |
Dynamique |
Collaboratif |
Période |
1994-1997 |
1997-2003 |
2003 |
Technologies associées |
HTML, GIF |
DHTML, ASP, PHP, CSS |
Ajax, DHTML, XML, Soap |
Caractéristiques |
Les pages Web sont des documents
statiques rarement mis à jour. |
Les pages Web sont construites
à la volée à partir d’une ou
plusieurs bases de données. |
L’utilisateur devient
contributeur. Il publie des informations et manipule les
données. |
Source : 01
Informatique, 11/11/2005
L’exemple le plus
flagrant et le plus réussi d’e-commerce mondial
entre particuliers, encore appelé « consumer to
consumer » est sans doute eBay. On peut
même parler de Web communautaire car ces ventes sont
gérées de bout en bout par les membres qui vont
chercher les produits achetés eux-mêmes
d’où l’absence de stock. Les valeurs de
confiance et d’échange sont renforcées
par le fait que chaque vendeur est noté en fonction du
service rendu. Ainsi, le bénéfice net
d’eBay pour le troisième trimestre 2005 est en
hausse de plus de 43 % à 255 millions de dollars.
Selon les Echos, cette tendance
lancée par eBay serait en train de gagner du
terrain :
« Les particuliers s'adonnent de plus en plus entre eux à des opérations d'achat-vente sur Internet. Le moteur de recherche Google ne s'y est d'ailleurs pas trompé en annonçant, il y a une semaine, le démarrage de l'expérimentation d'un nouveau service, Google Base, qui permettrait aux internautes de rendre accessibles en ligne leurs petites annonces pour, par exemple, vendre des articles d'occasion. Avec l'intention, non dissimulée, de venir concurrencer eBay, premier site mondial de ventes entre particuliers. »
Source : Les Echos, 2 novembre 2005
Ainsi on apprend que
« la
fréquentation des sites d'achat-vente de produits neufs ou
d'occasion a augmenté
de 55 % entre avril 2004 et avril 2005 » selon une
étude
Médiamétrie/NetRatings/Fevad.
Ceci va encore accroître
la soif de monopole de Google qui a lancé son site de
petites annonces « Google
Base » fin octobre.
On peut donc se dire que Google va
être encore plus présent sur la toile et que les
sites auront de plus en plus intérêt à
optimiser leurs pages et à diversifier les services
proposés aux internautes avec l’obligation de
créer des forums, des
« chats », des petites annonces,
etc.
On est passé de sites
Web créés « pour
s’amuser » aux sites
« hybrides »,
c’est-à-dire qui se situent entre site
professionnel et site personnel.
Cette évolution est
flagrante si l’on regarde la progression sur plusieurs
années :
§
En
2000, on fait du Web pour faire du Web, c'est-à-dire pour
s’amuser et découvrir.
§
En
2002, 2003, on fait des sites Web
« jolis » avec
l’utilisation à outrance des animations, Gifs
animés, puis Flash qui rendent les pages clignotantes,
voyantes et surtout illisibles !
§
En
2004, a commencé le jeu du
« PageRank »
où chaque créateur de site Web a voulu essayer de
se
faire référencer et de se positionner sur Google
en
utilisant des astuces « maison ».
Un des moyens
fortement utilisés était la technique des
« rebonds »,
c’est-à-dire la
présence accrue de liens qui pointent vers un site mais
aussi de
liens internes (comme nous l’avons vu dans le chapitre
« Liens entre sites et entre
catégories »).
§
Enfin,
en 2005, le métier de référenceur est
apparu et commence à être reconnu comme une
véritable expertise. On prend conscience que
l’analyse et l’optimisation sémantique
sont cruciales pour se différencier sur le Web.
En somme, nous constatons
qu’il y a beaucoup de sites personnels qui sont aussi bien
conçus (voire mieux) que certains sites professionnels.
Par exemple le site www.archimede.fr créé en juin
2005 et qui possède déjà un
« PageRank » à 3.
Le site est
réalisé en Flash par un designer (donc
beau) et en HTML par un informaticien (présence
d’un plan du site détaillé menant
à la version HTML en plus de la version Flash).
De surcroît, sur ce site,
les méta-commandes sont claires
et complètes pour les robots des moteurs.
Ce sont des pages personnelles que
l’on assimile volontiers à une sorte de journal
intime racontant la vie au quotidien de tel ou tel individu. Cependant,
la différence avec un journal intime est que chacun peut
réagir et « poster »
ses commentaires en temps réel.
De plus, ces blogs sont souvent
très bien référencés et
apparaissent quelques fois en tête de liste des
résultats sur les moteurs de recherche, c’est
pourquoi, les professionnels se sont inspirés de ces pages
personnelles pour améliorer leur marketing relationnel. En
effet, on le savait, les entreprises utilisent Internet pour recruter.
Mais depuis le début de l’année 2005,
on assiste au développement de deux nouveaux canaux de
recrutement : les
« chats » et les blogs.
Ainsi, Century 21 a
lancé une campagne de recrutement par blog. Ces blogs ont
fait intervenir le DRH et des collaborateurs qui racontent leur
quotidien. Selon les derniers commentaires édités
sur le blog de Century 21, le 22 juin 2005 : « Cette
campagne est réussie. Ce fut pour notre service une
expérience bénéfique, nous y avons pu
faire découvrir les métiers de l'immobilier au
plus grand nombre, de nombreux candidats se sont par la suite rendus
sur notre site Web pour consulter nos offres d'emploi ou ont
contacté notre centre d'appels pour avoir des informations
complémentaires sur les postes que nous proposons et notre
politique de recrutement… ».
De même, le
Crédit Lyonnais en est à sa deuxième
phase de recrutement par
« chat » :
Invitation au chat LCL du 14 novembre 2005
L’objectif est de mettre en place un marketing relationnel personnalisé qui permet de créer une relation privilégiée avec le futur recruté. Les valeurs de l’entreprise sont donc plus faciles à transmettre et ces campagnes améliorent donc la notoriété et l’image de l’entreprise.
Un des sens du réseau
social sur Internet, c’est l’utilisation
d’un site Internet de mise en relation de personnes. Ce type
de site Web permet de nouer de nouveaux contacts professionnels dans
tous les secteurs d'activité ou de se faire
connaître personnellement.
Les réseaux sociaux
dédiés aux professionnels reposent sur le
principe de l’acceptation réciproque et de la
confiance entre un membre et la personne qu’il invite
à rejoindre le réseau.
La seule façon pour un
membre de rentrer en contact avec un autre membre du réseau
avec qui il n’est pas en contact direct consiste à
passer par l’intermédiaire d’un autre
inscrit. Ce dernier à pour rôle de faciliter la
mise en relation.
Tout ceci est très
proche de ce qui existe sans l’Internet mais dans ce cas le
réseau potentiel de relations peut être beaucoup
plus large.
Les réseaux reconnus sont Viaduc , LinkedIn, 6nergies.
3.5.
Le
Web Marketing Néthique
La rapidité et le faible
coût du transfert de l’information grâce
au Web encouragent certaines entreprises ou certains individus
malveillants à abuser de techniques visant à
pousser des offres commerciales vers l’internaute ou encore
à pirater ses données bancaires. C’est
pourquoi il existe désormais une politique
éthique dans les professions du Web destinée
à repérer et à limiter ce genre
d’abus.
Les techniques de spam sont
connues, il s’agit d’envoyer de nombreux e-mails
non désirés dans les boîtes aux lettres
électroniques. Mais désormais les techniques ont
évolué.
Une nouvelle technique,
plus sophistiquée, arrive progressivement.
L’internaute reçoit un spam. Contrairement au
« phishing » qui vous invite
à cliquer sur un lien qui vous conduit sur un faux site
(d’une banque par exemple), le seul fait d'ouvrir ce
message introduit un logiciel renifleur. Ce
dispositif se déclenche lorsque vous tapez les
seize chiffres de votre Carte Bleue et envoie automatiquement ce code
aux pirates.
Un autre
procédé consiste à
générer des combinaisons d’adresses
e-mail à partir de noms et de fournisseurs
d’accès. Ce sont des logiciels qui effectuent
l'opération avec des milliers de noms et plusieurs
fournisseurs d'accès. Au final, la
méthode permet de créer un bon nombre d'adresses
valides.
Mais depuis la loi du 21 juin 2004
pour la confiance dans l'économie numérique, il
est désormais interdit d'adresser aux particuliers des
messages de nature commerciale sans avoir obtenu
préalablement leur consentement. Toutefois, la loi
prévoit une dérogation dans le cas où
un client a déjà acheté un produit
à une entreprise. Dans ce cas précis, celle-ci
pourra lui adresser des messages commerciaux pour assurer la promotion
de ses produits. A condition qu'ils soient analogues à celui
acheté antérieurement.
Il existe plusieurs techniques pour
augmenter l’indexation de son site Web par les moteurs de
recherche et les annuaires. Plusieurs variantes existent :
§
Les
sites miroirs :
Ce sont des copies conformes en
HTML d’un site principal (lui en XML, c'est-à-dire
dynamique) avec l’utilisation de plusieurs noms de
domaines satellites pour multiplier les positions et
augmenter le trafic.
Ceci n’est pas
forcément une bonne technique car on se fait concurrence
soi-même sur le nom de domaine principal qui doit
être la priorité pour le
référencement. Un des sites satellite va
être mieux référencé et les
autres seront à la traîne puisque qu’ils
ne seront pas optimisés par du
« backlinking » et des liens
bidirectionnels pertinents, des mentions dans des blogs ou des forums,
enfin tout ce qui permet à un site de gagner sa
notoriété sur le Web.
Nous pensons que le
côté utilisateur doit donc être
privilégié au lieu d’abuser de ces
techniques, cependant nous ne disons pas qu’il ne faut jamais
utiliser les satellites, mais seulement de façon
modérée et ponctuelle. Même si ce
propos n’est pas politiquement correct, en pratique, nous
devons dire que cette technique fonctionne puisque cela permet un
décollage rapide des positionnements et du trafic, au
début tout au moins.
§
Le
« cloaking » et le
«page jacking »
- Le
« cloaking » consiste
à identifier les adresses IP des robots et
à leur montrer un contenu spécifique.
Le « cloaking » consiste
à créer des doubles des pages réelles
du site pour obtenir de bons classements dans les outils de recherche.
Ainsi pour une même URL, les moteurs verront une page
entièrement optimisée et qui répond
à leurs critères de classement tandis
qu’en demandant la même URL, l’internaute
lambda verra une page tout à fait ordinaire.
Pour cela, il est
nécessaire que le serveur Web qui héberge le site
connaisse toutes les adresses des
« spiders » des moteurs de
recherche et à chaque fois que l’un
d’entre eux se connecte, il leur envoie une page «
cloakée ». Cette pratique est lourdement
sanctionnée par Google.
- Le « page
jacking » consiste à capturer le code
d’une page en première position, à
copier ce code sur une page de son serveur, à la faire
indexer via une technique de « cloaking »
et à renvoyer à l'internaute une page normale du
site.
En théorie, on a
récupéré une excellente position en
parasitant le travail d'un autre mais on fait basculer le trafic sur
ses propres pages qui ne sont peut-être pas pertinentes pour
l’internaute.
Dans la pratique, le
« cloaking » est très
risqué et bon nombre d’outils de recherche se
protègent contre ce type d'attaque. Nous sommes donc assez
réservés sur ce type de technique.
§
Les
pages satellites
C’est une page
spécialement créée pour un
mot-clé spécifique qui a vocation
d’être redirigée sur la
véritable page d’accueil qui contient le contenu
que l’on veut pousser. On peut par exemple créer
beaucoup de pages satellites en utilisant des mots-clés
très porteurs
(« gratuit »,
« cadeau », etc.) pour attirer
les internautes. Mais le contenu réel de la
véritable page d’accueil peut décevoir
puisqu’elle est souvent totalement différente de
la requête de l’internaute. C’est un
procédé à proscrire sauf dans le cas
où l’on change de nom de domaine, que
l’on était très bien
positionné sur ce nom et que l’on ne veut pas
perdre le trafic généré auparavant.
Mais ce cas de figure est rare.
§
Les
« link farms »
Ceci consiste à utiliser
des logiciels qui génèrent des liens automatiques
pointant sur son site. Cela augmente la popularité et donc
le « PageRank » dans Google et
dans les autres moteurs de recherche. Ce sont des concentrations
artificielles de liens.
§
Le
texte invisible
On peut rajouter le
mot-clé sur lequel on veut être bien
positionné en blanc sur blanc plusieurs centaines de fois
pour gagner en référencement mais cette technique
est aisément repérable par les moteurs qui
combattent cette fraude.
§
Le
scam
Le
scam (« ruse » en anglais), est
une pratique
frauduleuse d'origine africaine, consistant à extorquer des
fonds à des internautes en leur faisant miroiter une somme
d'argent dont ils pourraient toucher un pourcentage. L'arnaque du scam
est issue du Nigéria, ce qui lui vaut également
l'appellation « 419 » en
référence
à l'article du code pénal nigérian
réprimant ce type de pratique.
L'arnaque du scam est classique :
vous recevez un courrier électronique de la part du seul
descendant d'un riche africain décédé
il y a peu. Ce dernier a déposé plusieurs
millions de dollars dans une compagnie de
sécurité financière et votre
interlocuteur a besoin d'un associé à
l'étranger pour l'aider à transférer
les fonds. Il est d'ailleurs prêt à vous reverser
un pourcentage non négligeable si vous acceptez de lui
fournir un compte pour faire transiter les fonds.
En répondant
à un message de type scam, l'internaute s'enferme dans un
cercle vicieux pouvant lui coûter quelques centaines d'euros
s'il mord à l'hameçon.
§
Le
« phishing »
C’est l'usurpation
d'identité d’un site Web ou d’un nom de
domaine. Des sites miroirs semblables à des portails de
renom sont créés puis les internautes sont
arrosés au hasard avec un courrier non sollicité
(« spam ») qui reprend
à son tour l'habillage graphique du portail
détourné. Le but du jeu est alors d'attirer un
internaute réellement client du site plagié. Ce
« spam » invite l'internaute
à se rendre sur le faux site pour remettre à jour
certains renseignements personnels dans un questionnaire tout aussi
faux. L'internaute ainsi dupé laisse numéros de
téléphone, de sécurité
sociale, de compte bancaire et parfois de carte de crédit.
Autant d'informations lucratives pour les escrocs en ligne.
La
justice américaine a condamné
dès 1999 la pratique du
« Pagejacking » en s'appuyant sur
le droit du consommateur (qui était induit en
erreur).
Google
« déréférence »
systématiquement les sites qui utilisent ce genre de
pratique de
duplicateur de contenu. Les sites incriminés sont donc
« blacklistés » par
Google mais
heureusement pour les fautifs ceci n’est pas
définitif. Et
s’il suive la politique éthique du Web Marketing,
ils
peuvent revenir dans la course.
En fait, maintenant Google
sanctionne les sites Web à cause des techniques de
référencement utilisées. Avant
l’année 2000, la sanction était
majoritairement due au contenu.
Pour vérifier si un site
est « blacklisté » ou
pour savoir si des liens pointent vers un site, il faut taper dans
Google :
§
site :
nom du site
§
link :
www.nom du site
NetTest n’est pas
« blacklisté » car
Google référence bien les 670 pages du site
NetTest possède 83 liens qui pointent
sur lui, ce qui lui confère un
« PageRank » de 7 sur 10
Quatre moteurs de
recherche moins sensibles à la triche :
§
Google-filter.com
Ce site propose les
mêmes pages de résultats que Google, la
personnalisation en plus. L'internaute, après avoir rempli
un formulaire d'inscription gratuite, peut créer sa propre
liste noire dans laquelle il ajoute au fur et à mesure les
sites qu'il ne juge pas pertinents. Quant à
l'éditeur, il poursuit la chasse aux spammeurs en excluant
d'office cent
douze adresses de
fraudeurs qu'il considère comme nuisibles.
§
Meceoo.fr
Deuxième
outil de recherche le plus utilisé, le moteur de Yahoo
remporte un franc succès. Pourtant, il ne propose pas de
fonction de filtrage des résultats. Une lacune
comblée avec Meceoo. Cette « surcouche
logicielle » permet de créer des listes
noires personnalisées et de rechercher des infos,
à partir d'une sélection de sites
définie au préalable par l'utilisateur.
§
Ujiko.com
Ujiko propose une
panoplie d'outils de personnalisation du moteur de Yahoo, permettant
d'en filtrer les résultats en excluant certains noms de
domaines, des pages Web ou des sites entiers. En outre, l'internaute
peut attribuer des notes aux sites qui l'intéressent.
Mémorisées par Ujiko, celles-ci
détermineront le classement des résultats de
recherches futures.
§
Fooxx.com
La pertinence des résultats de ce moteur n'est pas fondée sur la présence de mots-clés dans une page, mais sur l'appréciation des internautes. Chacun peut recommander des pages aux autres, rendre publics ses favoris, bloquer des pages. A la croisée du forum, de l'annuaire et du moteur de recherche, Fooxx gagnerait à accroître sa communauté pour devenir réellement indispensable.
Il faut absolument créer
un plan du site avec tous les liens existants car les pages
à inscrire dans le moteur seront plus rapidement
indexées puisque le moteur cherche en priorité
les pages où il y a le plus de liens.
Google a d’ailleurs
lancé une campagne visant à optimiser cette
partie des sites Web :
Version bêta de l’interface
« Google Sitemaps »
De plus
l’intérêt de la création
d’un plan de site permet aux sites en Flash
d’être référencés,
car dans la même page, il y aura :
§
Le
côté esthétique en Flash.
§
Le
plan du site en HTML permettant un référencement
par les moteurs.
« Windows
Live : qu’est-ce c’est ?
Windows Live, c’est une idée toute simple : Internet, plus c’est facile à utiliser, mieux c’est pour vous. Avec Windows Live, ce qui vous intéresse quand vous êtes sur Internet (vos amis, les dernières infos, vos e-mails, vos recherches, etc.) est désormais dans un seul endroit. Et cette nouvelle façon de vivre l’Internet, c’est vous qui la contrôlez. Ce n’est qu’un début... Attendez-vous à découvrir beaucoup de nouveaux produits dans les mois à venir. »
Source www.live.com
Avec Live.com, Microsoft souhaite,
d'ici à 2006, fournir des services en ligne aux PME et aux
particuliers, comme l'hébergement de sites Web, la
messagerie ou des applications de gestion ou de bureautique.
Microsoft souhaite ainsi
concurrencer Google sur le terrain de l’interface
personnalisable. C'est-à-dire que l’internaute
retrouvera toutes les fonctions qu’il a grâce au
Web traditionnel mais en plus il aura accès en ligne aux
outils bureautiques Microsoft traditionnels (Word, Excel, Power Point,
etc.). Il aura juste à se connecter à Internet et
dans une fenêtre unique, il aura accès
à tout un univers personnalisable selon ses besoins.
En résumé il
y a quelques actions simples à mettre en place pour
réussir son référencement, son
positionnement et donc augmenter son trafic ciblé :
§
Créer
un contenu de qualité en optimisant la sémantique.
§
Ne
pas utiliser le référencement comme une politique
de « rustine ».
§
Utiliser
des liens qui pointent vers le site
(« webring » et
« backlinks »).
§
Respecter
les règles du Web Marketing Néthique.
§
Améliorer
l’ergonomie en créant des rubriques et
sous-rubriques claires et en ne chargeant pas trop ses pages (moins de
70Ko).
§
Optimiser
le référencement des photos avec les balises
« ALT » et
« longdesc ».
Nous
arrivons à la conclusion suivante :
Le
référencement c’est 30 % de codage, 30 %
de Webmarketing Néthique, 30 % de
sémantique et 10% d’ergonomie. Ainsi,
un bon codage et une aide à la navigation sont le gage
d’un référencement réussi.
Voici quelques
solutions simples pour l’optimisation du
référencement d’un site Web par les moteurs, sur lesquelles
nous avons travaillé avec Didier Favre, Web Master de sites
Web dynamiques (Regard) et spécialiste en
réseaux, serveurs et hébergement.
4.1.
Cas
n°1 : Création d’un nouveau site
Un hébergeur Web limite les coûts en
réalisant du surbooking d’espace disque. Par
exemple Online.net propose 100 Mo pour 30 € par
an à un taux de remplissage de 20% maximum.
En effet un site Web
professionnel et complet dépasse rarement les 20
à 30 Mo. Il
reste de la place libre utilisable pour le
référencement. Le but est de créer un
maximum de leviers en un minimum de temps. Pour les sites
professionnels il faut en plus éviter d’alourdir
le site. Pour cela il ne faut pas ajouter de pages sous l’arborescence de la page
index principale.
Une solution consiste
à ajouter des pages HTML
de photos ayant des informations compréhensibles par les
robots des moteurs de recherche. Ces pages HTML (très simples en code) sont reliées
entre elles sous forme de liens qui réalisent un diaporama
de photos. Ces
pages possèdent toutes un lien vers la page principale ou
une page secondaire que l’on veut pousser.
En
effet, si on achète de l’espace
d’hébergement
pour 100 Mo et que notre site fait 20 Mo, il faut combler avec 80 Mo
« d’autre chose » pour
optimiser son
positionnement. Par exemple, avec un diaporama de photos, mais en
transformant toutes les pages XML en HTML (voir le chapitre
« URL rewriting » dans la section
« Le
référencement dynamique ») et
un bouton
« Home ».
« Home » sera
à chaque fois présent et comme toutes les pages
du
diaporama pointeront toutes vers
« Home » le
référencement sera encore meilleur.
Après
avoir réalisé un diaporama, il suffit
d’avoir des sites amis (sites personnels type Wanadoo, Club-internet, Free,
Cegetel…) qui créent des liens vers une des pages en
fonction d’affinités.
Comme nous l’avons vu
dans le chapitre « spamdexing »,
il existe plusieurs sortes de redirections plus ou moins
« néthiques ». Dans
les exemples ci-dessous, nous aborderons deux utilisations,
l’une bonne, l’autre pernicieuse.
Didier Favre avait juste une photo de lui sur une page intitulée
« Didier à cheval »
qui a fini par
être bien référencée pour on
ne sait quelle
raison.
Au même moment, son ami
qui avait un site associatif sur le cheval en Corse assez bien
référencé (note de 6 sur 10) a voulu
changer de nom de domaine et il a effacé son ancien site. Du
jour au lendemain son référencement a
chuté, il était mal
référencé.
La
solution que nous avons trouvée est la suivante :
nous
avons copié le contenu de la page de son ami dans son unique
(mais bien référencée) page
« Didier
à cheval » (pour augmenter le
référencement du contenu) et inversé
le nom des
pages.
Que ce soit des pages
de photos ou une URL particulière, il faut
laisser du temps aux robots des moteurs de recherche de prendre en compte le site. Puis il faut modifier
une ou plusieurs pages de sa nébuleuse de sites (c'est-à-dire
les sites qui pointent sur nous et vers qui on pointe) en ajoutant des
mots utiles en fonction de ce que l’on souhaite sur le site
principal.
Deux autres méthodes,
dont nous avons déjà parlé (le
« cloaking » et les pages
satellites), sont beaucoup moins orthodoxes. Nous les avons
illustrées plus loin dans un exemple qui les combine toutes
deux de façon très efficace.
§
Le
« cloaking » : quand un
robot vient scanner une page Web, on peut mettre un mouchard,
c’est-à-dire un bout de code qui repère
le robot et le redirige vers la page
« cloakée »,
c'est-à-dire la page optimisée pour le robot,
permettant un très bon référencement
de cette page (en général le
« spammer » aura copié
le code de la page d’un concurrent qui était lui
très bien
« ranké »).
L’internaute lambda, lui, visionne une page non
optimisée. Ici c’est le robot qui est
dupé.
§
Les
pages satellites : technique qui consiste à
rediriger une page x vers une page y de façon rapide et
invisible à l’œil de
l’internaute. La page x qui devrait correspondre à
un contenu demandé (après qu’un
mot-clé ait été tapé dans
un outil de recherche par un internaute) est redirigée vers
une page correspondant à un contenu que l’on veut
pousser.
Prenons un exemple.
Nous savons que les termes
« jolie blonde » sont fortement
demandés dans Google. On peut penser que les internautes
tapant « jolie blonde » veulent
accéder à des photos de charme et que ce sont
majoritairement des hommes.
De notre côté,
nous voulons utiliser l’énorme trafic que
génère l’expression
« jolie blonde », pour attirer le
maximum d’internautes sur un site ayant attrait à
un nouveau produit pour homme qui permet de diminuer la calvitie.
En
fait, tout dépend du tempo de la redirection,
c’est-à-dire en combien de temps on va passer de
la page
d’accueil « jolie
blonde » à la page
d’accueil « produit pour la
calvitie ». Il
faut que cette redirection soit quasi instantanée (question
de
programmation) pour que l’internaute n’y voie que
du feu.
Cependant, même si la redirection est rapide, Google, va
quand
même référencer la page
« jolie
blonde » en croyant qu’elle est pertinente
(donc le
moteur va bien la « ranker » car
elle aura de
surcroît un lien qui pointera en permanence sur elle). En
conclusion ici, le moteur et l’internaute sont
dupés.
On peut aller plus
loin. Il suffit d’aller sur un site gratuit (avec publicité) comme www.ulimit.com/fr et
prendre des URL un peu spéciales mais qui reprennent le nom
du site principal ou d’un produit du site principal.
Voila un exemple de
site qui reprend le nom d’un produit : www.zettae2e.fr.vu.
Le produit est Zettae2e et il appartient à NetTest
mais Google aura du mal
à discerner la véritable possession du nom entre
NetTest et celui
qui possède cette URL exotique si le site est mieux
écrit. Attention ceci est à la
limite du spamdexing et représente juste un exercice
d’entraînement.
Le 11 août 2005, notre
principal concurrent, la société japonaise
Anritsu rachetait NetTest. La phase d’intégration
des produits et ressources durant cent jours, nous saurons le 15
novembre ce qu’il advient de NetTest.
Cependant, intéressons
nous au site Web. Il a été
décidé par l’équipe
d’intégration Marketing que chaque site pointerait
vers l’autre, c’est un bon début.
Mais apparaît soudain
l’enjeu crucial du positionnement des noms de produits mais
aussi du nom de la marque.
Par exemple, le produit NetTest CMA
5000 est bien référencé sur
NetTest.com, mais CMA 5000 sur Anritsu.com ne l’est pas.
C’est bien la stratégie et
l’organisation de l’entreprise qui doivent
être adaptée et le Web cristallise cette
nécessité d’adaptation et
d’évolution.
La solution la plus probable est
que le site NetTest ne sera pas détruit mais par exemple,
chaque page devra être redirigée pendant un long
moment (ce sera une redirection invisible pour ne pas troubler
l’internaute). L’ancienne page
« CMA 5000 NetTest » sera donc
redirigée vers une nouvelle page « CMA
5000 Anritsu ». A partir de là, Google
comprendra et pourra continuer son indexation sans rupture.
Prenons l’exemple du site
www.exeau.fr qui propose toute une
série de produits de traitement de l’eau. Il
comprend essentiellement un catalogue de photos et nous savons que les
photos ne sont pas référençables par
les moteurs de recherche. Il
reste donc à
savoir comment réaliser rapidement des pages Web pertinentes pour les robots
à partir de ces photos.
La solution consiste
à avoir un logiciel qui génère
automatiquement des pages HTML
(logiciel freeware Regard de Didier Favre) en ajoutant ce qu’il faut
dans chaque page HTML
pour le référencement des
photos (balises « ALT et
« TITLE ». Voici un exemple de diaporama
généré automatiquement et avec un code
source en phase avec les attentes des robots :
Page produit en mode diaporama automatique
Chaque page assure un
lien vers la page principale du site et l’ensemble des autres
photos, via une page de miniatures.
On va sur une page produit
où l’on voit une photo puis il faut
cliquer sur l’icône « diaporama
automatique ». On regarde le code source et
là on voit bien que chaque nouvelle page avec une photo,
pointe sur une autre page avec une autre photo. Nous obtenons donc un
nombre de liens assez importants et le
référencement sera donc meilleur.
Bien sûr, « le référencement
c’est facile et l’on connaissait
déjà tout »
(dixit certains adeptes du
« bricolage » sur le Web). Mais si l’on veut gagner des clients
grâce au Webmarketing, une démarche
professionnelle s’impose. Il
faut passer du
temps à vérifier chaque mois sa position sur les
moteurs en fonction des mots-clés
et retoucher régulièrement ses pages en
s’aidant des autres sites.
C’est pourquoi selon
nous, le Web Marketing
c’est de la peinture impressionniste.
Ainsi, après analyse des
discussions menées avec les différents
interlocuteurs cités dans ce document, la conclusion tient
en plusieurs temps :
§
Les
conséquences de toutes ces avancées
technologiques et comportementales sur le Web tendent à
confirmer que le levier du Web Marketing, c’est le
référencement mais le
référencement naturel.
Bien sûr il existe des
outils de promotion comme dans le marketing traditionnel mais ces
outils ne servent à rien si les entreprises ne comprennent
pas l’enjeu du positionnement et de la
différenciation grâce à une plus grande
visibilité sur le Web.
§
Les
discours sur le référencement se font de plus en
plus véhéments et contradictoires,
d’une part nous avons les agences qui proposent aux
entreprises de concevoir du site Web jusqu’à la
campagne Web ; d’autre part, nous avons les experts
en référencement naturel qui luttent pour faire
comprendre aux dirigeants qu’il ne suffit pas de payer des
mille et des cents pour que leur Web Marketing soit efficace.
§
La
fugacité et la relativité des
résultats obtenus (un bon
référencement n'est que provisoire) font du
référencement une discipline un peu
ésotérique qui laisse souvent sceptique le
non-initié. Le but du référencement ce
n’est pas d’arriver à positionner son
site en premier sur un moteur de recherche mais c’est de
générer du trafic ciblé sur ce site.
§
La
clé de voûte d’un positionnement
réussi c’est une politique
d’échanges de liens pertinents et en bonne
adéquation entre la cible et le contenu.
§
Le
Web interactif devient un développement incontournable pour
les entreprises informatiques. Le Web Marketing et les sujets
associés (référencement, contenu,
interactivité) sont fondamentaux pour la survie des
entreprises sur des marchés où les clients vont
chercher leur bonheur quotidien sur les moteurs de recherche (Google
est souvent la page de démarrage du navigateur).
Ainsi, les tendances lourdes comme
le C2C, les sites hybrides, le référencement XML,
la « Long Tail » et le Web
Marketing Néthique rendent la tâche de plus en
plus difficile au sein des organisations qui sont obligées
de revoir aussi bien leur stratégie que leur organisation.
En effet le Web Marketing impacte leur chaîne de la valeur de
façon irrémédiable. Les
sociétés qui ne le comprendront pas rapidement se
verront distancer de loin par leurs concurrents, eux, plus
réactifs.
NetTest
est l'un des principaux fournisseurs d'instruments de test et mesure et
de solutions de surveillance de réseau, conçus
pour permettre aux principaux opérateurs de
télécommunication et aux plus grandes entreprises
internationales d'accroître leur profit. NetTest propose
à ses clients des solutions offrant une analyse pointue des
fonctions et des performances de leurs réseaux. Bien
informés, ceux-ci peuvent ainsi prendre les
décisions propres à améliorer la
qualité de service de leurs réseaux,
réduire leurs investissements en infrastructure, et par
là même, accroître leur
rentabilité.
Forum
Trafic offre aux entreprises une solution unique pour
améliorer la productivité et la
profitabilité de leur chaîne logistique. Les
bénéfices qui en résultent sont
généralement suffisants pour couvrir
l’investissement dans la solution Forum Trafic en moins de
six mois. Cette augmentation de la profitabilité est
apportée par :
§
Une
forte réduction des coûts liée
à l’augmentation de la productivité des
équipes en charge de la gestion des chaînes
logistiques étendues.
§
Des
décisions de meilleure qualité pour le management
grâce à une vision globale et en temps
réel des flux interentreprises.
La
solution Forum Trafic permet de réaliser des
économies à toutes les étapes de la
chaîne logistique et ce pour des investissements initiaux
très limités.
NetTest.com
Keyword analysis, comments and definitions
Made by:
Notabene.net A/S
Rasmus Sørensen
Date:
24. November 2004
Contents
We have now finished the analysis of keywords
for www.nettest.com. The analyzed
data and following findings can be found in the enclosed
Excel-document. We have combined inputs from you, the content on the
site and data from our own keyword databases.
The document
includes 3 columns;
Keyword:
The analyzed keyword/phrase
Searches:
Number of projected searches performed on Google
Competition: The
number of pages returned on the search at Google
The analysis shows a large number of keywords
that have been search for in a month on the Google search engine. It
also shows a number of words and phrases that might be relevant for
NetTest, but haven’t been searched in the period.
This data gives us a good indication of which
keywords and phrases that are being searched for. E.g. The demand for
these words.
However, we have also analyzed the number of
returning pages on Google for a search for the keyword. This gives us
an idea of the competition/overall difficulty to rank for these words.
The more pages a search is returning, the more difficult it is to rank
to that word or term.
As a rule of thumb, we say that everything else
being equal, competition below 1-100,000 results is
“do-able”. Everything beyond that is somewhat
difficult and might require harder work.
Key findings
We have sorted the keywords by competition
below 200,000. The keywords are ranked from top till bottom, with the
most attractive first. The keywords will be used to optimize the site
and the content in order to make it rank on these words.
There are a lot of searches going on a lot of
keywords.
A rather large portion of keywords are NOT
being searched for. Note: keywords that have no are almost no searches,
but still are very relevant (product names and numbers etc.) will be
very well suited for PPC campaigns where you only pay for clics
generated on these keywords.
Competition is rather high on most keywords,
but not impossible to rank even on some of the higher competition
words. This is mainly due to nettest.com having a Google PageRank of 6.
Notabene.net
A/S
November,
2004
12
Décembre 2005 : séminaire
référencement Google.
CCIP-Délégation
de Paris propose, en partenariat avec Imitiki, deux
séminaires pour apprendre à optimiser le
référencement de votre site Internet sur Google.
Comment
optimiser son référencement sur Google ? (9h-13h)
Référencement
sur les moteurs de recherche : les pièges à
éviter (14h-18h)
N2H |
Need to Have |
|
|
|
|
||||||
n2H |
nice
to Have |
|
|
|
|
||||||
|
|
|
|
|
|
||||||
|
Automobile |
Aéronautique |
Industrie
légère |
Industrie lourde |
Distribution |
Logistique |
|||||
Réapprovisionnement |
N2H |
N2H |
N2H |
N2H |
N2H |
n2H |
|||||
Distribution
finale |
N2H |
N2H |
n2H |
n2H |
N2H |
N2H |
|||||
Cross
docking |
N2H |
N2H |
N2H |
n2H |
n2H |
n2H |
|||||
Taxation
Transport |
N2H |
n2H |
N2H |
N2H |
N2H |
N2H |
|||||
Overseas |
N2H |
N2H |
N2H |
N2H |
n2H |
N2H |
|||||
Affrètement |
N2H |
n2H |
n2H |
n2H |
N2H |
N2H |
|||||
Sources
personnelles et Le Journal du Net.
Annuaire
Directory
Site Web
se présentant comme un inventaire,
spécialisé dans un domaine ou non, dans lequel
les sites référencés sont
classés par catégorie et accessibles au moyen de
liens hypertextes. Afin de localiser plus rapidement un site ou une
catégorie, les répertoires donnent
accès à un module limité de recherche.
Yahoo est l'exemple type de l'annuaire. Les annuaires sont
alimentés manuellement contrairement aux moteurs qui
indexent les pages Web de façon automatique.
API
Application
Program Interface
Interface de programmation
Langage
ou format de message utilisé par un programme applicatif
pour communiquer avec le système d'exploitation ou un autre
programme de contrôle, comme un système de gestion
de base de données ou un protocole de communication.
Techniquement, les API consistent en des appels de fonction,
accompagnés des paramètres à
communiquer à l'extérieur de l'applicatif.
Balise
Tag
Balise
formée de
caractères spéciaux servant à
repérer des
parties de texte devant recevoir un traitement particulier. Une balise
HTML par exemple est constituée d'une directive sous forme
de
mot-clé (Font, Strong, Table, etc.) encadrée par
les
signes « inférieur
à » (<) et
« supérieur
à » (>), qui permet
de mettre en forme un texte et qui indique au navigateur Web comment
devrait être affiché un document.
Black
list
Liste noire
Liste des
sites bannis par les moteurs de recherche. Ces derniers
décident de bloquer l’apparition d’un
site lors d’une recherche suite à des actions de
référencement définies comme abusives
(par exemple l'utilisation de
« cloaking » ou de pages
satellites). Figurer sur la liste noire d’un moteur a pour
conséquence directe de devenir introuvable via ce moteur.
Blog/Weblog
Un
weblog (mot-valise
anglais issu d'une contraction de Web
et log)
est un site Web
sur lequel une ou plusieurs personnes s'expriment de façon
libre, sur la base d'une certaine périodicité.
Dans son usage francophone comme anglophone, weblog est
fréquemment raccourci en blog et francisé en
blogue.
On
désigne ainsi sous le même nom un journal
intime anonyme, le carnet de bord d'un photographe
ou encore un site d'anecdotes de travail fréquemment mis
à jour. Les raisons de l'élan d'un weblog sont
donc très variées, même quelques hommes
politiques et leurs détracteurs se
côtoient déjà sur ces espaces. Le mot
weblog tient du concept
et est assez vague pour autoriser une foule d'utilisations ;
c'est pourquoi on ne peut pas parler de finalité unique de
la blogosphère.
Cependant,
des communautés de weblogs se créent autour d'une
similitude (même outil de publication, même
situation politique...).
Cloaking
En
anglais, dissimulation. Technique consistant à
présenter aux moteurs de recherche des pages
différentes de celles que l'on affiche pour les internautes.
Généralement, on débarrasse les pages
Web de tous les éléments visuels, très
attractifs pour l'œil, mais totalement inutiles et
plutôt encombrants pour un robot de recherche. Les sites qui
veulent faciliter la tâche aux robots et ainsi obtenir un bon
référencement produiront deux types de page dont
le contenu devrait en théorie être exactement le
même, mise à part le graphisme et la
présentation. Ils devront analyser l'adresse IP du visiteur
pour savoir à qui ils ont affaire et fournir au robot la
page "plus digeste" qui lui est destinée. Attention,
certains éditeurs de moteurs n'apprécient pas cet
exercice et déclassent résolument le site en
guise de représailles.
Cookie
Témoin
Petit
fichier au format Txt enregistré sur le micro-ordinateur
d'un internaute à l'occasion de sa visite sur un site Web.
En principe, ce fichier est utilisé pour permettre de
reconnaître l'internaute (en réalité
son ordinateur) à l'occasion de la consultation d'autres
pages Web ou d'une nouvelle visite sur le site. Les cookies sont
parfois utilisés par les éditeurs de solutions de
mesure de trafic de type site-centric pour connaître le
nombre de machines différentes qui ont visité le
site sur une période donnée. Ils permettent aussi
d'éviter à l'internaute d'avoir à
s'identifier chaque fois qu'il visite un site pour accéder
à des services qui nécessitent une inscription
préalable.
Cybersquatting
Pratique
abusive consistant à enregistrer un nom de domaine Internet
dans l'unique but de le revendre à profit. La technique est
extrêmement juteuse lorsque l'on dépose le nom
d'une marque connue, qui devra débourser des sommes
considérables pour le récupérer. Une
des transactions les plus spectaculaires a porté sur le nom
de domaine wallstreet.com, enregistré en 1994 pour 70
dollars et vendu un million, cinq ans plus tard. Certaines personnes
ont déposé des quantités
considérables de noms communs et de combinaisons de ces noms
dans le but de faire fortune un jour. En août 1999, le
gouvernement américain a pris une mesure de protection
contre cette pratique avec l’Anti-Cybersquatting Consumer
Protection Act. Les détenteurs de marques peuvent exiger
jusqu'à 100 000 dollars de dommages et
intérêts de la part des cybersquatters qui ont
enregistré leur marque déposée ou un
nom s'en rapprochant comme nom de domaine.
DHTML
Dynamic
Hyper Text Mark-up Language
Version
avancée du langage HTML, incluant des
éléments interactifs
réalisés à l'aide de langages de
scripts tels que Javascript.
Un site
Web dynamique est un site Web
dont les pages peuvent être
générées dynamiquement ou à
la demande. On parle aussi par opposition de site Web statique.
Le
contenu peut être obtenu en combinant un langage de scripts
et une base de données. Dans le monde des logiciels
libres, il s'agit souvent de PHP
et MySQL.
Il existe aussi des solutions propriétaires, par exemple
celle de Microsoft,
avec ASP
et Access.
La
présentation peut être changée et les
pages adopteront alors instantanément la nouvelle apparence.
Il y a
une troisième notion de logique. À l'aide d'un langage de
programmation, le webmaster
peut automatiser certaines tâches ou proposer une application
Web comme un album-photo ou un forum de
discussion.
Cette
séparation contenu/présentation/logique est le
credo des développements actuels.
Les
avantages sont donc loin d'être négligeables.
Mais les
sites Web statiques n'ont pas dit leur dernier mot. D'une part ils sont
plus simples à créer pour les personnes sans
connaissance technique suffisante et d'autre part, les hébergeurs
Web ne proposent pas toujours la
possibilité de faire un site dynamique.
Certains
hébergeurs comme Free,
proposent de créer un site dynamique (Avec PHP/MySQL)
mais bloquent certaines fonctionnalités, comme la fonction
mail.
Electronic Business
e-business
Affaires
électroniques
Mode de
fonctionnement qui consiste à transformer les principaux
processus commerciaux d'une entreprise, en y intégrant les
technologies Internet et leurs différents apports en
matière de relation clientèle ou de flux
logistique. Terme popularisé par de nombreuses campagnes de
publicité de IBM.
Extranet
Extranet
Réseau
informatique à caractère commercial,
constitué des intranets de plusieurs entreprises qui
communiquent entre elles, à travers le réseau
Internet, au moyen d'un serveur Web sécurisé. Par
extension, désigne plus généralement
les sites à accès sécurisé
permettant à une entreprise de n'autoriser sa consultation
qu'à certaines catégories d'intervenants
externes, ses clients ou ses fournisseurs en
général.
FQDN
Fully-qualified
domain name
Nom de
domaine présentant sa construction hiérarchique
depuis la racine du système et qui permet d'identifier avec
précision un ordinateur branché à
Internet.
Folksonomies
Le
terme "Folksonomy", inventé par Thomas Vander Wal, provient
de "Folks" (les gens) et "Taxonomy" (règles de
classification) et signifie "classification par les gens".
Dans
le Web Interactif traditionnel, le
webmaster impose des règles de trie de la base de
données. En surfant de page en page l’utilisateur est
obligé de suivre la logique qui est liée à la classification des
informations. Le besoin est d’avoir plus de souplesse en
imaginant que les utilisateurs veulent avoir leur propre
idée sur le classement.
Le
principe des folksonomies correspond à une action possible
des utilisateurs d’un site sur le classement des
données du site, avec pour objectif de faciliter
l'accès au contenu puisque ce sont les utilisateurs qui le
caractérisent.
ICANN
Internet
Corporation for Assigned Names and Numbers
Association
internationale à but non lucratif, fondée en 1998
siégeant aux Etats-Unis. A succédé
à l'IANA (International Assigned Numbers Authority). L'ICANN
gère les adresses Internet, les noms de domaine et les
paramètres associés aux protocoles Internet
(numéros de ports, routage, etc.). De plus, l' ICANN tient
à jour, avec Network Solutions, une liste d'organismes
agréés pour l'enregistrement et la mise
à jour des noms de sites.
IAB
Interactive
Advertising Bureau
L'IAB
(Interactive Advertising Bureau) est une association
créée en 1998 dont la mission est triple :
-
structurer le marché de la communication sur Internet ;
- favoriser son usage ;
- optimiser son efficacité.
L'IAB est
d'une part, au service des annonceurs et de leurs agences conseil pour
les aider à intégrer Internet efficacement dans
leur stratégie de marketing globale et, d'autre part, entend
proposer des standards, des exemples de pratiques professionnelles aux
nouveaux acteurs intégrant le marché des
média sur Internet.
L'IAB,
c'est par ailleurs un réseau d'experts au service des autres
organisations professionnelles, des institutions et des
média qui s'interrogent sur l'impact du
développement de cette nouvelle donne économique.
Intranet
Intranet
Site
réservé, en général aux
collaborateurs d'une même entreprise. Ce réseau
privé, fonctionnant sur le modèle Internet (en
particulier en ce qui concerne les protocoles d'échange de
données) permet de regrouper des ressources et de les mettre
en commun : informations, services, procédures, outils, etc.
IP address
Chaque
équipement, serveur ou poste client connecté au
réseau doit avoir une adresse IP unique. A l'origine,
l'organisme IANA (Internet Assigned Numbers Authority) était
chargé d'attribuer ces adresses. Il a
été remplacé par l'ICANN (Internet
Corporation for Assigned Names and Numbers).
Java
Langage de
programmation développé par Sun,
inspiré de C++. Fonctionnant sur le principe machine
virtuelle, il peut s'adapter à n'importe quel ordinateur.
Les programmes Java peuvent être appelés depuis
des documents HTML ou de manière autonome. Lorsqu'ils
s'exécutent à partir d'une page Web, on les
appelle des applets Java. Lorsqu'ils s'exécutent sur un
serveur Web, on les dénomme servlet.
Javascript
Langage de
rédaction de scripts, destiné aux utilisateurs
non spécialistes, qui permet d'intégrer des
instructions Java préprogrammées dans la
construction d'un document Web. Alors que le langage Java permet aux
programmeurs de créer de nouveaux objets et des
mini-applications, le langage JavaScript permet aux concepteurs de
pages Web de fusionner des applets ou de les programmer de
façon personnalisée, sans avoir à
manipuler de code Java. Le langage JavaScript, qui est
lui-même une application écrite en langage Java, a
été développé par Sun et
Netscape, originellement sous le nom de LiveScript.
LCEN
La Loi
pour la Confiance dans l’Economie Numérique a
été votée le 21 juin 2004
après deux lectures à
l’Assemblée Nationale et au Sénat et un
recours auprès du Conseil Constitutionnel. Très
attendue par tous les acteurs professionnels et les internautes, cette
loi a pour but de renforcer la confiance dans les échanges
sur Internet en établissant clairement la
responsabilité de chacun des acteurs. A terme, les
internautes doivent être mieux protégés
contre la présence de sites illicites (racistes ou
pédophiles), le démarchage, la
publicité en ligne, et la cybercriminalité dont
ils sont parfois victimes. Le droit des contrats
électroniques (en particulier des commandes en ligne) est
également régi par ce texte. Cette loi transpose
en droit français la directive européenne de juin
2000 sur le commerce électronique. La
responsabilité des intermédiaires techniques a
été clairement définie et plusieurs
jugements ont d’ores et déjà
été rendus en 2004 en s’appuyant sur
cette loi pour exonérer des hébergeurs de
responsabilité vis à vis des contenus. Par
ailleurs, de nombreux sites de vente en ligne mais également
de fourniture de services ont commencé à
appliquer les articles sur le spam en recueillant les consentements des
internautes. Les décrets d’application sont en
cours de rédaction.
Moteur de recherche
Search Engine
Programme
qui indexe de façon automatisée le contenu de
différentes ressources Internet, et plus
particulièrement de sites Web, et qui permet à
l'internaute qui utilise un navigateur Web de rechercher de
l'information selon différents paramètres, en se
servant notamment de mots-clés. Google, Alta Vista,
Infoseek... sont des exemples de moteurs de recherche.
Network Solutions
Société
américaine implantée à Herndon en
Virginie, fondée en 1979 pour exercer du consulting. Elle a
été la première firme
privée à gérer des noms de domaine
Internet, activité qu'elle poursuit à l'heure
actuelle aux côtés de l'ICANN. En 1993, suite aux
accords passés entre AT&T, General Atomic, la
National Science Foundation et la création du projet
InterNIC, Network Solutions a assuré la gestion des noms de
domaine du gouvernement. Au début, la
société fournissait gratuitement ses services
mais a commencé à les faire payer en 1995. En
1998, elle a développé des interfaces de bases de
données destinées à faciliter le
travail de tous les organismes agréés
d'enregistrement et continue à maintenir la base centrale
qu'ils utilisent. Network Solutions a été
achetée par Verisign en 2000.
Occurrence/Indice de densité
Nombre
de fois où un mot apparaît dans un texte. Cette
notion est utilisée pour mesurer l'indice de
densité. Plus le mot apparaît dans le texte d'une
page Web, plus cette page aura de chances de ressortir lors d'une
requête dans un moteur.
Opt-in mailing list
Liste d'inclusion
Liste de diffusion de courrier commercial,
comportant les adresses électroniques de personnes qui ont
clairement exprimé leur volonté de figurer sur
cette liste et de recevoir de la publicité. L'option
permettant la réception de ce type d'informations se
concrétise par une case spécifique
placée dans un formulaire d'inscription, case que
l'internaute doit cocher de lui-même. Opt-in s'oppose
à opt-out.
Opt-in / Opt-out
Manière dont sont collectées
les données personnelles (en particulier des adresses
électroniques) des internautes. On distingue quatre
possibilités d'inscription d'un internaute à une
liste de diffusion. Dans la liste qui suit, la liberté de
choix de l'internaute est de plus en plus réduite. 1/
L'opt-in actif : l'internaute doit volontairement cocher une case ou
faire défiler un menu déroulant pour que son
adresse (ou d'autres données) soient utilisées
ultérieurement à des fins commerciales. 2/
L'opt-in passif : une case est déjà
précochée ou un menu déroulant
déjà positionné sur oui (à
la question voulez-vous recevoir des sollicitations
ultérieures ?). Avec l'opt-in, l'accord de l'internaute est
explicite. 3/ L'opt-out actif : Il faut cocher une case ou
sélectionner un menu déroulant pour ne pas
recevoir de message ultérieurement. On considère
l'accord de l'internaute comme acquis par défaut, comme
implicite. 4/ L'opt-out passif : en s'inscrivant à un
service, l'internaute est automatiquement inscrit à une
liste de diffusion sans qu'il ait la possibilité de changer
cela au moment de l'inscription. La désinscription ne peut
se faire qu'après l'inscription. L'accord de l'internaute
est demandé a posteriori.
PageRank
Système
de classement des pages Web mis au point par les fondateurs de Google.
Chaque lien pointant d’une page à une autre est
considéré comme un vote pour cette page. A cet
indice s’ajoute une "note" selon la page qui contient le lien
: les liens présents dans des pages jugées
importantes par Google ont plus de "poids" et contribuent ainsi
à "élire" d'autres pages. Autrement dit, il
s’agit d’un critère
mathématique qui permet de mesurer la popularité
d'une page sur le Web. Cette note va de 0 à 10, elle est
consultable sur la Google Toolbar.
Permission Marketing
Technique
de marketing dans laquelle on demande à l'internaute son
avis sur les informations promotionnelles qu'on lui fera parvenir.
Plusieurs méthodes peuvent être
employées selon que l'on désire forcer (pas du
tout, un peu, beaucoup) le désir du consommateur potentiel.
Par exemple, à la fin d'une lettre d'information, la case
"Voulez-vous recevoir plus d'informations sur tel produit ?"
pourra être précochée ou non. Quoi
qu'il en soit, le permission marketing, mercatique de la permission en
français, fait de l'internaute un acteur de la consommation
qui accepte ou non que la marque lui envoie de l'information concernant
des sujets qu'il aura déterminés au
préalable. Il ne "subit" plus la publicité comme
un téléspectateur passif qui voit ses
émissions coupées par des spots sur lesquels on
ne lui a jamais demandé son avis.
Portail
Portal
Site qui
se veut une "porte d'entrée" sur le Web mais qui fournit un
très large éventail de services et de contenus
susceptibles de retenir l'internaute. L'offre de base consiste en un
moteur de recherche et/ou un annuaire de sites, mais aussi des
informations venant de sources multiples le plus souvent
agrégées, généralistes ou
thématiques. Le portail est souvent le site par lequel un
internaute entame son "surf". Les grands portails sont l'oeuvre de
moteurs ou d'annuaires (Yahoo, Voila...) ou bien de fournisseurs
d'accès Internet (Wanadoo, Club-Internet...) Le "portail
thématique" joue le même rôle sur un
secteur limité : un portail médical, un portail
high-tech... Le portail d'entreprise est, lui, un Intranet qui donne au
personnel d'une entreprise et éventuellement à
ses partenaires accès, d'une part, à l'ensemble
des données et des informations qui appartiennent
à l'entreprise en question, que ces données
soient structurées (ex. : bases de données
internes) ou non (ex. : documents de traitement de texte), et, d'autre
part, à une série de sites Web ou de portails
verticaux qui se rapportent à la sphère
d'activité de l'entreprise.
Registrar
Responsable des noms de
domaines
Organisme
autorisé servant d'intermédiaire entre
l'opérateur de domaine de tête et les
détenteurs d'un nom de site Web, qui se charge de
l'enregistrement et de la modification des noms de sites dans les
répertoires touchant les domaines de second niveau
utilisés par ses clients. Pour être
agréé, l'organisme responsable des noms de
domaine doit rencontrer les impératifs techniques et
administratifs ainsi que les conditions physiques imposées
par l'opérateur de domaine de tête, de qui il
tient sa licence. En France c'est l'Afnic (Association
Française pour le Nommage Internet en
Coopération) qui supervise l'attribution des noms de domaine
en .fr. Cette association à but non lucratif
régie par la loi du 1er juillet 1901 a
été créée en
décembre 1997 par la volonté conjointe de l'Inria
et de l'Etat représenté par les
ministères chargés des
télécommunications, de l'industrie et de la
recherche.
RSS (ou fil RSS)
Really Simple Syndication
RSS, sigle
de Really Simple Syndication (syndication vraiment simple), ou de Rich
Site Summary (résumé complet d'un site) est un
format de syndication
de contenu Web.
C'est un dialecte
de XML.
Il existe sept formats différents de RSS, ce qui rend
indispensable l'établissement d'une norme.
Il est
à noter que Syndicate, en anglais, est en rapport avec le
journalisme et la vente d'un article à plusieurs journaux.
Mais en fait le standard permet de diffuser toutes sortes
d'information, d'alertes, de mises à jour de listes ou
d'événements. Really Simple Syndication se
rapproche donc d'une diffusion journalistique simplifiée.
Le format
RSS est notamment utilisé pour la diffusion
d'actualités sur Internet.
Exemples :
Actifpub, Blauer Bote,
EspaceNews.com,
Everyfeed,
Feeds2Read,
LaMoooche,
Pretty-RSS,
Retronimo,
YourFeeds
Spam
Pollupostage
Courrier électronique commercial non
sollicité par l'internaute qui le reçoit. Cette
pollution de boîtes aux lettres, pratiquée par les
"spammers" ou spammeurs, arrive en tête des pratiques les
plus critiquées par les internautes. Egalement
appelé au Québec polluriel, contraction de
courriel pollueur. Le terme spamming viendrait de la marque commerciale
Spam, sigle de l'expression anglaise Shoulder of Pork and hAM (viande
en conserve).
Wiki
Logiciel à la fois système de
composition de pages Web, outil de travail collaboratif et espace de
discussion. Il s'exécute sur le serveur et permet aux
utilisateurs de modifier le contenu d'une page Web librement, avec
n'importe quel navigateur. Un Wiki reconnaît les hyperliens
et dispose d'une interface textuelle simple pour créer de
nouvelles pages, les liens se faisant à la volée.
Wiki vient de l'hawaïen "wikiwiki" qui signifie "vite",
"informel".
SEMA7
Search Engine Marketing
Association
SEMA7 est une association qui se fixe pour objectif
de faire progresser le niveau des prestations de
référencement et permettre une meilleure
communication entre professionnels.
SEMA7 est une association
créée en décembre 2003, qui regroupe
20 référenceurs. SEMA7 organise des
dîners discussions tous les premiers mardi du mois. Elle a
mis en place des procédures de médiations pour
régler à l’amiable les litiges autour
des liens sponsorisés et des prestations de
référencement.
Trusted Feed
Technique
de référencement payant sur certains moteurs de
recherche. Elle consiste à alimenter de manière
automatisée des moteurs, une relation de confiance
étant établi entre le moteur et le client qui
soumet des pages à référencer. Cette
technique permet en particulier de référencer du
contenu difficile à indexer de manière naturelle,
tel le contenu des bases de données, les pages maintenues
par des systèmes de gestion de contenu ou les pages
conçues en Flash.
Typosquatting
Le
typosquatting est une forme évoluée du
cybersquatting. Il consiste à déposer un nom de
domaine très proche d'un autre nom de domaine sur lequel
communique une entreprise. Deux objectifs sont poursuivis : 1/ Capter
une partie du trafic du site officiel, en espérant qu'un
certain nombre d'internautes feront une erreur de frappe dans la
fenêtre de leur navigateur ; 2/ Capter des emails
adressés à la société
victime du "piratage". Le procédé est simple : il
suffit, sans faire pointer le nom de domaine vers un site, d'activer
ses serveurs MX et d'indiquer que l'on veut recevoir tous les emails
envoyés à "xxx@[nompiraté]".
W3C
World
Wide Web Consortium
Consortium
W3
Organisme
officiellement chargé de la normalisation de tout ce qui
concerne le Web, et particulièrement des
évolutions du langage HTML. Avant la création du
consortium W3C, c'est un autre organisme, l'IETF (Internet Engineering
Task Force), qui assumait cette responsabilité. Le World
Wide Web Consortium (W3C) a été
créé par Tim Berners Lee, l'inventeur du Web, au
mois d'octobre 1994. Cette organisation regroupait à son
origine, le MIT (Massachusetts Institute of Technology) et le CERN, et
bénéficiait du support de la DARPA (Agence de
recherche de la Défense américaine), et de la
Commission Européenne. L'INRIA et l'université de
Keio au Japon se sont rapidement associés au projet.
Le but du
W3C est de conduire l'évolution technique du Web, en
assurant la promotion de l'interopérabilité.
Concrètement, cela se traduit par le
développement des spécifications techniques des
nouveaux standards. Le W3C a notamment publié les
spécifications des diverses versions du standard HTML, mais
aussi de la norme XML, ou encore du format d'image PNG. Sur le long
terme, le W3C veut assurer l'universalité de
l'accès au Web, garantir une utilisation efficace des
ressources du Web par les utilisateurs, et guider le
développement du Web en considérant les nouveaux
enjeux sociaux, commerciaux et juridiques induits par cette
technologie. Le W3C compte maintenant parmi ses membres des
entreprises, comme France Telecom, IBM, Microsoft, Oracle et bien
d'autres.
Le W3C
vise à rendre un site accessible au plus grand nombre et sur
toutes les plates-formes. Son intérêt dans
l'optimisation n'est pas encore démontré
malgré les tests réalisés. Les sites
W3C ne sont pas mieux référencés
à ce jour, ce qui est triste d'ailleurs. Cela ne doit pas
enlever l'intérêt du W3C qui est aussi de s'ouvrir
au plus grand nombre. Mais là ce n'est plus de
référencement dont on parle.
Webring
Anneau de sites
Système
de navigation en forme de boucle qui relie des sites abordant des
sujets communs et qui permet à l'internaute de passer
facilement de l'un à l'autre. Sur la page d'accueil de ces
sites, un sélecteur permet de passer de site en site en
utilisant des liens hypertextes.