Accueil SEO

De Analyse Développement Hacking
Sauter à la navigation Sauter à la recherche

Glider.png

Le wiki : Accueil - Administrateur - Bureautique - Développeur - Intégrateur - Marketing - Multimédia - Objets numériques - Jeux - We make Hack

Le site : Accueil du site - Annuaire - Blog - Forum - Outils - Utilisateur
Le FTP : Accueil du FTP - Le privatebin : Accueil du privatebin
Le Redmine : Accueil du Redmine

Sommaire

Accueil SEO

Identifier les références qui contiennent notre nom de domaine

Depuis le moteur de recherches Google : link:https://www.visionduweb.fr

Désavouer des liens entrants

En SEO, acquérir des backlinks est essentiel, mais, tous les liens ne se valent pas.
Si les backlinks ne portent pas préjudice à votre site, faut t'il réellement les faire disparaître ?
Un lien en provenance d'un domaine de mauvaise qualité risque d'avantage de pénaliser le site mentionné que de le valoriser.
Consulter la liste de liens existants vers votre site depuis Google Webmaster : https://www.google.com/webmasters/tools/home?hl=fr
Dans le tableau de bord, cliquer sur "Trafic de recherche", puis sur "Liens vers votre site".
L'outil Backlink Audit de SEMrush semble être efficace pour identifier les liens toxiques : https://fr.semrush.com/backlink_audit
Utiliser l'outil de AHREFS pour obtenir un résultat sans avoir à créer de compte : https://ahrefs.com/fr/backlink-checker
Tutoriel officiel de Google : https://support.google.com/webmasters/answer/2648487?hl=fr#
Désavouer des liens doit se faire de manière maîtrisée et uniquement lorsque c'est vraiment nécessaire :
- Vous avez subi une pénalité manuelle ou algorithmique entraînant une dégradation de votre SEO ?
- Vous avez tenté de contacter le Webmaster, en vain ?
Cet outil permet d'assister à la création d'une liste de désaveu auprès de Google : https://outils.axenet.fr/disavow.php
Créer un fichier de liens à désavouer qui sera envoyé à Google avec la liste des liens à désavouer.
Utiliser l'outil officiel de Google pour désavouer des liens : https://www.google.com/webmasters/tools/disavow-links-main
Exemple de message pour désavouer une URL :
Le propriétaire du site "URL du site" a supprimé la plupart des liens suite à une demande de suppression à l'exception des liens suivants :
"URL du site"/contenu/commentaires.html
"URL du site"/contenu/liens-payants.html
J'ai contacté le propriétaire de "URL du site" le 01/01/2020 pour lui demander de supprimer les liens, mais, je n'ai reçu aucune réponse.
domain:"URL du site"/contenu/commentaires.html
domain:"URL du site"/contenu/liens-payants.html
Le délai d'attente pour supprimer des Backlinks peut être de plusieurs semaines.
Google peut refuser de prendre en compte votre demande s'il l'estime illégitime.
Posté également sur le forum de Visionduweb : https://www.visionduweb.fr/forum/developpement-web/165-comment-desavouer-certains-backlinks-crees-vers-mon-site#196

Outils de Référencement et de SEO gratuits

Google My Business

Pour confirmer la création de la fiche gratuite, il est nécessaire de valider les informations relatives à votre établissement.
Ko.png Attirez de nouveaux clients grâce à votre fiche Google gratuite : https://www.google.fr/intl/fr/business/

GHSTools

Liens officiels

Booster votre référencement avec GHSTools : http://www.ghstools.fr
Le forum de GHSTools : http://www.ghstools.fr/forum

Robot-administrateur-systeme.png

Complément

Démarrer avec GHS Tools : http://www.grey-hat-seo.com/manuel-ghs-tools/1-bien-demarrer-avec-ghs-tools (mise a jour le 23/03/2015)
Gestion des identités : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-identitees (mise a jour 07/10/2014)
Gestion des noms de domaine : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-noms-de-domaine (mise a jour 03/11/2016)
Gestion des sites : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-sites (mise a jour le 08/01/2017)
Gestion des mots clés et des positions : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-positions-et-des-mots-cles (mise a jour le 18/12/2015)
Gestion des captchas : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-captchas (mise a jour le 10/06/2015)
Gestion des catchalls : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-catchall (mise a jour le 26/02/2016)
Gestion des comptes Twitter : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-comptes-twitter (mise a jour 24/09/2015)
Création et contrôle de compte Twitter et Twitterfeed : http://www.grey-hat-seo.com/manuel-ghs-tools/creation-et-gestion-des-comptes-twitter (mise a jour 22/09/2014)
Création et contrôle de compte Facebook : http://www.grey-hat-seo.com/manuel-ghs-tools/creation-gestion-comptes-facebook (mise a jour 18/10/2014)
Gestion des plans backlinks : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-plans-backlinks
Gestion des tâches : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-taches
Créer des blogs : http://www.grey-hat-seo.com/manuel-ghs-tools/creer-blogs-automatiquement (mise a jour 20/10/2014)
Gestion des blogs : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-blogs (mise a jour 20/10/2014)
Publier sur les blogs : http://www.grey-hat-seo.com/manuel-ghs-tools/publier-articles-les-blogs (mise a jour 20/10/2014)
Créer des autoblogs avec des flux RSS : http://www.grey-hat-seo.com/manuel-ghs-tools/creer-autoblogs-rss (mise a jour 20/10/2014)
Planifier des publications : http://www.grey-hat-seo.com/manuel-ghs-tools/planification-des-publications-sur-les-blogs-forums-et-autres-sites (mise a jour 25/03/2015)
Le tableau de bord : http://www.grey-hat-seo.com/manuel-ghs-tools/dashboard
Importer des annuaires : http://www.grey-hat-seo.com/manuel-ghs-tools/importer-annuaires (mise a jour 15/10/2014)</note-content></text>
Vidéo de présentation de GHSTools : https://youtu.be/FgJvpgIGdpU
Utiliser GHSTools : http://www.ghstools.fr/interface/connexion.php?redirect=http://www.ghstools.fr/interface/contribuer.php
Prise en main de l'outil GHSTools - Le principe du Grey Hat SEO Tools : http://www.grey-hat-seo.com/principe-grey-hat-seo-tools
Tous les tutoriels pour GHSTools : http://ghstools.fr/forum/viewtopic.php?f=36&t=660
Ajouter des tutoriels sur le Blog de grey-hat-seo.com : http://www.grey-hat-seo.com/manuel-ghs-tools/aider-a-completer-animer-blog-forum
Gestion des catchall : http://www.grey-hat-seo.com/manuel-ghs-tools/gestion-des-catchall
Installer l'extension de GHSTools pour chrome : https://chrome.google.com/webstore/detail/ghs-tools-extension/ilighcklmpifhlkkmmogapkfknnpimdl?hl=fr
Télécharger le code source de l'extension : Fichier:Source-extension-chrome-ghstools.zip
Trouver des plans Backlink : http://referencement-progressif.com
Aider à déterminer la langue des plans backlink : http://www.grey-hat-seo.com/manuel-ghs-tools/nous-aider-a-determiner-la-langue-des-plans-backlink

API Scraper GHSTools

L'API pour scraper le HTML d'un site :
Appelez cette url en changeant l'url de fin de chaîne :
http://www.analyse-referencement.fr/api_html_site.html?url=http://www.ghstools.fr
L'API pour scraper le HTML des SERPs Google :
Appelez cette url en changeant le mot de fin de chaîne
Vérifier le bon fonctionnement de cette API...
http://www.analyse-referencement.fr/api_serp_google.html?key=référencement
Site officiel : www.analyse-referencement.fr/settings.html

Gtmetrix

Site officiel : https://gtmetrix.com
Traitement des points abordés : https://kinsta.com/fr/blog/test-vitesse-gtmetrix/

Webrankinfo

Créer et utiliser un bookmarklet : http://www.webrankinfo.com/dossiers/outils/bookmarklets
De nombreux tutoriels spécialisés : http://www.webrankinfo.com/dossiers/outils
Site officiel : http://www.webrankinfo.com

Yooda

Site officiel : https://www.yooda.com
Blog : http://blog.yooda.com
Statistiques Yooda à l'aide de son compte utilisateur : https://insight.yooda.com

Majestic

# Explorateur des liens entre les domaines.
Site officiel : https://fr.majestic.com
Le robot de Majestic mj12bot : https://mj12bot.com

SEO Tools pour Excel

Source : http://seotoolsforexcel.com
Source : https://seotoolsforexcel.com/connectors/

Quicksprout

Source : https://www.quicksprout.com

Website Penality Indicator

Todo.png

Source : https://feinternational.com/website-penalty-indicator/

Answer the public

Todo.png

Source : http://answerthepublic.com

Broken Link Check

Todo.png

Source : http://www.brokenlinkcheck.com

Check My Link extension pour Chrome

Todo.png

Source : https://chrome.google.com/webstore/detail/check-my-links/ojkcdipcgfaekbeaelaapakgnjflfglf?hl=en-GB

Email auto extractor

Source : https://chrome.google.com/webstore/detail/email-auto-extractor/blkpobilpealkkcibgcgfmflneafkkah

Extracteur de liens

Support du web propose un extracteur de liens pour vérifier les liens interne et externe d'une page web.
Site officiel : http://www.supportduweb.com/extracteur-liens-recuperer-liens-internes-externes-referencement.html

Campagne de mail avec Google Sheets et Gmail

Todo.png

Source : https://chrome.google.com/webstore/detail/yet-another-mail-merge/mgmgmhkohaenhokbdnlpcljckbhpbmef

MobiReady

Un outil gratuit pour les développeurs, les concepteurs et les spécialistes du marketing pour tester les performances des sites Web sur les appareils mobiles.
Site officiel : https://ready.mobi/#914150-tipf

Similar Content Prospecting Tool

Todo.png

Source : https://skyrocket.digital/tools/similar-content-prospecting-tool/

Screamingfrog

Screaming Frog s'installe sur un ordinateur puis parcourt les sites un peu comme le feraient les robots de Google.
Il fait remonter des informations très utiles pour le SEO, comme les balises Title, les meta descriptions, les codes de réponses HTTP y compris les 404 et les 301.
L'outil est bien connu car il peut crawler gratuitement 500 URL.
La version payante coûte environ 150 euros par an.
Source : https://www.screamingfrog.co.uk/seo-spider/
Source : http://consultant-seo.eu/outils/screaming-frog/
Si il s'agit simplement d'identifier les liens morts qui retournent une erreur 404, le site en ligne Brokenlinkcheck permet un scann de site illimité :
https://www.brokenlinkcheck.com/broken-links.php#status

Gephi

tar -zvxf gephi-0.9.2-linux.tar.gz
cd gephi-0.9.2/
ls
cd bin
/home/seo/gephi-0.9.2/bin# ./gephi
libEGL warning: DRI2: failed to authenticate
Source : https://gephi.org
Pourquoi et comment utiliser Gephi en SEO ?
Source : www.seomix.fr/pourquoi-comment-utiliser-gephi-seo/
Si java manque, installer Java sur Linux.
Télécharger le paquet tar.gz depuis le site officiel de Java.
Décompresser dans le dossier /gephi-0.9.2/bin/
Lancer Gephi en indiquant le paquet de Java ajouté dans le dossier /gephi-0.9.2/bin/ : ./gephi --jdkhome jre

Extraire les données d'un site avec Javascript

Todo.png

Source : http://blog.cremedelacreme.io/2017/02/07/donnees-site-code-javascript-digital/

Importer du contenu et des images

Todo.png

Source : https://www.import.io

Ouvrir plusieurs URL en une fois

Un outil en ligne : https://www.websiteplanet.com/fr/webtools/multiple-url/
Un outil en ligne : https://www.10bestseo.com/url-opener/
Un outil en ligne : https://www.openmultipleurl.com

Google Analytics

Introduction à Google Analytics

Tuto Google Analytics débutants 2019 en français : https://www.bruno-guyot.com/google-analytics-tuto-debutant.php

SeeTheStats

Partager les statistiques de Google Analytics sur son site internet avec SeeTheStats.
Site officiel : https://www.seethestats.com

Scrapebox

Logiciel payant pour optimiser votre SE0.
Le site officiel : http://www.scrapebox.com
Quelques tutoriels : www.papilouve.com/tuto-scrapebox-soft-seo-black-hat/
Quelques vidéos : http://www.jeromeweb.net/seo/2826-tutos-scrapebox-logiciel-seo
La liste des footprints est triée par type de CMS : www.seoxis.com/scrapebox-liste-de-119-footprints-page-scanner/

Seo-systeme

SEO Systeme vous propose un audit gratuit pour votre site internet basé sur le logiciel SEO Myrankingmetrics (https://myrankingmetrics.com).
Site officiel : https://www.seo-systeme.fr - https://www.helperiance.fr
Contacter SEO Systeme pour en savoir d'avantage.

Statistiques de fréquentation

CrawlTrack

CrawlTrack est un logiciel libre et gratuit de statistique d'audience d'un site Web
Ce script s'installe sur son propre serveur, les données restant donc sous le contrôle du Webmaster. Plusieurs sites peuvent être audités à partir d'une seule installation de CrawlTrack. Le tag utilisé est en php et ne laisse aucune trace visible dans le code source (et donc sur les pages du site). Le script est disponible en français, anglais, espagnol, allemand, néerlandais et turc.
Source : fr.wikipedia.org/wiki/CrawlTrack

Outils de Référencement et de SEO payants

Alexa

Outil de positionnement mondiale.
Site officiel : https://www.alexa.com

Moz

Outil d'analyse SEO payant.
Site officiel : https://moz.com/link-explorer/

Semrush

# SEMRush est un service d'analyse concurrentielle, incontournable pour les experts en référencement et SEO.
# Semrush est un outil payant qui nécessite un compte utilisateur.
Site officiel : https://fr.semrush.com
# Le premier abonnement proposé est la version Pro, 7 jours gratuits, puis 99,95 $/mois.
# Il sera indispensable de saisir ses coordonnées de carte bancaire pour créer un compte utilisateur et profiter de l'offre 7 jours gratuits : https://fr.semrush.com/signup/?src=lp-sem-fr&trial=force
# Si la carte bancaire n'est pas saisie, Semrush permettra tout de même d'obtenir quelques informations rudimentaires.

Connaître le nombre de Backlinks

Urltrends

https://www.urltrends.com
Pour visionduweb.eu
Pages Indexed → 1,870
Back Links → 21,900
Actuellement ne fonctionne plus pour Visionduweb .com .eu .fr

Monitorbacklinks

https://checker.monitorbacklinks.com/seo-tools/free-backlink-checker/visionduweb.eu

Analyser les erreurs d'un site

SEO Site Checkup

Source : https://seositecheckup.com

Analyser les liens brisés

Liens morts - Liens brisés - Linkchecker.
Source du projet Linkchecker : wummel.github.io/linkchecker/

Outils en ligne

http://www.brokenlinkcheck.com/broken-links.php
http://validator.w3.org/checklink
https://www.deadlinkchecker.com
https://www.drlinkcheck.com

Outils

SEO - SiteSpy.
SEO - Content Spinning.
SEO - Optimiser les fichiers - Optimiser les articles et les mots clés.

Méthodes

Scraping Spinning Morphing

Ok-ko.png Automatiser la présence d'un site avec des robots et le Scraping - Spinning - Morphing : http://t0ni0.blogspot.fr/2011/02/scraping-spinning-morphing.html

Obfuscation

Ok-ko.png L'obfuscation permet par exemple de ne pas valoriser certains liens externes : https://www.410-gone.fr/seo/optimisation-on-site/maillage-interne/cocon-semantique/obfuscation.html

Black Hat SEO

Le Black Hat SEO est une stratégie de référencement naturel (SEO) qui permet d’optimiser un contenu pour les moteurs de recherche dans le but de les placer en 1ère position sur la SERP de Google.
Le but est d’obtenir un meilleur positionnement sans respecter les normes et les recommandations des moteurs de recherche.
L’expression s’oppose à la notion de White Hat SEO.

User agent cloaking

Technique permettant d’afficher sur une même page un contenu pour les moteurs de recherche (Sur-optimisé en mots-clés par exemple.) ou un contenu pour les internautes humains (Plus agréable à lire.).
Il suffit d’identifier le robot grâce à sa signature User Agent.

Contenus cachés

Le contenu caché pour les internautes est visible pour les robots.
Ils lisent dans le HTML et le CSS les textes sur fond de même couleur, texte derrière une image, police de 0, lien sur des caractères invisibles...

Keyword stuffing

Accumulation de mots clés.

Contenu détourné et Duplicate content

Le contenu provient de plusieurs sources.
Le contenu est copié d’un autre site internet.
Tester si vos pages contiennent du contenu dupliqué avec CopyScape : https://www.copyscape.com/duplicate-content/

Redirections trompeuses

Redirections trompeuses grâce à l’utilisation de pages satellites.

Achat de liens dofollow ou échange de liens excessifs

.

Pirater un autre site web pour utiliser sa notoriété, son trafic

.

Autres techniques Black SEO

Attribut nofollow, Background spoofing, Captcha breaking, Content spinning, DMCA Google, Ferme de liens, NDD expiré, Negative SEO, Netlinking black hat, NSEO, Obfuscation de lien, PBN, Plateforme d’achat de liens, Référencement négatif, Réseau de blogs privés, Réseau de sites, Scraping de contenu, Spam de commentaires, Splog, Spun, Taux de similarité, Vente de liens ou backlinks

Conséquences

Le Black Hat SEO fonctionne ! Cela veut dire plus de trafic !
D'autres sites légitimes avec des réponses plus pertinentes ne seront plus dans les premiers résultats de la SERP.
Avec la mise en place de techniques SEO peu éthiques, un site web va progresser rapidement sur les premiers résultats de la SERP et donc en visibilité.
Cependant, cette position ne sera pas pérenne. Les moteurs de recherche ne référenceront plus votre site internet. Votre site web n’aura plus aucun intérêt.

Les moteurs de recherche luttent contre les Black Hats SEO

Les algorithmes comme Google Panda et Google Penguin servent à identifier le contenu légitime d'un contenu Black Hat.
Google Panda : http://www.penalites-referencement.com/google-panda/
Google Penguin : http://www.penalites-referencement.com/google-pingouin/

White Hat SEO

Le White Hat SEO est une stratégie digitale qui apporte des résultats sur le long terme.
Optimiser le référencement d’un site internet prend du temps.
Les recommandations de Google mettent en avant des critères essentiels pour un bon référencement : balise meta title, balise meta description, rédaction web, optimisation sémantique, content marketing, SMO, outils de référencement, temps de chargement...

Les balises meta

SEO - Liste des balises META.

Indexation avec les robots

Un duo pour optimiser votre indexation

Fonctionnement d'un moteur de recherche

Un moteur de recherche utilise un grand nombre de serveurs appelés robots, crawlers ou spiders.
Ils sont chargés de parcourir la toile pour suivre les liens des millions de pages Web et indexent le contenu dans de gigantesques bases de données.
Aucun moteur de recherche ne peut parcourir la totalité des pages présentes sur internet en une journée.
Ce processus prend généralement plusieurs semaines. Chaque moteur adopte une stratégie pour déterminer la fréquence de la mise à jour des contenus.
Une fois que les robots auront indexés le contenu de votre site, une recherche sur un moteur retournera une liste de liens vers différents contenu dont celui de vos pages.
Cette proposition de résultats est appelée SERP pour Search Engine Result Pages en anglais et présente une liste de liens adaptés aux mots clés de votre recherche.

Utiliser la balise meta name robots avec le fichier robots.txt

Le 30 juin 1994 naissait le fichier robots.txt, un fichier texte au format ASCII écrit par convention en minuscules et au pluriel.
Il se trouve à la racine du site et est utilisé pour exclure certains contenus lors de l'indexation par les robots de référencement de sites web.
De nombreux outils de référencement ont besoin du fichier robots.txt pour accélérer les traitements des pages qui peuvent ou ne peuvent pas être indexées.
Pour autoriser un contenu a être indexé.
Pour éviter l'indexation de pages, d'images, de contenu en double.
Pour supprimer l'indexation d'une page avec une balise meta name robots.
Pour supprimer l'indexation des copies et des extraits mis en cache avec une balise meta name robots.
Pour supprimer l'indexation sur un site web entier ou une partie d'un site web avec une balise meta name robots.

La balise meta name robots

La balise meta name robots peut permettre de bloquer l'indexation de contenu.
Vous ne pouvez le faire que pour les urls et pas pour les répertoires.
Index = indexation
follow = suivre les liens du contenu
No follow = ne pas suivre les liens du contenu
No index = ne pas indexer
Si le site est en construction, il est préférable de bloquer immédiatement et totalement toute indexation du site web par les moteurs de recherche.
Ajouter dans chaque page à exclure la balise HTML META : <meta name="robots" content="noindex">
Une fois le site web finalisé depuis plusieurs jours ou semaines et que les pages et les menus fonctionnent, mettre en place le fichier robots.txt

Protéger un contenu de données sensibles

Pour protéger un contenu sensible, les robots ne suffisent pas.
Il est nécessaire de mettre en place d'autres solutions : La protection par mot de passe, le chiffrement des données...

Le fichier ads.txt

Déclarer des vendeurs autorisés afin de protéger votre marque et de bénéficier potentiellement d'une plus grande part des dépenses des annonceurs.
Introduite par l'IAB, l'initiative Authorized Digital Sellers for Web, ou ads.txt, vise à améliorer la transparence dans le domaine de la publicité programmatique. Vous pouvez créer vos propres fichiers ads.txt pour identifier qui est autorisé à vendre votre inventaire. Les fichiers sont accessibles au public, et peuvent être explorés par les responsables de places de marché et de plates-formes côté offre (SSP, Supply-Side Platform), ainsi que par les autres acheteurs et les fournisseurs tiers.
L'initiative Authorized Sellers for Apps, ou app-ads.txt, est une extension de la norme Authorized Digital Sellers. Elle assure la compatibilité avec les annonces diffusées dans les applications mobiles.
Même si l'utilisation des fichiers ads.txt/app-ads.txt n'est pas obligatoire, elle est fortement recommandée. Ces fichiers peuvent vous aider à protéger votre marque contre les inventaires contrefaits qui sont délibérément identifiés comme provenant d'un domaine, d'une application ou d'une vidéo spécifiques. Déclarer des vendeurs autorisés vous permet de bénéficier des dépenses que les annonceurs auraient pu consacrer à des inventaires contrefaits.
Source : https://support.google.com/admanager/answer/7441288?hl=fr
Générer automatiquement le contenu d'un fichier ads.txt/app-ads.txt dans Ad Manager : https://support.google.com/admanager/answer/7544382

Le fichier canary.txt

# Aux USA, un "gag order" est une procédure pour forcer un fournisseur de services à donner des informations sur ses utilisateurs, avec une clause de non-divulgation.
# Les fournisseurs de services n'ont pas le droit de révéler qu'ils en ont reçu un, sous peine de poursuite criminelles.
# L'hébergeur rsync.net pourrait tout à fait en recevoir un, alors, ils ont imaginé le stratagème suivant :
# Un simple texte déclarant qu'ils n'ont pas reçu de "gag order", daté, et contenant les unes du Financial Times (pour preuve de date).
# Si ce fichier n'est plus mis à jour, alors cela voudra dire qu'ils en ont reçu un.
# Ainsi, ils ne brisent pas leur promesse (avouer qu'ils en ont reçu un): C'est l'*absence* d'information qui donnera l'information à leurs utilisateurs qu'ils en ont reçu un.
Exemple :
----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA512

As of today, 2018-10-30, Silence has not been compromised. No backdoor has been
placed and no known security breach has been left.

This canary should be updated and resigned every two months.
-----BEGIN PGP SIGNATURE-----
 La clé PGP.
-----END PGP SIGNATURE-----
Exemple : https://vpn.ht/canary.txt

Le fichier dnt-policy.txt

Ce fichier sert à annoncer la politique du site visité concernant l'en-tête Do Not Track.
Source : https://fr.wikipedia.org/wiki/Do_Not_Track
Source : https://www.eff.org/dnt-policy

Le fichier green.txt

Sur le même principe que le fichier hackers.txt, on pourrait parfaitement proposer une nouvelle norme.
Ainsi, le fichier green.txt pourrait mettre en avant les objectifs écologiques d'un site internet.

Le fichier hackers.txt

Kiffie Liversage a remarqué que sur le site "humanstxt.org" qu'une image d'illustration contenait, en plus des habituels robots.txt et humans.txt, un fichier nommé hackers.txt.
A priori il n'y a aucune norme, aucun standard ou convention pour un tel fichier, alors il a décidé d'en créer une.
Site officiel : https://mrkiffie.com/2011/hackers-txt/

Le fichier humans.txt

Internet pour les humans.txt.
Rediriger le fichier robots.txt vers humans.txt : https://www.yapasdequoi.com/apache/2094-robots-txt-laissons-a-google-ce-qui-lui-appartient.html

Le fichier pubkey.txt

Source : https://wiki.visionduweb.fr/index.php?title=Utiliser_des_commandes_shell_avec_le_terminal#Installer_GPG
# La clé PGP publique du mail de Visionduweb : mail@visionduweb.com
-----BEGIN PGP PUBLIC KEY BLOCK-----

mQINBFdtF/YBEACieioWLDgKkWfAIcd5Oa264VXvgg85nUNsaoim4ouxpdcZL/XL
0jxhvWUHTFQ1rtit3J4RWeDoZiD0mSOdi9dPqtG0v8iYmogC3Z6Zhc225rN0VRMY
GKlftJp6fhL/NR94BbRgttPSjrusEeysRt57kZrNv+QWJ3aPTPrZgVDIP+oWzsIy
DLUdS5XthleNXaLfiIOk+BA93BFniawmf0kh02ndQuvrhuzcdjoB/7hr/DOfIbMb
K68btM1XMbin2nzXvHsxZxsnIjisItfzrlL3egLmDE7M8YDwDTq66+/QoBTadO+b
WRDsPgG89LXwj3PGVRQhAhqb4Kr+sArSAEHGbpLaAhLu8IahPX7uToNGc1EbNWEa
TtRsBHugFshcLXNfQWdYYcWiX3/GinTSANz4wvosm7IabADVyrkq5Yxeewiv4OGn
PtOt0lUAEoKgfWJzCpUN5EtatO8KBk0SwPA9BoDwLK9yBCYwqdHejT/xKtU0TVT9
kSiiNNXCQJcSzoUE3jDrrkokS3hY5ggbGgYbxNC+7sRz1Yaz4W/upnpRPE4bDVLh
zv72reZxXiuWWuaPLWaNdLwbANx+zKLGSdZqNKQkrV+4o8OYvWR+Ry1c7xrq+wH6
R1ofcMR9aR6TVIQWD1GejwoXpQUbnr4qMLwIJz4AJK4HxPMwbd5oMn00yQARAQAB
tCRNYWlsIEAgVmlzaW9uIDxtYWlsQHZpc2lvbmR1d2ViLmNvbT6JAjkEEwEIACMF
AldtF/YCGyMHCwkIBwMCAQYVCAIJCgsEFgIDAQIeAQIXgAAKCRAqWLkgt8S8m5my
EACMqKvSBadyD0yTjqqjV9SzuX8MDyGZy2HpJNuS8K+XXHLPDEBfNYSESIE/K5eX
gXEslUmOWyDT69cDF4BDr2HluDsa6i9wfSmcvFRf7R4AwjjhJ3oxlBhTPHAemJXk
6waiuNWZh7V7B9ReRLvs7tCZoMID6Z0lTy1u6CRiAxbBYoWHRIHLUCbksOoW5yup
p8cqO2usjDB7hP7k5dq76KqiU7w4g9zstsOq/aipGGFk2zhD5wTix3TfakTSrHb6
oJ1GN9yFyDYa9WrTh4y2uFI8TzP7xFQF5dH8j1AsO8TiTWwwqpbYKUwqfdpURr1x
3Yr+5Evqq13vlSByhCvRb78t2Yyc8zS2+jnO+Sg9Y1qNTaP8+0pFbIfGG2MpI48I
XfBxT6X22MimgqddTPvzJ9HWEzrE0NKJPYJndliQ57PkmBlv4beAHBEXHWc01ZBN
AahEFmnwtV+8ucXmhJQf03wd4dmR2YUFv/dxkoHbtC1G4aLbu/wbVZJFQEjteW0L
VMU1PTjQRlWrnfgm8NZl+m4tx2JbRiK1djHz6sYDXFHlQdx//678Lp+nFc9XgrV8
6ORt7VfpvjZBmR9OFRvfXjKAxg6RR1ccqaoOIz6vMpgPZH011+8ptkmgPkDw2l+p
C9EcCi9aoi1dLFDeIlYWPBaeQXX4TpyG/aM/22catkvrWrkCDQRXbRf2ARAAwMxZ
owXWZQp562QlkNeSg0O/FruwEFDF4bEwM4uHxXMMhLTLkzjn+67Kn0Euet/8O352
feZcpyn4N2sDATMTWwO9AQVbAggRmvLqHlruEKJwgemJh0lO+QWStnuI+EJyaBI+
ny5g8JobfFYWKP5+esBLl6rc/KqI2bTYGXwXfqlgm3nI8PYbSs6jU24Xi9GcmYDD
CwlCkpMjfIp7LZ/+woOTjT+vVyOMC7vaSmJx3nG/rz5hfwuiwhcRX2HE3KTDFi2F
LqKc3Hps+vZzhZqE6+Zd8QqJJCWEozLxcGfKAn5aNlRJokhUP7UYGpnoq/XIAJa7
w0Ka6U3JDmDOlwN8nAUiLNH9r/oL4eY+uUAft5L0tzXPRneO0bgg9C8iWyqbgqCD
jU8Wvz35JVgW7GkSmZXq2/fcXVZ1EKiDUy/eWVLu7sOEKMhnFwAh2S+V9paiKcWZ
0pgvtjwSOMxTquy6XU1wUIX0y818OicayH8PEq8U6OToDgwB2mAhbbEeaF743HH4
zB8qDCoNLq104pp/x38AaeBqhyuWd/r53hNdaP1z7/986ouA9VH3f7vdpmp4V5W+
fWPA28XJH8yEBeqfEMYTDelzwnGKKfRPyJmk3MKc/DDHpF++d7yI03bDuWBzikYz
vlspZHNnEXI8ioLPJT6wjLbLsOPayN2UTchwQDEAEQEAAYkCHwQYAQgACQUCV20X
9gIbDAAKCRAqWLkgt8S8mzIbD/965nWV0nwj9K2ztPoj5O747kSXHJJhGQ06Uwm0
rhs2eBzVYE+qBb0uLoF49VDauzSg83iGHXX7S0paWvq86v9Wzutb406LxgKtc0yG
PcTUOxpJK31x5CIpnAtm3WjmPSjTtmah8iZvzNEyBbdeJYH6IiwbJeye4w/KoiDJ
IiapbyT6USZYn9Ba9/gGuP4ls3V432PYZxkCaXuqi49812ADcJ7eonUmGgUIA8Tf
1WxG72WqEHHg/wy43iTaJtvUkaextygUpjLEuDS0QL+kmC1tTwZu8o8KPb4ivSV6
5KNNWNjHLm2HSwLq233v6fZWhF+9/DgRH+Q3zKizPLwGRjKTdELV1DGya9PY3KxX
kR0VKasow173YyoW8lgTdd0dbI1ynOnuOh1kDo6cauXy0PhijRCQRPMWQF1M9xxy
NPzjLuO4BZOxOU56JWU54qlIZFjhmvFTJWuTeJwtTOX+pIkOz/u7Iw+zeC6VkPl0
qSjRI5/vN6lOgMyAYF5d6znu6ZTbFtOz+YY3FvK5FGTppJ2MyCFyPX8zhxxLNDvz
uFZ6DO2AMbF2bmKW7U3ssUV7/CMjT5HFg5vUWKvwpZHVl96rOf468znHfAQ5JJCI
wz4f5D6u2qcv5b0KgNHfwr62yJMfWsoDZNXwVFzz3DllUTo/PXQSQmUOBitPNV1a
4q7Cgw==
=EbYF
-----END PGP PUBLIC KEY BLOCK-----

Le fichier robots.txt

Le fichier robots.txt.

Liste de robots

Liste de robots.

Le fichier security.txt

# Ce fichier a pour principe d'indiquer qui contacter en cas de problème de sécurité avec le site visité.
# Ce fichier est en particulier utile aux chercheurs en sécurité des systèmes d'information qui souhaitent informer de manière responsable l'équipe du site de la présence d'une vulnérabilité.
# Le fichier est assez simple dans son implémentation, on y indique généralement une adresse e-mail ainsi qu'une URL vers une éventuelle clé GPG pour s'assurer de la confidentialité des échanges.
# Plus d'informations sont disponibles sur le site dédié : https://securitytxt.org

Le fichier sitemap.xml

Le fichier sitemap.xml.

Le répertoire .well-known

Le répertoire .well-known est utilisé pour dnt-policy.txt mais également pour le fichier de challenge Let's Encrypt.
Consulter la RFC 5785 : https://tools.ietf.org/html/rfc5785

Redirections

Redirection 301

# Quand plusieurs URL différentes permettent d'atteindre un site, selon Google, il est préférable d'utiliser 301 Redirect pour cibler vers une seule URL de référence, l'URL préférée (canonique).
# Exemple avec https://visionduweb.fr/forum, https://visionduweb.eu/forum, ou http://www.visionduweb.com/forum, choisir une de ces URL comme la destination préférée (canonique).
# Utiliser une redirection 301 pour envoyer le trafic des autres URL vers l'adresse URL préférée (canonique).
# Utiliser également les outils pour webmasters pour définir le domaine préféré (canonique).
Ok-ko.png Créer une redirection 301 : http://www.joomlabc.com/astuces/referencement/332-redirection-301-avec-www-ou-sans

Redirection 307

# La redirection 307 apparait lorsque votre site est configuré pour utiliser HSTS.
https://www.screamingfrog.co.uk/an-seos-guide-to-crawling-hsts/
https://www.screamingfrog.co.uk/seo-spider-8-0/

Cloaking: l'arme absolue du référencement ?

Réussir son cloaking nécessite une bonne connaissance des moteurs de recherche, des robots, de leurs user-agents et adresses IP.
Voir aussi à utiliser les wild-cards.
Le traitement de logs.

Scripts pour le SEO

Scripts SEO : http://scripts-seo.com

Éviter le déclassement de son site

Les frames - Les liens brisés - Les liens issus d'une programmation en JavaScript. 
Les images avec une zone cliquable.
Les images ou animation flash.
Les zones en travaux.
Toutes les techniques de fraude comme la répétition de mots-clés cachés, appelées spamdexing, sont connues des moteurs de recherche.
Les sites qui utilisent cette astuce sont généralement déclassés dans les résultats ou mis sur une liste noire.

Utilisation des métadonnées Dublin Core pour l'optimisation des moteurs de recherche

Source : http://www.criticism.com/seo/dublin-core-metadata.php
Source : https://seo-hacker.com/happened-dublin-core-seo-factor/

Les 10 derniers articles sur le SEO depuis le site WebRankInfo

La lampe de bureau ScreenBar Plus de BenQ

Découvrez mon avis sur la lampe de bureau à LED de BenQ (la Screenbar Plus), pratique pour éviter les reflets sur l'écran, réduire la fatigue oculaire et économiser de l'énergie...
Olivier Duffez 2020-10-13 15:06:10

Formation en ligne : SEO, Google Ads et Analytics

Envie de progresser en SEO, Google Ads ou Analytics&#160;? Suivez la formation à distance de Ranking Metrics. Prochaines dates&#160;: novembre/décembre 2020
Olivier Duffez 2020-10-12 12:30:00

Quelles données structurées faut-il ajouter ?

Quelles données structurées faut-il ajouter pour un meilleur référencement&#160;? Comment trouver les bonnes&#160;? Réponse dans ce dossier.
Olivier Duffez 2020-10-08 14:26:24

Parts de marché des moteurs de recherche (France, USA, monde)

Google domine le monde dans la plupart des pays, mais quelles sont les parts de marché des moteurs de recherche en France et dans le monde&#160;? Ce dossier vous fournit les derniers chiffres con…
Olivier Duffez 2020-10-08 12:20:00

Trouver les pages indexables non indexées + pages indexées absentes des SERP

Découvrez mon outil gratuit et très simple permettant de faire le point sur le rapport Couverture de l'index dans Search Console, notamment les pages indexables et pourtant non indexées.
Olivier Duffez 2020-10-05 06:36:46

En SEO, à quoi servent les données structurées ?

Les données structurées ne servent pas seulement à obtenir des rich snippets, mais aussi à optimiser son site (SEO) pour le web sémantique.
Olivier Duffez 2020-09-29 08:33:41

WebRankInfo partenaire officiel du SEO Campus Paris 2020

Comme chaque année, le monde du SEO se retrouve à Paris pour le SEO Campus dont WebRankInfo est partenaire officiel de l'événement.
Olivier Duffez 2020-09-24 14:40:00

Données structurées : le guide WebRankInfo

C'est quoi les "données structurées"&#160;? Quel rapport avec les entités et schema.org&#160;? Format JSON-LD ou autres&#160;? Réponses dans ce dossier complet.
Olivier Duffez 2020-09-21 14:03:05

Fichier sitemap Google : tuto pour un bon référencement

Voici tout ce qu'il faut savoir sur le fameux fichier sitemap et son impact sur le référencement. Ce tuto explique les risques d'une mauvaise compréhension de l'utilité du sitemap et donn…
Olivier Duffez 2020-09-09 05:50:00

Référencement des images dans les sitemaps Google

Ce n'est pas toujours facile de faire indexer les images, donc un fichier sitemap XML pour les images est une piste intéressante. Voici comment faire&#160;!
Olivier Duffez 2020-09-09 05:38:00

Bibliographie

Ok-ko.png Envoyer automatiquement son sitemap a Google Yahoo et Bing après une mise à jour : http://web.archive.org/web/20160416134748/http://supersonique.net/pu/comment-envoyer-automatiquement-son-sitemap-a-google-yahoo-et-bing-apres-une-maj/
Ok.png Webmaster Soumission d'un sitemap : http://assiste.com/Webmaster_Soumission_d_un_sitemap.html

Tutoriels complémentaires

Ok-ko.png Critères les plus importants dans le SEO selon 140 référenceurs : http://www.journaldunet.com/solutions/seo-referencement/1195455-seo-les-criteres-les-plus-importants-selon-140-referenceurs/
Ok-ko.png SEO pour votre site, sur Google : http://www.commentcamarche.net/contents/1267-referencement-naturel-seo-guide-pratique-complet
Ok-ko.png Les 50 meilleurs outils SEO gratuits : https://www.drujokweb.fr/blog/les-meilleurs-outils-webmarketing-et-outils-seo-gratuits/
Ok-ko.png Introduction au SEO : 20 conseils pour réussir son référencement : https://www.abondance.com/introduction-au-referencement-seo
Ok-ko.png 30 problèmes SEO et les outils pour corriger : https://moz.com/blog/30-seo-problems-the-tools-to-solve-them-part-1-of-2
Ok-ko.png 30 problèmes SEO et les outils pour corriger : https://moz.com/blog/30-seo-problems-the-tools-to-solve-them-part-2
Ok-ko.png Comment faire un maillage interne de liens efficace : https://www.410-gone.fr/seo/optimisation-on-site/maillage-interne.html
Ok-ko.png Les outils du consultant SEO à la loupe : https://www.xavierdeloffre.com/referencement/outils-du-consultant-referenceur
Ok-ko.png Comment éviter le duplicate content interne : https://www.410-gone.fr/seo/optimisation-on-site/duplicate-content.html
Ok-ko.png Le SEO est mort, vive le SEO : https://www.abondance.com/actualites/20180306-19015-seo-mort-video-seo.html
Ok-ko.png Autres lectures sur le SEO : https://www.redacteur.com/blog/10-conseils-pour-rediger-du-contenu-seo/
Ok-ko.png Qu'est ce que la longue traîne : https://www.410-gone.fr/seo/optimisation-on-site/longue-traine.html
Ok-ko.png Des outils SEO pour améliorer votre référencement naturel : http://www.eskimoz.fr/outil-seo/
Ok-ko.png Tous les outils de Laurent Bourrelly : http://www.laurentbourrelly.com/outils-seo.php
Ok-ko.png SEO Wordpress vs Joomla : https://www.itdwebdesign.com/blog/wordpress-vs-joomla-seo

NAVIGATION

PARTICIPER ET PARTAGER

Bienvenue sur le wiki de Vision du Web.
De nombreuses pages sont partagées sur ce wiki.
Créer un compte utilisateur pour participer sur le wiki.
Les pages présentées sur le wiki évoluent tous les jours.
Certaines recherches sont peu abouties et incluent des erreurs.
Utiliser la recherche interne du wiki pour trouver votre contenu.
La page de discussion de VisionDuWeb vous permet de poser une question.
Utiliser la recherche interne du site pour chercher dans tout le contenu.
Ce contenu ne doit pas servir à nuire à autrui ou à un système informatique.
Protéger votre système Linux ou Windows en lisant la page dédié à la sécurité.
Améliorer le contenu des pages avec vos propositions depuis l'onglet discussion.

SOUTENIR CE WIKI

Soutenir le wiki avec un don en monnaie numérique :
AEON - Bitcoins - Bitcoins Cash - Bitcoins Gold - Bitcore - Blackcoins - Basic Attention Token - Bytecoins - Clams - Dash - Monero - Dogecoins - Ğ1 - Ethereum - Ethereum Classique - Litecoins - Potcoins - Solarcoins - Zcash

OBTENIR DE LA MONNAIE NUMERIQUE

Obtenir gratuitement de la monnaie numérique :
Gagner des Altcoins - Miner des Altcoins.