Blog SEO & Ruby
- Sémantique
Mots-clés de contenu Google Webmaster Tools : sur quel contenu porte l'analyse ?
Si vous possédez un compte Webmaster Tools et que vous y avez inscrit vos sites, vous avez peut être déjà remarqué l'onglet 'Mots-clés de contenu' dans la section 'Index Google'. La documentation officielle précise qu'il s'agit là d'un échantillon des mots-clés les plus représentatifs trouvés par Google lors de l'exploration du site. Mais savez-vous comment Google s'y prend pour calculer le nombre d'occurences ? Je vous donne ici ma vision des faits. Il ne s'agit que d'une interprétation personnelle, je ne prétends pas vous donner une vérité, d'ailleurs vous le verrez, j'arrive difficilement à une conclusion solide
- Scripts SEO
Créer une tâche cron SEO avec Whenever, Mail et Amazon EC2
Quand on bosse le SEO d'un site, on est souvent amené à corriger des petits bugs, bien souvent après qu'ils se soient déclarés. En automatisant certaines tâches, de manière quotidienne ou hebdomadaire, on peut être alerté plus rapidement des éventuels problèmes ou mettre en place un système de monitoring sur certaines données.
- Scripts SEO
Tester la validité d'un proxy avec Ruby
Pour ne pas se faire refouler par Google quand on lui envoie trop de requêtes en automatique, il est important de se munir de proxies. Mais encore faut-il qu'ils soient valides ! Qu'ils soient publics ou privés, l'important, c'est donc de pouvoir tester leur validité avant d'entamer toute action de scraping.
- Scripts SEO
Comparer deux sets d'URLs avec Ruby
Dans le cadre d'une refonte, souvent, les URLs d'un site sont modifiées et générées selon de nouvelles règles : ajout de répertoires, modification du séparateur d'URL, renommage de catégories, etc. Cela oblige donc à créer tout un paquet de redirections, afin d'assurer une transition correcte en termes de PR, d'indexation et de trafic moteur. Je vous propose ici un petit script Ruby, qui vous permettra de préparer le terrain en matchant vos anciennes URLs avec les nouvelles...
- Outils SEO
Scraper Google avec deux plug-ins Chrome
Quand on n'a pas Scrapebox ou RDDZ sous la main pour scraper les résultats de Google, il est intéressant de disposer d'outils qui pourront faire le travail malgré tout. Je vais donc vous présenter une petite méthode 'artisanale' pour récupérer les résultats de Google en quelques clics.
- Administration Serveur
Ajouter un X-Robots-Tag avec Nginx
Un article très court pour une fois. Pour ceux qui passent de Apache à Nginx et qui souhaiteraient savoir comment ajouter un X-Robots-Tag dans le header http, voici quelle est la manière de procéder.
- Scripts SEO
Scraper facilement avec Ruby et Nokogiri
Le scraping est l'une des actions qui fait partie du quotidien d'un SEO. On peut s'en servir par exemple en phase d'audit pour extraire le contenu de certaines balises, en phase de netlinking pour extraire les résultats Google, etc. Je vais vous présenter ici un petit script ruby réalisé avec l'aide de @clement_, et qui vous sera peut-être utile si vous n'avez pas sous la main un logiciel approprié. Vous pourrez l'exécuter directement en console et récupérer ainsi rapidement ce dont vous avez besoin.
- SEO On-site
Optimisation de Tumblr pour le référencement
Tumblr est une plateforme qui a le vent en poupe depuis maintenant quelques années. Fortement socialisée, elle bénéficie d'un réel pouvoir communautaire et peut également, comme toute plateforme de blogging gratuite, être utilisée dans une stratégie globale de référencement naturel. Néanmoins, par défaut, la plupart des thèmes présentent des lacunes en termes d'optimisation on-site. Voici donc quelques conseils pour en faire une plateforme performante pour le SEO.
- Administration Serveur
Comment Effectuer Une Redirection Nginx ?
Dans le petit monde des serveurs HTTP, Nginx est encore peu répandu, en comparaison de son cousin Apache. Néanmoins, cette techno d'origine russe est très intéressante d'un point de vue performances. Les plus gros sites l'ont d'ailleurs adopté : GitHub et Wordpress tournent ainsi sous 'engine-X'...