viedoc

Les 10 fondamentaux de l’Inbound Marketing

16 Avr 2015, Posté par D. Bocquelet dans A la une, Digital

Les racines de l’inbound marketing

L’inbound marketing tel qu’inventé et définis au début des années 2000 par Brian Halligan (Hubspot) et popularisé par le conférencier, écrivain et gourou Seth Godin (www.sethgodin.com/sg/) est une discipline nouvelle dont fait partie le marketing digital. Il peut de traduire par « marketing entrant » et consiste à faire venir les futurs clients vers soi plutôt que d’aller les chercher (outbound marketing, inventé récemment par opposition). L’outbound, est en fait assimilé à la « com’ de papa », le type de communication et de marketing défini au début du siècle dernier avec la « réclame », sur affiches d’abord, tracts, crieurs de rue, et dont la tradition remonte sans doute aux marchés de l’antiquité. Les journaux, puis revues et magazines, la radio, le cinéma, et enfin la télévision, sans oublier internet, ont tous servi de support à des types  à peine améliorés de « réclame » dans lequel on met en valeur directement le produit, ses qualités, les avantages qu’il procure et parfois son tarif avantageux…

Depuis l’émergence des réseaux sociaux et des communautés, l’ère du digital à fait basculer ce concept, qui ne crée presque plus de conversions avec le public sur-informé et méfiant du début du XXIe siècle. On se dirige en effet vers une toute nouvelle forme d’engagement, basée sur la création d’une identité forte et originale, accompagnée de ‘Story Telling’, révolutionnant la manière de faire du marketing et de la communication. On provoque un intérêt graduel du public par le développement d’une présence et d’un univers, qui va, lentement mais surement, faire prendre au client conscience de la marque ou du produit (« brand awareness ») et le « convertir » un peu comme le ferait une secte, faute de trouver meilleure comparaison.

Application

C’est l’utilisation de l’instinct grégaire à des fins commerciales. Il faut donner notamment l’impression au futur client d’appartenir à une « tribu » telle que définie par Seth Godin. L’un des champions naturels de Brand awareness est Macintosh, qui sous l’égide de feu Steve Jobs, a créé un univers bien à part et riche des mêmes attributs qui font la force de l’inbound. D’une certaine manière Gorges Lucas avec sa série Star Wars était aussi un pionnier de l’inbound, avec vingt ans d’avance… Actuellement, Cocal Cola a aussi adopté l’Inbound Marketing comme stratégie principale et multiplie les campagnes avec succès, souvent montrées en exemple.

La pierre angulaire de cette stratégie c’est le contenu: Content is King. Non seulement le contenu lui-même qui participe à cette prise d’attention du prospect, qui se doit d’être aussi varié que possible dans les médias utilisés, mais aussi relayé de la manière la plus fine et la plus intelligente. Ce qui se traduit par des notions de stratégie de contenu (Content Strategy) et le référencement avec les réseaux sociaux (SMO our Social Media Optimisation).

L’inbound marketing est plus large que la stratégie de contenu ou le SMO, il englobe aussi tout le processus aboutissant à la vente, du premier contact jusqu’à l’achat. Il inclus aussi les stratégies d’email marketing, et du suivi analytique en lien avec le SMO pour planifier plus finement ses prochaines campagnes.

Méthodologie de l’inbound marketing

Sa méthodologie peut se synthétiser en trois étapes: Se faire trouver par ses visiteurs (visibilité), convertir ses prospects en clients (conversion), et enfin analyser le processus pour améliorer son offre sur le long terme (Analyse)…

  1. Rédaction d’articles de qualité sur votre Blog (storytelling et content baiting)
  2. Curation optimisée (qui peut se faire via un outil de veille) pour accompagner cette prise de volume, avec développement d’authorship
  3. Optimisation des contenus pour les moteurs de Recherche (SEO)
  4. Utilisation de réseaux Sociaux divers, complémentaires et/ou adaptés : Facebook, LinkedIn, Twitter, Pinterest, Youtube, DailyMotion, SlideShare…
  5. Interactivité (Call-to-Action): Bouton inscription sur des landing pages spécifiques (pas forcément la homepage)…
  6. Nurturing : Les contacts ou prospects (leads) sont mis en terreau afin qu’ils se développent et prospèrent selon un rythme défini
  7. Automatisation et le pilotage d’actions interactives (ou marketing automation), en utilisant des logiciels.
  8. Mesure intégrée du trafic; rapports de prospection conversions
  9. Utilisations d’analyse de mesure en temps réel sur le ROI (retour sur investissement).
  10. Utilisation de tableaux de bord de veille digitale pour surveiller les actions de ses concurrents et réagir.

L’Inbound Marketing consiste pour les entreprises non à « bombarder » ses prospects pour créer cette brand awareness, mais de créer une véritable relation se basant sur un marketing personnalisé et non intrusif. L’Inbound Marketing permet bien plus de souplesse pour entreprise dans l’interaction qu’elle peut avoir avec son public. Elle doit communiquer là où ses prospects se trouvent, comprendre ses attentes et problématiques et y répondre de manière personnalisée.

La création d’un contenu à valeur ajoutée peut se faire par du contenu à forte valeur ajouté depuis un blog, à traverse une stratégie de community management, ou encore la rédaction de livre blancs, de documentaires vidéos, slideshows… Ces actions contribueront au final à convaincre par d’autres moyens de son expertise sur son secteur d’activité, et consolider son image ou créer un univers fort et attractif autour de sa marque auquel le prospect fera le choix d’appartenir. Le mode de diffusion préféré pour les campagnes d’inbound marketing passent par les réseaux sociaux car ils permettent d’automatiser, cibler et personnaliser la diffusion et la curation de contenu. Au final: Il s’agit des bons contenus, vers les bons publics, et au bon moment. Et on ne le rappellera jamais assez, mais ce sont des actions de long terme, qui demandent avant tout de la souplesse et de l’endurance.

De nouveaux usages pour les entreprises

Cela représente à la foi une formidable opportunité pour les entreprises avant d’effectuer leur révolution numérique, mais aussi un risque en période de crise économique (avec une reprise qui se dessine pour celles qui font l’effort de la conversion !), car c’est un investissement de long terme, a faible impact immédiat. Le ROI ne vient qu’après une stratégie bien menée et bien accompagnée, où tous les acteurs de l’entreprise peuvent se joindre. C’est une étape logique de plus après l’arrivée de la veille atomisée au niveau des services et salariés plutôt que concentrée dans une cellule d’experts. En somme, l’Inbound Marketing fait appel à l’intelligence collective de l’entreprise.

Effectuer sa propre curation web ou réseaux sociaux peut être efficace quelque soit le logiciel utilisé, en obéissant à quelques règles de base:

La méthodologie

1. Identifier son public

Qui cherchez-vous à attirer? Quel genre de relation souhaitez-vous construire? Quel type d’engagement cherchez-vous à produire et votre contenu sera-il utile par rapport à ce public ?

2. Bien gérer la curation de son contenu

A partir de la détermination du public que l’on souhaite attirer, en fonction de leurs intérêts et besoins, et de vos propres objectifs d’affaires, le choix des sujets du contenu est déterminant. Ces sujets doit engager le public choisi, correspondra à ses questionnements et accessible. En effet près de 70% choisissent de ne suivre qu’une catégorie d’actualité, il convient donc d’étudier son placement avec soin. Et lorsque l’on se charge de créer et relayer son propre contenu, il faut se soucier de son « étiquette » et/ou de la construction d’une autorité sur son sujet.

3. Un contenu partagé de qualité

Un bon curateur peut être vu comme un professionnel de la sélection et au final de la fourniture d’informations de qualité: Créer un taux d’engagement plus fort passe par une fidélisation des lecteurs. Se créer une image de fiabilité et qualité dans ses choix permet de se créer un « autorship », une autorité sur un sujet, fidéliser son lectorat et le diffuser plus largement encore, de même qu’être recommandé. Cela peut-être un facteur de différenciation. En clair il faut ajouter sa voix aux concert des contenus partagés, raconter une histoire unique ou ajouter des informations supplémentaires à une problématique. Bref comme pour un contenu idéal en inbound marketing, apporter une vraie plus-value au lecteur.

4. Une curation cohérente et de long terme

Hors de question de diligenter un stagiaire présent pour trois mois. Se construire un lectorat important demande une grande constance sur la durée. Un partage régulier et fréquent donne une visibilité supérieure à sa curation. Il faut également faire preuve de cohérence dans ses choix de manière à conserver son lectorat, en fonction de ses objectifs initiaux et toujours bien cibler le niveau de connaissance du public et la portée des contenus partagés.

5. Pas trop de branding mais une identité

Utiliser son nom comme curateur et non le label de l’entreprise permet de fidéliser un lectorat dans une relation moins artificielle et froide que celle du branding traditionnel, de personne à personne. Les sujet de partage ne devront pas non plus être trop en rapport avec la marque, il y a des modes de communication corporate pour cela. L’authorship de la personne sert quand même la marque derrière. On peut ainsi ajouter une identité de marque (images propres, logo, « patte » spécifique et professionnelle qui permettent de laisser une empreinte unique et identifiable aux yeux des lecteurs).

6. Variez les contenus

En effet il est utile de combiner les différentes formes de curation (agrégation, distillation, élévation, mélanges, et chronologie) afin de paraître plus naturel aux yeux de Google (SEO) et ne pas lasser votre public. Quand à l’usage de la curation par rapport à l’semble de la création et diffusion de contenus il convient de garder des proportions raisonnable. Les articles créés sur mesure serviront de fer de lance tandis que la curation servira de support de visibilité.

7. Variez les médias de diffusion

Une stratégie de curation multi-canal est préférable dans l’idéal: Via rss, par le ou les blogs utilisés, via les pages des médias sociaux choisis avec soin selon les publics visés, les groupes, les comptes, et pourquoi pas via des newsletters. N’oublions pas la curation de documents, de vidéos et d’images adaptées au public.

8- N’oubliez pas le SEO

Cela paraît évident mais c’est une erreur souvent commise. Il convient d’ajouter des liens pertinents renvoyant vers votre site principal (publications avec des liens vers du contenu connexe, pages internes, ancres internes… en jouant finement sur le degré d’optimisation des ancres de liens et les pages visées…). En bref soignez votre stratégie de linking pour récolter du « jus » par exemple en s’inscrivant dans une démarche de siloing, en plus de la visibilité qu’offre une curation régulière.

Les outils

1- Scoopit

est sans doute le must de la curation. Développé par une startup Française, maintenant solidement implanté aux USA depuis 2 ans, Scoopit continue son ascension vers les sommets, avec un support d’investisseurs qui lui permet de se faire connaître et une équipe qui s’agrandit. Progressivement Scoopit s’est orientée de la curation seule, multi-usage vers l’utilisation de la curation pour faire de la stratégie de contenu (inbound marketing), notamment en sortant Content Director. Scoopit est gratuit mais propose des options payantes.

2- Paper.li

est une autre référence, antérieure à Scoopit et Américaine. Paper à la,cé récemment une application, juice, permettant de localiser les contenus à partager en adéquations avec ses propres paramètres et en fonction de sa stratégie de contenu. List.li est le « petit frère » du premier, pour ce qui est des listes en contrôlant leur diffusion multicanal et permettant des commentaires.

3- Storify

Storify est peut-être une autre des ces applications qui permet de faire de la curation avec un vrai pouvoir éditorial. C’est une table de montage permettant d’agréger des contenus très divers afin de faire un storytelling efficace.

4- Pearltrees

Bien connue, cette application de cartographie par centres d’intérêts à le grand avantage d’être très visuelle. Les tableaux de « perles » peuvent par ailleurs se partager et être utilisés en mode collaboratif. Les contenus des « perles » peuvent être aussi divers que possible.

5- Flipboard

est une autre de ces applications historiques de curation professionnelle, qui met cependant l’accent sur la création d’un journal personnalisé et diffusable via les réseaux sociaux. Il permet notamment de mélanger articles issues de la curations, vidéos et documents embeddés, et contenus créés spécialement ou agrégés.

6- Curata

Moins connu, plus récent mais peut être plus orienté « content marketing », Curata est un outil de curation professionnelle soigné. A la différence de Scoopit, Curata intègre une plate-forme complète dès le départ, avec calendrier de publications et cibles, et analyses statistiques des leads et impacts. Il ne gère pas cependant la campagne de lead nurturing qui suit mais couvre déjà une grande partie des besoins d’un inbound marketer professionnel.

7- Pinterest

Certes, cette application se limite aux images, mais c’est un complément (gratuit) aux systèmes de curations de contenus standard intéressant du fait qu’il autorise d’éditer des épingles et constituer des tableaux, sans omettre les commentaires.

8- RSS sourcing

En permettant d’effectuer une curation multi-réseaux depuis des bases de données d’actualités qualifiées par métier ou secteur, ce logiciel en SAAS apporte une dimension alternative aux logiciels comme scoopit ou curata reposant sur des suggestions automatiques. La pertinence des informations permet de gagner du temps et de la précision dans le sourcing des informations à relayer, en particulier utile pour une audience BtoB spécialisée.

La plupart de ces solutions démarrent en essai gratuit, voire sont entièrement gratuites pour une utilisation basique et personnelle qui peut servir ensuite de tremplin pour une utilisation professionnelle. Vu la durée d’une campagne d’inbound, il est conseillé bien évidemment de prendre son temps avant de choisir une plate-forme, en fonction notamment de sa cible et de ses objectifs immédiats.

Les 20 meilleurs CMS de Forums

08 Avr 2015, Posté par adminviedoc dans Digital

Liste des logiciels CMS de Forums (Content Management System), mis à jour en 2015. On le voit, les Forums les plus anciens sont souvent Open Source, les plus récents sont payants et se présentent comme des outils de support commercial; community management, réseau social sur mesure, ou même de plate-formes d’Inbound marketing.

Ginger HQ GingerHQ
« gingembre QG » est une app de discussion en groupe privé qui favorise la transparence pour les discussions d’équipe et le partage d’information. Il peut remplacer les listes de distribution électronique, les interfaces de groupes Google+, et les outils de gestion de projets dédiés, souvent lourds. (Actuellement fermé, n’accepte plus de nouvelles inscriptions)

Plus Forum PlushForums
Service de forum cloud attractif, puissant mais facile à utiliser, une plate-forme de communication et facilement personnalisable pour discussions en temps réel, un blog intégré, un service de support, une messagerie privée, des abonnements PayPal, et totalement responsive. Une installation sans connaissance technique particulière ni plugin à installer. Il est payant, mais né de la même équipe que Pinterest.

Ninja Post NinjaPost
Ce service propose aux utilisateurs des options orientées vers la Collaboration. Ce logiciel payant est très orienté Inbound Marketing. En plus des fonctionnalités standards attendues d’un Forum, il dispose d’options de SEO, de planification, d’analyse et de suivi des threads de discussion.

Get Satisfaction Get Satisfaction
Cette plateforme communautaire payante très orientée Support produit, Community Management et Gamification aide les entreprises de toutes tailles à créer des relations efficaces tout en réduisant le coûts du support classique, pour plus d’engagement et stimuler l’innovation produit.

IP Board IP.Board (Invision Communauté Suite)
Puissant et complet logiciel (payant) de forum commercial. IP.Board offre une protection anti-spam inégalée avec une énorme communauté et un vaste marché d’addons et de thèmes. C’est un des CMS de Forum professionnels historiques.

PHP BB PHPBB
L’un des forfaits les plus connus et utilisés au monde. Très populaire, très skinnable, avec des tonnes de plugins et une dynamique et active communauté pour le support. Depuis 2000, phpBB, open source, s’est imposée comme la solution libre la plus solide du marché.

Forum Advanced Electron Forum Advanced Electron
Très simple et facile à utiliser pour son installation comme pour la gestion de l’administration. Nombreux thèmes disponibles, personnalisables facilement. Interface simple et moderne, agréable, où les utilisateurs peuvent définir leurs préférences de conseil.

Vanilla Forum Vanilla
Open-source, ce CMS est conforme aux standards pour un Forum, avec une gestion native multilingue, et un forum de discussion entièrement extensible pour le web, avec notamment des options SEO intéressantes. Vainqueur en 2014 du People’s choice creation CMS award aux USA.

BB Press bbPress
Écrit par Matt Mullenweg (WordPress) lors d’un voyage, bbPress est une solution de forum rapide et légère, intégrable dans WordPress ou qui peut être installé en stand alone sur tout autre CMS et facilement personnalisable.

Phorum Phorum
CMS de 1998 Open Source sur Php/MySQL. Les développeurs de cette solution s’enorgueillissent pouvoir créér de puissantes plateformes de messagerie conçues pour répondre aux différents besoins et configurations de sites Web sans sacrifier les performances ou les fonctionnalités.

PunBB PunBB
CMS rapide et léger écrites en PHP/MySql très populaire pour sa facilité de thématisation et sa vitesse d’exécution.

UBB Central UBB.threads
Initialement appelé WWWThreads, ce CMS est historiquement l’un des tout premier forums (1997) et peut toujours soutenir la comparaison avec d’autres solutions plus récentes.

XMB Forum XMB
CMS de Forum en PHP/MySql léger et rapide, avec toutes les fonctionnalités standard pour soutenir une communauté grandissante. Avec une communauté active et de nombreuses contributions, il se révèle facile à installer, à personnaliser et améliorer.

SMF Forum SMF (Simple Machines Forum)
CMS écrit PHP/MySQL, conçu pour fournir toutes les fonctionnalités standard d’un bon VBulletin tout en ayant un impact minimal sur les ressources serveur.

Use BB Forum UseBB
CMS Open Source PHP4/MySQL bien sécurisé et robuste, distribué gratuitement sous licence GPL.

MyBB MyBB
CMS de Forum de discussion open source PHP/Mysql qui a évolué à partir de simple fonctionnalités de messagerie vers un forum complet, il est aujourd’hui considéré comme à la fois léger, rapide mais très complet, avec une communauté importante.

V Bulletin vBulletin
vBulletin est LE CMS de Forum professionnel, abordable pour forum communautaire, avec des milliers de clients, y compris des leader de l’industrie sociétés de premier ordre. Un choix idéal pour une communauté importante, avec un excellent support, un nombre d’options et une sécurisation rarement atteintes.

Ya BB Forum YaBB
YaBB est un CMS open source de forum communautaire écrit en Perl.

JitBit Asp Net Forum AspNetForum
Jitbit AspNetForum est un logiciel de forum complet écrit en ASP.NET, ce qui le rend facilement adaptable aux CMS écrits dans ce language.

Jeudi à 14h00 j’avais le privilège d’assister à une vidéo conférence de présentation en version beta de Scoopit Content Director, un service basé sur l’architecture scoopit mais permettant de manager ses contenus à publier,  en vue d’une stratégie digitale efficace. Pour aller dans le vif du sujet, l’interface présentait trois onglets, correspondant aux actions à mener dans le temps, dans l’ordre, la planification, le contenu lui même, et les analyses statistiques.

Planification:

Le planner de Scoopit Content Director se présente sous la forme d’un calendrier présentant sur une semaine les différentes publications, avec un code de couleur et symboles correspondant aux cibles prévues et périodicité. Ce dernier était interactif, permettant d’afficher aussi bien les publications du jour comme du mois. L’espace est d’ailleurs collaboratif, permettant d’ajouter des notes à destination des collègues, ou de définir des alertes de publication afin de réaliser ses objectifs, en fixé en pourcentages.

En amont de ce planner, il est possible de « connecter » les différents sites et réseaux sociaux qui publieront ce contenu éditorialisé: Blog, site, réseau social… On peut utiliser les fonctions natives de scoopit pour effectuer la connection (prévu naturellement pour wordpress par exemple), utiliser une API scoopit, ou un code embed. Scoopit propose aussi de réaliser des minisites personnalisés de publication. Un blog (wordpress est vivement conseillé) peut d’ailleurs êtres synchronisé totalement avec le planner.

Enfin il y a aussi la fonctionnalité newsletter, qui propose différents types de templates, habillages, personnalisations, et trois modes de publication, normal, pdf et téléchargement au format zip.

Contenu:

la gestion de contenus sur Scoopit Content Director se base principalement sur le système de suggestion général de scoopit, avec des mots-clés, langues, et filtres par types de documents/formats (pdf, vidéos, posts…), mais on peut également alimenter ces actualités avec ses propres sources par exemple sous forme de flux rss. L’affichage des actualités par suggestion se fait grâce à un algorithme, qui traite et fait remonter 20 million de pages web, et les affine grâce aux filtres définis.

Les actions possibles sur chaque actualité sont une sauvegarde, suppression ou classement de pertinence. Avant de diriger ces articles (curation) vers son blog, ou réseau social/sociaux, un travail d’édition qui apporte toute sa plus-value et son authorship à la curation prend place: On fait appel à  l’éditeur scoopit habituel, avec la main sur le titre, la photo, l’accroche (début du texte) et un commentaire personnel (insight), ainsi que l’association à des tags. L’option de faire transiter le lien vers son blog ou directement vers la source dépends de ses choix SEO.

La publication se fait selon le calendrier planifié vu plus haut. Ensuite viennent les options de partage du contenu en chaîne, avec bien entendu possibilités de publications différées par réseau social. Il convient en effet de s’adresser au bon public et au bon moment pour un maximum d’efficacité. La détermination de ces créneaux horaires/journaliers appropriés se fait se le plus long terme en fonction de la cible choisie grâce aux analyses statistiques. La publication sur WordPress grâce à l’API de Scoopit permet d’intégrer directement l’article dans le fil des articles « réguliers » du blog, avec toutes les options d’édition de WordPress associées, ainsi qu’une publication provisoire en mode brouillon.

D’autres options de captation de l’information sont possibles outre les suggestions filtrées et l’ajout de ses propres sources: L’usage de bookmarklets scoopit intégrés pour capturer des contenus à la volée. Il est en outre possible d’intégrer des contenus sui generis, y compris extraits de documents Excel, Word, ou Pdf.

Analyses:

Bien que la démonstration ait été écourtée sur ce point du fait d’un « freeze » inopiné de la plateforme, Scoopit Content Director propose trois types majeurs de graphiques, présentant le nombre des vues, de leads, et de clics par article ou en masse, par réseau, par périodicité, avec bien entendu export CSV/excel et pdf.

Petite précision utile, la licence annuelle démarre à partir de 4000€/an par équipe. C’est bien entendu un service en SAAS, compatible avec des tablettes et même smartphones, qui se destine d’après Scoopit aux PMI-PME qui souhaitent orchestrer leurs contenus de manière plus professionnelle.

A ce titre, RSS Sourcing propose également aux PME-PMI d’effectuer une curation opérationnelle à partir de sources qualifiées (plus besoin de filtres !) sur ses neuf domaines couverts et ainsi d’alimenter son blog, réseau social ou toute autre plateforme en mode semi-automatique, pour 3500 € par an pour 50 utilisateurs.

Pour en savoir plus

Viedoc se positionne aujourd’hui comme l’un des acteurs incontournables de la veille et de l’intelligence économique en France.

Pour accompagner notre développement, nous cherchons actuellement un(e) stagiaire chargé(e) de veille digitale.

Véritable marque au cœur de l’information, Viedoc couvre l’ensemble des métiers de l’information à forte valeur ajoutée (de la surveillance à la diffusion en passant par l’analyse et sa capitalisation).

Avec 3 activités complémentaires, le conseil, les outils de veille et depuis peu la communication digitale, Viedoc accompagne les entreprises de toutes tailles et de tous secteurs, la plupart leader dans leur domaine.

 

Description du stage

– Vous assisterez notre équipe de consultants séniors dans la réalisation des missions, depuis la recherche d’informations jusqu’à l’analyse et l’élaboration de recommandations.

– Vous paramétrez nos outils de veille et contribuerez au sourcing thématique.

– Vous participerez au développement de notre nouvelle offre de veille digitale visant à accompagner les entreprises dans leur transformation numérique.

– Vous contribuerez à la visibilité de nos services sur Internet.

– Vous serez formé(e) à nos méthodologies et à nos outils.

Profil recherché

Vous êtes en dernière année d’école d’ingénieurs et/ou en cours d’acquisition d’une double compétence de type mastère spécialisé en école de commerce après des études supérieures scientifiques et techniques.

Vous avez un fort intérêt pour les problématiques d’innovation et de stratégie et une bonne connaissance des réseaux sociaux.

Nous attendons des personnes curieuses, rigoureuses et dynamiques, disposant de bonnes qualités rédactionnelles et relationnelles.

Français et anglais courant sont indispensables. La maîtrise d’une autre langue étrangère serait souhaitable (allemand, espagnol, italien).

  • Niveau d’étude : Bac +5
  • Date de début :  Dés que possible
  • Type de contrat : Stage conventionné, 5/6 mois, pouvant déboucher sur une embauche définitive en CDI
  • Rémunération: Selon profil
  • Localisation : Guyancourt (78)

Si ce stage vous intéresse, merci d’adresser votre candidatures sous la réf. SCV2015 (lettre de motivation + CV) par mail à info@viedoc.biz

Devenez un Google Power User avec 10 astuces

28 Mar 2015, Posté par D. Bocquelet dans A la une, Digital

Notre moteur de recherche préféré est en effet bien plus puissant que l’on imagine parfois. Mais son potentiel est en grande partie caché est reste seulement connu des « hackeurs ». Voici donc 10 trucs et astuces enseignés aux veilleurs en herbe:

1-Optimiser sa recherche on-site
Lorsqu’un site dispose d’un moteur de recherche mais que ce dernier n’est pas très performant, utilisez la requête suivante:
« site:votresite.fr motclé »

2-Optimiser sa recherche inversée d’image
Si vous souhaitez qui ou quoi est derrière l’image, obtenir des informations complémentaires la concernant. Au lieu d’effectuer une recherche par image il suffit d’effectuer une recherche « normale » (web) indexée à l’image

3-Effectuer un audit des mots-clés/requêtes les plus intéressantes
En utilisant la fonction Google Suggest (autocomplétion du champ de recherche) mais avec un underscore à la place du mot associé pour laisser Google sortir toutes les occurrences les plus populaires, comme outil de __ sur internet

4-Trouver des téléchargement facilement
(en passant outre les sites MFA qui les hébergent avec leurs publicités et virus…)
Avec la requête par exemple -inurl:htm -inurl:html intitle: »index of » apk pour des formats apk (android).

5-Trouver ses concurrents facilement
Dans le registre ou pour les produits/services les plus proches: « produit1 vs … » et soit remplir la mention, soit laisser blanc et l’autocomplétion faire son travail. Egalement vous pouvez utiliser Google comme comparateur avec « better than … » (votre produit/marque). La recherche se base sur l’E-réputation de la marque/produit telle que vue par google.

6-Afficher un site supprimé/modifié
Tous les veilleurs connaissent Wayback Machine. Ce service permet d’accéder à des versions de sites internet qui ont changé ou qui ont été supprimés, parfois 6 ans en arrière. Mais savez-vous que Google offre le même service ? Il s’agit de Google cache. Il suffit de taper « cache.http://www.votresite.com » pour accéder à un site disparu, blacklisté, hacké, etc.

7-Accéder à des sites bloqués
Vous avez un réseau d’entreprise ou d’université un tantinet zélé et vous ne pouvez pas accéder aux sites que vous souhaitez ? Vous pouvez y accéder de manière indirecte via google translate ! Avec la requête http://translate.google.com/translate?sl=ja&tl=en&u=http://exemple.com/ que vous devrez compléter en fonction du site visé…

8-Le Trombinoscope
Vous cherchez sur google une personne nommée « rose » mais Google vous propose la fleur à la place dans Google images ?
Pas de panique, utilisez « &imgtype=face » à la fin de l’url affiché and you are good to go…

9-Obtenir des résultats précisément datés
Les veilleurs savent combien il est énervant lorsqu’on scrute des informations affichées en lien avec sa requête de ne pas avoir les dates associées. ceci est dû au faite que les bloggeurs connaissant les astuces de référencement les retirent volontairement pour que la date affichée dans les SERPs ne soit pas un frein au clic, et l’article continue à « tourner » des années. On peut parfois obtenir des indices indirects via les commentaires de l’article (si venant d’un CMS, URL, etc.) mais aussi directement depuis google !
Tapez simplement à la fin de l’URl affichée: &tbs=qdr:h5 (5 dernières heures) &tbs=qdr:n5 (minutes) &tbs=qdr:s5 (secondes).

10-Faire une Power Search avec les opérateurs
Vous connaissez sans doute les opérateurs AND or OR, mais connaissez vous AROUND? Ce dernier afficher en effet le champ sémantique connexe, comme ici:
(like dent blanche).around(2) ou plus précis (like « dent blanche »).around(6) ce qui permet d’afficher les variants avec le mots pas forcément dans l’ordre.
On peut aussi combiner des éliminations avec l’opérateur « – » comme (like dent blanche -tartre).around(2) et même exclure un site web des résultats: (like dent blanche -site:doctissimo.com).around(2)

Maintenant c’est à vous de devenir à votre tour un(e) « Google Power user » !

Le 21 avril votre site sera-t’il responsive ?

25 Mar 2015, Posté par D. Bocquelet dans A la une, Digital

Depuis l’annonce de Google du 27 février dernier sur les critères de compatibilité mobile pris en compte pour le SEO, l’inquiétude a quelque peu gagné les webmasters et possesseurs de sites internet, d’autant que pour préparer le terrain Google Webmaster Tools envoie régulièrement depuis vendredi dernier des alertes « Corrigez les problèmes d’ergonomie mobile détectés sur … ».

L’annonce de google spécifiait en effet :

1. Autres sites Web mobile-friendly dans les résultats de recherche
À partir du 21 Avril, nous allons nous étendre notre utilisation du critère de compatibilité mobile pour en faire l’un des critères de positionnement du moteur. Cette modification affectera les recherches sur mobiles dans toutes les langues à travers le monde et aura un impact significatif sur nos résultats de recherche. Par conséquent, les utilisateurs trouveront plus facile d’obtenir des résultats pertinents, à travers des sites qui sont optimisés pour leurs appareils.

2. contenu d’applications plus pertinents dans les résultats de recherche
A partir d’aujourd’hui, nous allons commencer à utiliser les informations venant d’applications indexées comme un facteur dans le classement pour les utilisateurs signés, en qui ont installé l’application. En conséquence, nous pouvons maintenant donner plus de visibilité aux contenu générés ou partagés à partir d’applications indexées et leur donner une place plus importante dans la recherche.

Définissons « responsive ». Issu du terme « responsive design » c’est une tendance forte du webdesign depuis cinq années maintenant, avec la montée en force de ventes de smartphone et tablettes. Concrètement il s’agit d’avoir un site internet qui s’auto-adapte à différents formats selon son affichage: PC avec large écran TV panoramique, laptop, tablette ou encore smartphone. Deux solutions existent de concerts: Créer un site PC et un site smartphone, puis jouer sur l’auto-détection et des redirections, ou proposer la redirection à l’internaute. Le design ne consiste pas seulement à revoir l’affichage en fonction d’un écran plus petit, on y intègre aussi des fonctionnalités pour « touchpad », une ergonomie propre à ces écrans.

Google met clairement en avant son moteur mobile. On en avait déjà eu un aperçu avec la montée en puissance des aspects « usabilité sur mobile » et aux nombreux outils de vérifications qui avaient été ajoutés cette année.

Quelles conséquences faut-il tirer (Keep calm and check your website) en vue du 25 avril ?…
-D’abord ce mouvement de Google est basé sur une réalité: En 2014, 60% de hausse pour les ventes de mobiles, 68% de hausse de trafic de recherche sur mobiles, et 16% du trafic global sur le web en France (FEVAD).

-La mention « site mobile » apparaîtra en effet sur les SERPs (résultats de recherche) de mobiles sous android (Google) et affectera les choix des internautes à cliquer ou non. En outre selon le fichier robots.txt du site une description différente et parfois rédhibitoire sera offerte aux internautes sur mobiles (« la description de ce résultat n’est pas accessible à cause du fichier robots.txt de ce site… »)

-Toutefois, toutes les entreprises n’ont pas encore intégré le responsive design dans leurs priorités, loin de là (qui sont financières et à court terme actuellement !). La tendance est donc d’attendre de voir avant de se lancer dans une refonte, si l’impact a de réelles conséquences. Selon le type de cibles (jeunes+nomades) par exemple, cela s’impose. Pour d’autres, ce sera basse priorité sachant que les internautes/prospects attirés sur le site (en services BtoB par exemple) le sont aux heures de travail (grande majorité sur PC) …

-Un rapide examen de Google analytics montrera quelle est la proportion de ses visiteurs sur mobile et donc l’urgence ou non à effectuer cette bascule, compte tenu de ce que propose le site.

screen_mobile_GGA

-Beaucoup de sites internet sont déjà responsive (sans forcément qu’on le sache), s’ils sont basés sur des CMS et templates récents, construits avec bootstrap, etc. Le mieux est encore de tester pour voir. Qui plus est Google propose une pléthore d’outils en complément pour tester tous les aspects « mobile-friendly » du site et proposer des pistes.

En cas de non-responsivité, la refonte n’est pas quelque chose de particulièrement coûteux dans l’absolu. Pour un site fait sur mesure en html ou php (pas de CMS) on peut conserver la mise en page tout en changeant simplement les éléments de construction. L’exemple typique est la page d’accueil avec un carousel à taille fixe qui devra être mis en 100% (auto-adaptatif), de même que les images, et les typiques systèmes en « 3colonnes » qui non seulement seront en pourcentages mais avec un seuil qui fera qu’en dessous d’une certaine taille d’écran elles basculent à 2 colonnes puis une seule. Le menu devra aussi pouvoir « disparaître »sous un certain seuil de largeur toujours ouvrable à l’aide du maintenant célèbre icône « hamburger ». Il faut y ajouter le cas échant des modifications éventuelles pour le fichier robots.txt et htacess. Pour un bon webdesigner, c’est l’affaire d’une journée pour un site de 5-10 pages. (Consultez nous !)
Dans le cas d’un CMS il suffit de le mettre à jour, la plupart des maquettes « par défaut » récentes sont déjà responsive. Et dans certains cas, changer de template…

-Compte tenu de la proportion des internautes naviguant sur mobile (bientôt 20% quand même !), l’optimisation du site doit être mise en balance avec les services offerts et la cible visée, pour apprécier l’impact prospectif de ce changement sur ses ventes ou prises de contact. Si elle est reportée, elle reviendra tôt ou tard, dans un an ou plus, simplement si le marché du mobile continue sur ce rythme.

-En aucun cas Google ne « sanctionnera » les sites non responsive comme il a pu le faire avec les mises à jour de l’algorithme Pinguin et Panda, mais l’effet contre-incitatif se fera clairement sentir dans les résultats de recherche des mobinautes… En bref cette mise à jour participe aussi du grand motif officiel de google d' »améliorer l’expérience utilisateur ».

Pour finir, une petite clarification de Matt Cutts à propos de l’impact éventuel sur le SEO d’un « double site » pour desktop et mobile:

Les données Google Analytics vous mentent

24 Mar 2015, Posté par D. Bocquelet dans A la une, Digital

Qui n’a pas rêvé d’afficher de belles courbes de progression et des chiffres de fréquentation mirobolants sur son site internet ? Combien de fois de belles statistiques des chargés de référencement ont été présentées en réunion et combien de fois le ROI n’était pourtant pas au rendez-vous ? Qui est à blâmer, qu’est ce qui coince ?

L’aspect fondamental dans cet état des lieux est un constat que trop souvent les données statistiques brutes de Google Analytics ne sont pas interprétées de la manière qui convient, ou pas du tout. Or c’est souvent toute la stratégie de référencement qu’il faut souvent revoir après un audit Google analytics. En effet, quelques questions doivent être posées:

-Un trafic considérable sur son site est-il un gage de succès ?
-Les paramètres comportementaux ont-il étés pris en compte ?
-Comment fait-on le lien entre le ROI et ce trafic ?

-Démultiplier le trafic vers son site internet: Une fausse bonne idée !

Le point essentiel à considérer est: Qui vient sur votre site ?. Cela dépend en effet des stratégies de référencement adoptées. Une stratégie de référencement massif, agressive, et basée uniquement sur la popularité peut en effet engendrer une hausse impressionnante du traffic, mais les ventes ne vont pas suivre pour autant, ni la réputation de la marque. Ceci peut-être dû à plusieurs causes, mais le premier indicateur sera dans tous les cas le taux de rebond.

Si ce dernier dépasse en effet les 75%, voir les 80-90%, il faut sérieusement se poser la question de l’adéquation entre le contenu présenté sur la « landing page » (page d’arrivée des visiteurs sur lequel porte le référencement) et le travail de référencement fait en amont pour amener ce trafic. Si les visiteurs ne restent pas, cela ne signifie qu’une chose: Le contenu présenté ne les intéressent pas, et ils repartent. Il en résulte un taux de transformation très faible, voire insignifiant, et donc pas de ROI.

-Comment prendre en compte les paramètres comportementaux ?

Pour rebondir sur ce qui a été dit plus haut, le plus important paramètre a considérer est le taux de rebond (en anglais « bounce rate »). Ce dernier est visible dans le coin en base à gauche sous la courbe de trafic en page d’accueil du tableau Google Analytics (GGA). Il est convenu qu’au taux de 30 à 50% est très honorable, mais au-delà de 70% il faut commencer à se poser des questions. Au dessus de 80% il y a manifestement un décalage entre les attentes des internautes et le site.

Toutefois le taux de rebond seul n’est pas suffisant. Il faut le compléter par (sur la ligne au dessus, et à droite), le nombre de pages vues, et le temps de session pour compléter le taux de rebond par des données comportementales approfondies. Un taux de rebond associé a aucune visite de pages et un temps de session particulièrement court (une seconde plus ou moins) donnera l’impression effectivement que l’internaute « fait erreur » en arrivant sur votre page. Si en revanche l’internaute prends le temps de parcourir le site, mais repart sans transformation, c’est qu’il ne trouve pas ce qu’il cherche.

Il y a d’autres indications comportementales utiles à recouper comme l’indication (onglet « comportement ») d’internautes qui reviennent le cas échéant. Proche de zéro cela indique une perte sèche. Une forte opération de référencement/marketing qui n’engendre qu’un taux de retour après une première visite inférieur à 10% indique en effet un décalage entre la sémantique de campagne, les attentes des internautes et le contenu de la landing page…

-Comment faire le lien entre trafic et ROI ?

L’élément le plus important ici à prendre en considération est le taux de transformation. Le paradoxe est que cet élément ne figure pas dans les statistiques Google Analytics. Tout simplement parce qu’il faut un élément de captage à définir pour établir un tel taux, ce que l’on appelle généralement le « call to action ». Souvent un bouton suivi d’un formulaire ou autre suivant les cas. pour une société de service il s’agit d’une prise de contact. Il faut bien retenir que l’on a à chaque fois un process à trois étapes et donc en théorie 2 taux de transformations qui peuvent être regroupés en seul: Le passage de l’internaute qui « voit » l’annonce de votre site, la visite, puis le call to action.

C’est la conversion entre le travail de référencement fait (le site est visible dans les résultats de recherche sur certaines requêtes, naturellement ou via des annonces) et le passage de l’internaute en visiteur, puis prospect ou client direct (dans le cadre de l’E-commerce) qui définit en fin de compte l’efficacité de toute campagne et donc le retour sur investissement (ROI.).

Au final les données google analytics affichant les chiffres records mais aboutissant en pratique à un faible taux de transformation (ex. moins de 1%) signale manifestement un problème d’approche de la stratégie SEO ou même de ciblage. On ne vise tout simplement pas les bonnes personnes. Il est donc important en amont de toujours vérifier l’adéquation de sa stratégie SEO au public visé. En effet mieux vaut réduire son périmètre ou travaille la « long tail » (requêtes longues et plus précises) pour aboutir à une plus forte transformation, à plus faible trafic.

Moralité: Les chiffres faramineux en eux même ne veulent rien dire, Google analytics vous ment. C’est sur le ROI au final que l’on juge de la pertinence des efforts fait pour attirer les visiteurs « qualifiés » et donc les futurs prospects en puissance. C’est le taux de transformation qui fait toute la différence, quitte à avoir une fréquentation dix, cente, mille fois inférieure…

La fin de Google plus ?

17 Mar 2015, Posté par D. Bocquelet dans A la une, Regard sur l'actualité

On le sait, Google + n’a jamais pu détrôner Facebook contrairement aux aspirations du géant de Mountain View depuis son lancement en juin 2011 (Voir l’historique de Google). A l’époque L’intégration de l’équipe de Kevin Rose (fondateur de Digg) devait insuffler de l’énergie au projet en 2011 (Google avait essayer d’acquérir Digg pour 200 millions de dollars en 2008 mais le projet capota). Google n’en était pas à son premier réseau social pourtant. Qui se souvient encore d’Orkut (janvier 2004)? Un réseau social « exotique » qui est maintenant surtout populaire au Brésil.

Pourtant en 2012-2013, beaucoup d’entreprises, sur des conseils de SEO, l’on joint et créé leur page entreprise. Problème: Lorsqu’un réseau est d’abord et avant tout conçu pour des particuliers, avec un système de « cercles » qui permet une diffusion en théorie ciblée (amis, privé, connaissances professionnelles, par centre d’intêrét…), on peine à trouver des débouchés pour faire une conversion efficace. la désaffection du réseau à toujours rendu facebook plus intéressant à cet égard, et s’est transformé en cercle vicieux. On a préféré se concentrer sur Facebook plutôt que Google +, le premier ayant plus d’audience et plus de fonctionnalités (ou plus d’expérience de marketing et de stratégies de contenus) orientées vers le branding du fait de son ancienneté.

Les signes de l’abandon de Google + s’accumulent depuis la fin de 2013. Premier signe tangible, Vic Gundotra quitte le bateau Google en mars 2014 (c’était le créateur de Google +). Par la suite les remaniements de personnel se sont accumulés, au dépit apparemment du réseau social. Entre autres, l’équipe de Google Hangouts à rejoint celle d’Android. La stratégie derrière était apparemment de travailler sur les widgets développés pour google + au niveau de leur intégration sur smartphone, délaissant donc le réseau en version traditionnelle « web ». L’intégration également de Youtube avec Google + à entraîné un maelström de critiques et de spam commentaires. En 2012 déjà Google + peinait à attirer des utilisateurs, ce qui contribua à accélérer le phénomène artificiellement en forçant les internautes souscrivant à gmail et youtube à avoir un compte : Temps passé par internaute (en minutes quotidiennes): Facebook 405, tumblr 89, Pinterest 89, LinkedIn 17, Twitter 21, MySpace 8, et Google+ 3…

Autre signe majeur, depuis le printemps 2014 on oblige plus les créateurs d’un compte Gmail à se créer un compte Google +. Ce dernier avait déjà provoqué l’ire de nombreux internautes, à l’instar de la fin de Google reader. On verrai donc plutôt cela comme une bonne nouvelle.

Enfin le 2 mars dernier, Google annonçait par la voix de son porte-parole Vic Gundotra le remplacement de Google + par des applications de « streams » et « photos » (éditions de photos et export facile dans d’autres applications). La petite phrase étant « kill Google plus as we know it »… Ces deux aplications seront dirigées par Bradley Horowitz.

Nous reviendrons bien sûr sur les détails de ces nouvelles applications à mesure que nous aurons d’autres informations.

Un infographie d’Intel sur ce qui se passe en une minute d’internet (en 2014), avec des prévisions de croissance jusqu’en 2017.

-Netflix et Youtube (videos) comptent pour 50% du trafic
-Les recherches Google: 4.1 millions de requêtes la minute
-3.3 millions de contenus partagés sur facebook
-347 222 twits
-57840 pages pinterest vues
-38194 nouvelles photos sur instagram…
Croissance prévues pour les réseaux sociaux en 2017: 13 fois depuis 2012, 3 fois plus de personnes connectées dans le monde.
4 Zettabits de données enregistrées sur les serveurs en 2013: C’est à dire 4 000 000 000 000 000 000 000 bits.