Digital

Colibri, le nouvel algo Google

30 Sep 2013, Posté par D. Bocquelet dans Digital, Regard sur l'actualité

La nouvelle est tombée vendredi. Google vient de lancer (et de souffler ses 15 bougies) son dernier algo, Colibri (« Hummingbird »). L’annonce a été faite par Amit Singhal (prte-parle senior de la recherche) en comité restreinte, dans le garage de Menlo Park, loué il y à 15 ans par Brin et Page, maintenant la maison de Susan Wokcinki.

Contrairement à Panda et Pinguin qui s’attaquaient au spammeurs sortaient le gourdin contre les abus de SEO, le dernier-né des algorythme concocté par Mountain view en revient à l’essentiel : La Recherche. Ou plutôt, la longueur et la spécificité sémantique des requêtes tapées par les internautes. Et il touche déjà 90% des requêtes mondiales.

Avant de rentrer dans le vif du sujet, une remarque esthétique. Contrairement aux précédent bestiaire noir et blanc, le colibri est multicolore, sans doute une référence au logo google lui-même, et le symbole d’une retour aux sources, peut-être pour contrer la critique grandissante de « Google, flic du web », pour lequel le noir et blanc est en effet de rigueur (référence aux white hat/black hat, le bien/le mal.. etc.). Rappelons quand même la devise de la firme « don’t be evil ». Mais bon, on s’égare peut-être.

Le concept sous-tendu est la « recherche conversationelle »:

Our algorithm had to go through some fundamental rethinking of how we are going to keep our results relevant

Colibri en effet est annoncé comme une suite de modifications visant les requêtes et recherches longues tapées par les internautes. On sait que les SEO ont longtemps profité de ces requêtes pour mettre en place une politique d’URL « long tail », en utilisant au mieux leurs outils SEO, des balises ajustées,  et une URL réécrite via htaccess ou autre. C’était notamment très utilisé au niveau des E-commerces. Prestashop et Magento permettaient notamment lors de la rédaction d’une fiche produit de créér des URL incluant tous les mots-clés et caractéristiques produit ce qui les rendaient plus proches d’un « exact match » par rapport à une requête (pas une URL dynamique liée à une recherche sur le site, mais bien une URL « en dur »). D’autres ont abusé (et abusent toujours) de la « long tail », les pseudo-dictionnaires chargés de pubs google et autres fermes de liens. Certes, Google et Panda se sont chargé d’abattre quelque uns de ses sites dont le contenu (pauvre) était grossièrement et automatiquement traduit. Le but de ces usines a contenu était de faire de « l’exact match » en version industrielle pour récolter du trafic payant.

C’est là que le changement va être important, car plutôt que de se focaliser sur une « exact match », Google va chercher à affiner la sémantique de cette requête, (chaque mot est en effet traité comme un indice) avec pour objectif de savoir  « qu’est ce que l’internaute avait en tête ». L’effort est louable, mais bien sûr cela n’est pas anodin sur le plan financier. Il vise a diminuer le taux de rebond sur les liens commerciaux des pubs adwords en relation avec cette requête, donc les taux de transformations. Google tenterait-il je justifier ce progrès par une future augmentation de marge ?

Seul l’avenir nous le dira.

En attendant sur un registre plus « léger », Google en à profité pour annoncer un petit « plus » dans les requêtes, un comparateur, Knowledge Graph. Ce dernier se lance à partir d’une requête intégrant « vs » (versus) entre les deux mot-clés ou mots-clés composé. Pour ceux qui ne le savaient pas encore, Google avait déjà créé des utilitaires bien pratique à partir de la requête « to » faisant de la conversion par exemple d’inches  en centimètres, ibs en kilos, etc, ou encore « define » pour obtenir une définition d’un terme.

Extensions gratuites : Danger…

22 Août 2013, Posté par D. Bocquelet dans Digital, Regard sur l'actualité

Définition : Une extension dans le langage courant du web, est le suffixe rapporté au nom de domaine, ex: monsite.com (ici « .com »).

Les extensions peuvent être aussi bien liée à un domaine ou objet (.doc; .biz, .net, .org…), mais aussi un pays (.fr, .us. uk, etc…). Elles ont toutes en commun d’êtres payantes. Le service « administratif » derrière est représenté par l’ICANN, et les frais de gestion afférents aux états se retrouvent aussi grossies des marges des revendeurs (frais de renouvellement des noms de domaine exigés des hébergeurs/prestataires et registres). Or, depuis quelques temps, des registres proposent leurs noms de domaine gratuitement. Certains avaient tenté l’expérience à leurs débuts comme la Belgique (.be) ou le .info, et actuellement le petit archipel des Tokelau (1500 habitants), a défrayé la chronique en proposant son extension nationale gratuite. Le succès a été considérable, et le petit .tk est actuellement la seconde extension mondiale enregistrée après le .com… Belle opération de publicité pour les Tokelans, dont l’extension seule rapporte 10% du PIB national.

Mais cette extension « gratuite » n’est pas la seule aubaine pour les Tokelans. En effet cette gratuité est contre-balancée par des avantages concrets bien compris, car l’adoption du .tk ne confère qu’un droit d’usage, que le gestionnaire et registre entendent bien faire fructifier comme ils le souhaitent. Premier constat, les webmasters de sites en .tk découvrent des publicités sur leur site, et apprennent plus tard qu’il leur faut débourser 1$80 ou bien obtenir un trafic de 1000 visites en trois mois pour les faire disparaître. De plus, le réservataire de cette extension n’en est pas le propriétaire, ce que confirment la localisation des DNS, comme le WHOIS, le réel propriétaire étant en réalité BV Dot TK ou Freedom Registry, Inc. Ces derniers, s’il on s’en tient aux conditions générales de vente, peuvent à tout moment suspendre l’activation du site internet à n’importe quel moment, et ce même si le webmaster maîtrise son hébergement.

La période d’enregistrement en outre est limitée à 12 mois (contre parfois 3-4 ans pour d’autres extensions), et n’envoie d’alerte de renouvellement que 15 jours avant, et sans tolérance après. Les noms de domaines qui en outre (montré par la pratique) n’apporteraient pas le trafic espéré (minimum de 25 visites en 90 jours) dès le départ, sont purement et simplement supprimés et libres à réservation… Les offres payantes sont donc le seul remède à ces contraintes.

De plus des études récentes ont montré que le .tk était l’une des extensions préférées des hackeurs, cybersquatteurs, spammeurs, et près de 20% des attaques de phishing provenaient de sites dotés d’une telle extension… Google comme la plupart des FAI d’ailleurs ont ce .tk dans leur collimateur et les mails provenant d’alias de ce domaine risque d’être spammés systématiquement. Malgrès cela, le .tk a fait des émules, puisque le Mali et la république Centrafricaine ont décidé de mettre à leur tour ce système en application (.ml et .cf), aujourd’hui chapeauté également par le Freedom Registry.

En bref, une petite économie de départ (un nom de domaine « normal » coûte environ 5 euros par an), pour de gros tracas à prévoir par la suite.

Les Balises Meta ne servent à rien

24 Juil 2013, Posté par D. Bocquelet dans Digital

Balises meta ça sert à quoi ?

Un constat personnel :

Ayant pendant des années parsés les sites internet les plus divers pour récupérer titres et descriptifs à fins de classement, une chose est apparue rapidement : Les balises meta étaient généralement absentes,  parfois même totalement;  ou bien l’entrée générique « par défaut » était conservée (sites de type CMS). La proportion constatée en était même effarante, peut être 70% des sites concernés n’avaient pas de balise descriptive du tout, et environ 25% pas de titre du tout, ceux ayant des balises titres étant souvent celles laissées par défaut : « Bienvenue », « titre », « homepage », ect. Bref, il semble qu’une grande partie de l’internet soit constitué de sites dont la conception n’inclue pas toutes les facettes du SEO, notamment les plus élémentaires. Quand à la nature des sites, il s’agit d’abord et avant tout de sites d’entreprises, même importantes.

On pourrait rapidement déduire de ces observations que les CMS sont concernés, lorsque la plupart des sites les employant comme base sont personnalisés par des « designers », qui n’ont a priori aucune notion du référencement, et on pourrait ajouter que la personne responsable ensuite du site, éditeur au sein de l’entreprise, n’en avait aucune notion non plus. Toutefois, dans le lot, bon nombre de sites apparemment conçus sans passer par une architecture prémâchée, donc partant de la feuille blanche. Ce qui pourrait être un avantage si les CMS étaient en effet très mal conçus sur le plan du référencement.

Des CMS à la faute ?
La plupart des CMS de première génération -SPIP pour les portails par exemple ou OsCommerce pour l’E-commerce- ne se souciaient que peu de SEO, étant issus en effet du travail de nombreux développeurs. Avec le temps, cette notion à commencé à apparaître sur la plupart de ces structures, soit directement, soit par compléments (plugins). Aujourd’hui la communauté des SEO s’accorde à souligner les possibilités qu’offrent un WordPress (ajouté au fait que Google favorise les blogs) ou un Prestashop en la matière. Donc reste la volonté (ou la connaissance) des auteurs d’en tirer partie. Et c’est encore bien souvent le parent pauvre de la « formation » parfois dispensée à l’usage d’un CMS. Les rédacteurs ayant l’impression d’effectuer un travail redondant, cette « corvée » passe d’ailleurs bien souvent à la trappe pour la plupart des personnes chargées de faire vivre un CMS en marge de leurs fonctions principales au sein d’une petite structure (les grandes ont un département communication qui s’en chargent). Quand aux sites créés de la page blanche, bien rares car souvent trop chers, peu sont ceux qui intègrent des SEO dans l’équipe chargée de rédiger un cahier des charges. Encore aujourd’hui un site « corporate » d’une entreprise de taille moyenne à grande, doit en mettre « plein la vue », mais il s’agit bien des internautes, et potentiels clients/partenaires, pas du robot google qui devra se contenter de belle images invisibles pour lui et de beaucoup, beaucoup de code.

Pourquoi cette désaffection apparente ?

D’une part ce monitoring m’avais permis de voir que beaucoup trop de ces sites « corporate » de présentation étaient pauvrement optimisés. Mais d’autres part il était parfois clair que ces mêmes entreprises, lorsque bien conseillées, segmentaient nettement leur stratégie marketing, entre un site corporate sciemment fait pour impressionner visuellement, et d’autres part une stratégie multipolaire incluant un blog d’entreprise pour le référencement naturel, des relais sur les réseaux sociaux (avec éventuellement un community manager dédié), et du référencement payant via Google adwords et autres réseaux publicitaires. Donc au final, le « premier site » historique, corporate, restait « dans son jus » depuis sa création et était plus ou moins laissé à l’abandon sur le plan du référencement.

Des pages d’accueil faites de compromis bancales:

Autres erreurs fréquentes de webmasters observées encore récemment, de nombreux sites avaient été modifiés pour inclure un carousel de présentation en page d’accueil, parfois uniquement en images ou pauvre en textes, censés présenter la société et une myriade d’informations parfois même extérieures à la société tant on avait vanté il y a 5 ans le fait d’avoir des informations « fraîches » sur la page d’accueil. Ce Constat SEO à parfois été un peu trop pris à la lettre par les webmasters ayant cru sans doute trouver une panacée, en oubliant les internautes eux-mêmes, obligés de chercher la page « about us ». Et dans ce cas il s’agissait d’une stratégie « mono ». Un seul site corporate, sans blog d’appoint. Ce site devait donc savoir tout faire.

Or une page d’accueil est une landing page, elle doit être optimisée pour les robots mais aussi les humains, et donc 100% efficace sur le plan marketing. Si l’internaute ne voit pas bien qui vous êtes ou ce que vous faites, ou ce qu’il doit faire lui-même (« call to action ») dès la première page, il ne servira à rien de la faire ressortir haut dans les SERPs…

Au bilan :

Aucune solution n’est efficace à 100% ni ne drainera 100% du SEO par elle-même. Maintenant plus que jamais -et ceci fut confirmé par la dernière mises à jour Google de l’aveu de son porte–parole lui-même- il faut voir dans toutes les stratégies SEO de petites rivières qui forment les grands fleuves. Diversité, diversité, diversité, et pas seulement dans les backlinks. On peut tout à fait réaliser une page d’accueil de site corporate incluant tous les aspects « gagnants » à la fois du SEO et du Marketing  en dosant bien chaque aspect, et donc de se passer d’un blog. Mais bien souvent les réseaux sociaux, la publication de documents de présentation (type « powerpoint » par exemple) ou de vidéos pour créer un buzz multimédias, et de publicité payée, sont nécéssaires en complément. Reste à articuler le tout avec intelligence, sans ne négliger aucun aspect, et oui, quoiqu’elles puissent paraître « old school », le fait de faire un balise de titre, une URL bien claire, et un Meta descriptif bien en phase avec le contenu, comptent aussi. Ce sont des valeurs sûres du SEO…

Top 7 des navigateurs confidentiels

16 Juil 2013, Posté par D. Bocquelet dans Digital

Vous connaissez forcément Internet Explorer, Google Chrome,  Mozilla Firefox, Opera et Safari ?

A juste titre ils emportent les 80% du trafic de navigation dans le monde, le restant étant partagé par Baidu -le moteur filtré Chinois, et une pléthore de « petits » navigateurs.

C’est  précisément ces derniers que nous avons testé et comparé.

Pourquoi me diriez-vous? – Tout simplement parce que ces « petits » navigateurs mal connus le sont aussi des hackers, et des marchands… Donc ont peut naviguer relativement plus « anonymement » et en toute sécurité, avec souvent des performances relativement appréciables, du fait de l’absence de nombreuses options présentes sur les « gros » car justifiant leur upgrades. Cela peut être utile aussi lorsqu’on arrive pas à se débarrasser d’un spyware-adware tenace sur son navigateur favori… Oui, il y a des alternatives, parfois même séduisantes.

Ces navigateurs compatibles Windows (il y en a presque autant sur Mac Os) sont :

Flock, Lunascape, SlimBrowser, Seamonkey, Maxthon, Browsar, K-Meleon.

Le sujet : Ouvrir le présent blog, qui comprend des scripts javascript (jquery) et flash.

Voici donc le résultat des ces tests :

Navigateur Performances (ressource constatée dans les process – gestionnaires de tâches windows)

Flock

92 000 ko. Notes: Ouvre le résultat dans un 2e onglet. Affichage impeccable.

Lunarscape

18-40 000 ko. Notes : Une seule fenêtre. Affichage impeccable. CPU Instable !

Slimbrowser

102 300 ko. Notes: Une seule fenêtre. Affichage très rapide mais défauts typiques IE8. +sbframe 25 000 Ko

Seamonkey

116 600 Ko. Notes: Dérivé de Mozilla. Recherche barre adresse, affichage standard mozilla.

Maxthon

20 100 ko. Notes: Démarre à 106 000 Ko avant stabilisation. Dérivé d’IE p le marché Chinois. Ouvre de nombreux onglets. Affichage standard IE8, qqes bugs d’affichage.

Logo Browsar Browsar

78 600 ko. Notes: Ouvre le résultat dans une nouvelle fenêtre (_blank). Quelques problèmes de mise en page. Navigation 100%  privée

K-Meleon

70 440 ko. Notes: Ergonomie à revoir. Pas de clic droit. Dérivé de mozilla. Affichage impeccable.

BILAN :

Maxthon en termes d’économie de ressources, est intéressant. Toutefois, avec 5 onglets ouverts, il décolle à 216 mo. Le hic est sa parenté avec IE, donc des troubles possibles d’affichages, et failles potentielles. L’original (IE8) est encore plus léger, mais ses tolérances vis à vis du W3C et javascript restent calamiteuses, et Maxthon reste encore assez proche des limites du modèle. Il n’est pas très compact (surtout comparé à IE9 !) avec 4 toolbars par défaut.

Lunascape est encore plus léger, quoique assez instable sur le plan des ressources, et il consomme 182 mo avec 5 onglets ouverts. Il reste relativement compact, simple, l’ergonomie est standard et ne déroute pas.  En revanche compacité ne rime pas avec praticité. La barre d’adresse est mono-tâche (URL seulement). Bon comportement avec des sites en jquery exigeants. Il fonctionne avec deux moteurs de rendu, IE et Gecko.

Slimbrowser : Vendu comme « le meilleur navigateur windows », Slimbrowser n’est pas aussi léger que son nom pourrait suggérer : 274 mo avec cinq onglet, il fait moins bien qu’IE8… En revanche, il est annoncé comme optimisé pour IE9 (Windows 7). Sur IE8 quelques soucis de rendu graphiques propres à IE mais il est nettement plus performant en effet pour charger des sites complexes, images et vidéos. Le design est sobre, L’ergonomie standard, avec la barre d’adresse  et barre de recherche (et choix de moteurs) bien séparés. En revanche la pléthore d’icônes colorés sans séparation claire gène un peu le repérage des fonctionnalités (quand les bookmarks sont affichés). Il bénéficie en revanche de nombreuses fonctionnalités en lien avec IE, notamment la faculté de récupérer automatiquement tous les bookmarks et donc d’effectuer plus facilement la bascule IE/slimbrowser.

SeaMonkey : Sans doute le plus connu de tous, au moins pour les familiers de Mozilla, SeaMonkey est un projet « dissident ». Il se base sans surprise sur Mozilla, et tente d’être également un navigateur multifonctions (navigation, recherche, mail, newsgroups , lecteurs RSS, éditeur html, correcteur développement, chat, etc.). Niveau graphique est respect du W3C, c’est impeccable. SeaMonkey est assez rapide, quoique gourmand en ressources. En revanche l’ergonomie est à revoir: La création de nouveaux onglets est… impossible, il faut ruser et ouvrir un résultat de recherche dans un nouvel onglet. Pas de boutons ni de menu contextuel pour cela. Pour le reste, le style est sobre et clair. SeaMonkey est relativement léger avec 5 onglets -145 mo- et ne se double pas d’une application supplémentaire comme le fait mozilla (plugin container).

Browsar : S’il y a bien un point qui différencie ce navigateur, c’est son lancement et son installation. Etant basé entièrement sur IE, il utilise « par défaut » toutes ses fonctionnalités. Il  n’y a pas d’installation à proprement parler puisque le peu de fichiers requis ne pèsent que 222 ko. Pas de raccourci bureau ni de proposition de le prendre comme navigateur par défaut, ni de tonnes de plugins: Pour le lancer, on l’installe, à chaque fois… Mais le coeur de Browsar est ailleurs : C’est littéralement un navigateur privé, qui ne retient aucun résultat de recherches ni cookies -pas de choses équivoques qui pourraient surgir devant un autre utilisateur lors d’une auto-completion, et il se « nettoie » à chaque fermeture…

Sur le plan ergonomique, Browsar tient la route, sans fioriture, son design semble assez abouti et est personnalisable. Barre d’adresse et recherche sont clairement séparées. Pas de choix de moteurs, c’est Google Custom search, en mode privé. Un navigateur intéressant pour les pros du référencement ou ceux qui ont l’esprit mal tourné, mais en revanche sur le plan graphique, il a sans surprise les mêmes limitations qu’IE8 vis à vis du W3C et jquery.

Flock : Intitulé « the social web browser » Flock charge par défaut une page personnalisable comprenant flux rss, réseaux sociaux, et médias variés (vidéos, etc), le tout regroupé sur une page. Sur le plan des performances, il plafonne à 159 mo avec 5 onglets. L’ergonomie est standard, avec la barre d’adresse à gauche et la recherche à droite, et un choix de moteurs. Sur le plan graphique, quelques soucis d’affichage. Il gère mal des <div> et pas du tout les polices personnalisées google. Flock à un menu contextuel (de clique droit) standard et son design est relativement original quoiqu’ un peu lourd. Le « header » peut être réduit à trois « barres », mais une, totalement inutile, reste désespérément collée en bas de page, au-dessus des onglets courants de windows. Un point à revoir pour les concepteurs.

Kmeleon ne s’en tire pas trop mal avec seulement 120 mo sur la balance et 5 onglets, l’ergonomie est en revanche curieuse et l’aspect particulier de l’interface qui semble relever de l’amateurisme ou de l’école maternelle (un concept ? www.potati.com). Beaucoup d’options, par forcément évidentes au premier abord. Sa barre de recherche fonctionne en mode mono (on tape le nom de domaine sans www ni extension, et il charge le premier résultat de recherche), et qui plus il n’y a pas de champ dédié à la recherche, il faut cliquer sur l’icône dédié pour rechercher.

Tout ceci, comparé à :

  1. Chrome 360 mo avec 5 occurences ouvertes
  2. Mozilla atteind 220 mo avec la même charge (plugin container en est responsable)
  3. Internet Explorer 8 plafonne à 146 mo (104 pour un), ce qui reste la meilleure performance du lot.

La conception des sites web : Bilan

17 Juin 2013, Posté par D. Bocquelet dans Digital

Construire un site web aujourd’hui et hier n’a plus rien à voir et le marché de la conception de site web s’est profondément modifié, aussi bien du point de vue des acteurs impliqués que de la méthodologie et de la finalité:  Les sites eux-même ont changé. En tant que webmaster depuis 15 ans, voici mon point de vue à titre personnel :

– La technologie :

Le HTML 5 dont on nous à rebattu les oreilles est maintenant là, de même que le Responsive Design. Le premier est arrivé avec des promesses d’interactivité plus spectaculaire -ce que le Flash permettait autrefois, mais avec la différence d’utiliser une banque d’effets dérivés du javascript, Jquery, et surtout d’être SEO-compatible, et d’autre part se rapproche étrangement du tactile, ce qui nous amène directement au responsive design. Ce dernier contrairement à ce que le nom indique n’à rien à voir avec le développement durable mais est la traduction d’un maquettage et d’un webdesign s’adaptant automatiquement à tous les types de médias accédant au web : PC, tablette, et téléphone portable. Toutefois le HTML 5 ne concerne pas forcément les webmasters travaillant pour le web BtoB, et pour cause : Du fait du caractère assez statique des réseaux internes d’entreprises, IE8 est encore Roi (couplé avec Windows XP). « Toucher sa cible » implique donc de devoir se rabaisser à utiliser des techniques old school sous peine de ne pas être vu du tout, ou ben de proposer deux versions d’un même site. Merci encore Microsoft, de n’avoir pas respecté les standards du W3C…

L’un et l’autres sont des révolution allant globalement dans le même sens : Un web de plus en plus dynamique, universel, et user-friendly. Vous vous souvenez de ces scènes où l’on voyait Tom cruise manipuler des données avec les doigts devant un écran translucide (Minority Report, 2002) ? On y arrive. Le tactile s’est en effet abattu sur le marché comme une nuée de sauterelles. Les tablettes sont partout. Pour autant Windows 8 n’arrive pas à percer. Questions d’habitudes ? Toujours est-il qu’un cahier des charges de site web qui se respecte en 2013 intègre ces deux dimensions. Et le Responsive design et ses pourcentages à l’infini n’est certainement pas accessible au webdesigner amateur. C’est une activité qui réclame une calculette…

– Ergonomie standard

Depuis que le web grand public s’est imposé, et que le nombre de site internet à explosé, on a vu apparaître des « standards », qui se sont imposés et sont devenus presque incontournables selon le type de site internet, en grande partie dicté par des règles d’E-marketing. La partie « vitrine » ou « corporate », la Landing page d’un site obéissent en effet à des codes graphiques bien identifiés. Le modèle « trois pavés » et son carousel au-dessus (avec images XXL et phrases choc), le « footer » (partie basse, répétée du site) sémantique ultra-long sur fond sombre (son menu secondaire et sa ribambelles d’icônes sociaux) et le double « header » (partie haute, répétée du site) avec logo et slogan à gauche, menus à droite, sont en fait vus et revus, copiés et réinterprétés en permanence. Il en est de même pour les icônes, souvent très proches (login, déconnexion, user, contact, etc.). Du coup cette imitation forcenée créé en parallèle une « ergonomie standard », tellement prégnante sur le web, qu’il n’y a guère plus que les agences de communication (celles qui ont survécu à la crise) qui peuvent encore se permettre une certaine originalité, pour des raisons évidentes.  On note aussi parmi les « tendances » dictées par le marketing, la prédominance de blancs et de gris en fond sur lesquels se détachent des éléments de « captation » de l’attention (boutons et autres) généralement en vert pomme et en orange vif, le vert étant inconsciemment la couleur la plus incitative. Le style « en bandeaux » pour les sites corporate est aussi prédominant. Il est venu du webdesign de sites d’applications mobiles anglo-saxon et s’est ensuite généralisé. C’est une des conséquences de l’arrivée il y a presque 10 ans des écrans TFT, de plus en plus larges. Les sites modernes sont panoramiques, faits pour remplir l’écran, mais en même temps avec une partie centrale limitée en largeur aux configurations les moins généreuses (1024 puis 1280 pixels actuellement).

– Qui fait des sites web aujourd’hui ?

Vaste question. L’irruption du CMS dans les années 2000 a bousculé les codes et chamboulé le paysage des acteurs « traditionnels » du web, les Webagencies, elles mêmes sous-produits des agences Print qui faisaient appel à des développeurs (souvent free lance) au début de la première bulle internet. Le CMS (Pour Content Management System) est en quelque sorte la pâte à tarte de supermarché comparée à celle faite maison. C’est en somme un site prémâché, préformaté, qui à permis quand même de démocratiser la création de contenu sur internet comme jamais auparavant. Peut-être 95% des créateurs de contenus aujourd’hui n’ont jamais fait de code (html et autres). C’est ça la révolution du CMS. Le blogging n’est que l’un des ses aspects. La plupart des institutions, associations, organisations et sites corporate de PME-PMI utilisent des CMS que leurs ont personnalisés des agences de communication ou des webdesigners Freelances. L’avantage de la formule est que ces systèmes donnent une véritable autonomie à leurs propriétaires. Plus besoin d’appeler le webmaster, sauf pour un pépin ou une question technique. Les agences sont elle-même devenues des pourvoyeuses de service (elles réservent le nom de domaine, un hébergement, installent un CMS, le personnalisent, et éventuellement assurent un support derrière). Elle n’ont plus ce rôle d’intermédiaire -et éventuellement de conseil- quand aux contenus des clients. Le client est donc son propre éditeur, rédacteur, marketeur, fournisseur de visuels et référenceur… Et souvent les clients eux-même préfèrent prendre en main ces aspects eux-mêmes -quitte à y sacrifier du temps pour économiser de l’autre côté en prestations d’agences.  On comprend donc que dans la conjoncture économique récente très peu amicale et tendue, les agences migrent vers d’autres activités ou disparaissent purement en simplement. L’une des concurrence de ces acteurs traditionnels, agences et free-lance, aussi bien inattendue que massive depuis 5 ans est l’irruption de La Poste sur le marché du web, se reposant sur le succès et la notoriété des pages jaunes.  D’autres acteurs, aux méthodes commerciales efficaces mais discutables, ont disparues, comme CORTIX. La plupart des éditeurs de CMS avec « pignon sur rue » comme Joomla, Drupal, Worpdress et E-commerce comme Magento et Prestashop, proposent d’héberger directement les utilisateurs -s’épargnant de fait l’installation du CMS -parfois complexe pour des non-initiés. Enfin il y a les hébergeurs de sites faussement gratuits, en alternative aux portails de blogging.

– La méthodologie :

Cette dernière change bien entendu selon le type de site demandé par un client. Rares sont aujourd’hui, vu la puissance des grands CMS actuels et leurs nombreux plugins gratuits, les sites entièrement créés de A à Z. C’est pourtant parfois le cas, lorsque le cahier des charges est d’une telle complexité que la modification et l’adaptation d’un CMS serait plus longue et complexe au finale que la création du site à partir de la feuille blanche. En revanche, les points essentiels de la méthodologie n’ont guère changé. En tout premier, le site n’étant plus une simple carte de visite ou plaquette se contentant de faire de la présence, il est aussi un investissement -de départ et souvent et bien plus actuellement de long terme, devant amener des ventes directs ou au moins prises de contact, donc forcément amène à s’interroger sur son ROI (Retour sur Investissement). Une fois la question posée de savoir à qui est destiné ce site (a quels visiteurs il s’adresse), elle entraîne aussi celle de ses utilisateurs, ce qui a des conséquences multiples tant du côté marketing, que technique (Type, Fonctionnalités attendues…), et communication. Un des aspects, autrefois souvent amené à posteriori et maintenant pleinement intégré dès la conception d’un point de vue technique et par la suite en stratégie complémentaire du marketing, est le référencement (SEO). Avec la prédominance de Google comme moteur de recherche, ces stratégies évoluent vite et bien souvent les aspects de SEO techniques intégrés dans un cahier des charges long à construire sont obsolètes lorsque le site est enfin mis en ligne… Un autre aspect du SEO est que ce dernier soit être diversifié au possible et surtout actif sur le long terme, ce qui implique encore disposer de contenus frais sur son site, mais aussi d’être présent sur les réseaux sociaux.

Un article viedoc-solutions

La mort du SEO

24 Mai 2013, Posté par D. Bocquelet dans Digital

Google Pinguin V2Voilà encore un bel exemple de titre choc du style prisé par les marketeux-bloggeurs…

Mais ce n’est pas un soufflé : Avec la sortie officielle de Manchot V2 (en réalité qui correspond à Pinguin 4), annoncé par Matt Cutts en juin et finalement qui arrive avec un peu d’avance, ça rue dans les brancarts, voire ça panique. Matt avait déclaré en effet en août 2012, je cite : « You don’t want the next penguin update », c.a.d vous allez prendre, très, très cher, et également en introduction que l’intention de l’ogre de Mountain View était de faire du « Jutting & Jolting », termes intraduisibles en Français mais qu’on peut comprendre comme étant une grande secousse du paysage SEO.

Evidemment passée l’annonce, on en est encore à deviner ses tenants et aboutissants exacts, mais on se doute sur qui va tomber le gourdin, notamment la guerre ouverte annoncée contre le « spamdexing ». Alors que les sanctions vont ressembler à la météo de mai, les changements sur beaucoup de sites ont commencé.

Premier du genre : Le retrait des backlinks du footer, un élément répété sur tout le site. (On peut aussi le passer en nofollow pour réduire le choc et attendre de voir). Pour le reste, il suffit de dresser la liste des techniques black hat (voir nos posts précédents) pour avoir des indices.

La mort du SEO ?

Un titre pas forcément excessif, car effectivement si Google multiplie les sanctions, les référenceurs « actifs » (ceux qui jouent la carte des backlinks à fond et sous toutes ses formes), vont se retrouver obligés de passer par le désaveu massif, voire d’y renoncer ou de faire un tri entre les liens selon leur qualité. Gageons aussi qu’il y aura aussi pas mal de redirections 301… En tout cas beaucoup de travail en perspective, surtout pour ceux qui étaient d’abord préoccupés par leurs contenus, et sans doute trop. Certain(e)s jetterons sans doute l’éponge et une page aura été tournée. Celle du référencement industriel et du métier même de référenceur. Et si le paysage SEO montre effectivement uniquement des sites « douteux » garnis de publicités google adwords restent au top, gageons que l’hypocrisie du moteur sera au comble et une révolte de grande ampleur fera irruption. D’un autre côté si des sites « spammy » (avec plusieurs millions de liens montés en quelques mois) testent au top on en déduira que les blackhatteurs ont encore de beaux jours devant eux, et Google, du travail.

Les webmasters sont-ils désarmés ?

Non, bien sûr que non. Ils peuvent choisir d’aller faire indexer leur site ailleurs, c.a.d notamment sur bing-bling. Googlebot trouverait porte close via htaccess et robots.txt. Iraient sur google uniquement au final ceux qui veulent des contenus commerciaux « maison » et faisant partie de leurs cercles (nb. google+ n’a jamais réussi à s’imposer), et ceux qui font des recherches, sur Bing, à moins que le moteur de Microsoft qui lorgne du côté du modèle économique de son rival, lui emboîte le pas. On assisterai alors à l’arrivée d’un nouveau moteur open source, commençé honnêtement, le temps, lui aussi peut-être de trouver son modèle économique… Derrière tout ceci se profile une certaine maturité du web, devenu foncièrement bridé et foncièrement commercial en même temps. Don’t be evil.

La fin du référencement : Une aubaine pour le web.

Oui, ce serait aussi un corollaire de la guerre ouverte de google au SEO. Une étude de 2011 de l’observatoire du web montrait que près de 70% des contenus hébergés sur le web comprenaient du porno et du spam, et 80% du trafic mail contenait du spam. La charge financière liée à l’hébergement de ces sites spammy est considérable. Toute la logique du Black Hat SEO qui consiste à industraliser la création de contenus artificiels, sans intêrét pour les internautes, à seule fin de générer des masses de backlinks sémantiques (et donc in fine de la popularité aux yeux de google), occupe un volume d’espace sur internet absolument redoutable. On pourrait comparer cela à vivre au milieu d’une énorme déchetterie. De plus les victimes collatérales de la guerre que livrent les FAI contre le spam et de mettre dans le même panier des émetteurs « cleans » et « spammeurs », au grand désespoirs des premiers qui voient leurs mails légitimes envoyés au panier ou bloqués sans ménagement, particulièrement ceux des FAI concurrents. Les hackeurs qui utilisent des PC zombies et passent d’une IP à l’autre, les squatteurs spammeurs d’hébergements mutualisés, font du tort au reste de la communauté.

A méditer…

Les 25 erreurs les plus fréquentes en SEO

20 Mai 2013, Posté par D. Bocquelet dans Digital

Allez, encore un « top », c’est toujours une bonne accroche…

Vous vous êtes sans doute demandé, si vous aviez fait tout le nécessaire pour que votre site internet brille sur la toile. Référencement naturel impeccable, pas mal de backlinks en dur, un blog et des réseaux sociaux pour faire le buzz… Et bien non, ce n’est toujours pas ça !

Pas mal d’erreurs, presque insignifiantes, le plus souvent indirectes, peuvent impacter votre efficacité. Non je ne vous ferai pas l’affront de parler de l’erreur de débutant par excellence, l’URL non canonique. Vous allez voir ici des choses plus sounoises…

1. Google AdWords Tool réglé sur la recherche large (« Broad Match »)

AdWords réglé par défaut en ce qi concerne la surveillance des mots-clés en mode « requête large », vous fournit des données inutiles du point de vue SEO – inutiles en ce que les nombres sont tellement gonflés en incluant d’innombrables combinaisons improbables  incorporant le terme de recherche spécifié. Par exemple, l’analyse rapporte 30,4 millions de requêtes pour « chaussures », mais comprend des phrases de plusieurs mots comme « chaussures de ville », « chaussures en cuir », « chaussures à talons hauts,» et même «fers à cheval» (« Horse shoe »), «chaussures de neige , « et » segments de frein (« Brake shoe »).  »

En mode Exact, le volume de requêtes de recherche pour « chaussures » tombe à 368.000. La différence est frappante ! – Alors rappelez-vous toujours si vous faites des recherches de mots clés pour le référencement dans l’outil keywords d’AdWords: décochez la case à côté de « requête large » et cochez la case « exacte ».

2. Interdire (disallow) alors que vous vouliez Noindex

Avez-vous remarqué des SERPs (pages de résultats des moteurs de recherche) Google sans titres ou extraits? Cela arrive lorsque votre fichier robots.txt a refusé Googlebot de crawler une URL, mais Google sait encore l’URL existe parce que les liens ont été trouvés pointant là. L’URL peut encore classer des termes relatifs à l’ancre texte dans les liens pointant vers des pages non autorisées. Robots.txt contient des instructions de ne pas crawler le contenu de la page, mais pas d’instruction de ne pas déposer l’URL de l’index.

Si vous placez un meta robots noindex meta tag sur la page, vous devez autoriser les spiders à accéder à la page de sorte qu’il peuvent voir la balise meta. Une autre erreur est d’utiliser l’outil de suppression d’URL dans Google Webmaster Tools au lieu de simplement « noindexer » la page. Rarement (voire jamais) l’outil de suppression devrait être utilisé à tout bout de champ. Notez également qu’il y a une directive noindex dans le REP (Robots Exclusion Protocol) à qui obéit Googlebot (officieusement).

3.  Paramètres URL SERP et Google Instant

Je viens d’écrire sur les paramètres que vous pouvez ajouter à Google SERP URL. Des personnes se plaignent de ne pas être en mesure d’ajouter des paramètres à la fin de Google SERP URLs comme & num = 100 ou & pws = 0 – depuis que Google Instant est apparu sur la scène. C’est facile à résoudre : Il suffit de placer Google Instant en mode « Off » et les paramètres d’URL fonctionnent à nouveau.

4. Ne pas utiliser le vocabulaire de votre client

Votre client n’utilise pas forcément (voir pas du tout si c’est du jargon) le vocabulaire d’une industrie ou d’une spécialité professionnelle. Ils n’ont jamais utilisé l’expression «électrique culinaire » dans une phrase, malgré le fait que c’est le terme acceptée par l’industrie pour les petits appareils de cuisine. Votre client effectuer rarement une recherche répondant à votre façon de penser mais plutôt un recherche logique intuitive. Par exemple, j’aurais deviné que le pluriel « appareils photo numériques » battrait le « appareil photo numérique » singulière requête en volume – mais c’est l’inverse en fonction des différents outils de Google. Le bon choix devient évident après une petite gymnastique, mais souvent c’est la politique intérieure ou l’inertie d’une société de conserver la terminologie moins populaire en place (par exemple « Sweat à capuche » quand « capuche » est ce que les gens recherchent).

5. Rater la phase de keywords brainstorming

Trop rarement le plan du contenu d’un site a été tiré d’un keywords brainstorming. Ce dernier peut être aussi simpliste que l’utilisation de « Google Suggest » (qui autocomplète ce que vous tapez dans le champ de recherche) ou Soovle (qui autocomplète simultanément à partir de Google, Bing, Yahoo, YouTube, Wikipedia, Amazon, et Answers.com). L’idée est de penser latéralement.
Par exemple, un fabricant de meubles de bébé découvre la popularité de la requête « nom de bébé » grâce à un examen des termes populaires commençant par «bébé» et décide de construire une section de son site dédiée aux termes connexes (« les tendances de noms de bébé », « nom de bébé significations », »noms de bébé les plus éculés », etc.)

6. Correspondance des URLs avec des mots clés, mais pas dans l’autre sens

C’est la procédure d’exploitation standard pour cartographier toute le contenu du site relatif à des thèmes-clés (parfois appelés mots-clés primaires, termes de recherche populaires, ou « mots d’or ».) Ce qui n’est pas si commun est de commencer avec une cible (ex. le plus désiré) dans la liste de mots clés et la cartographie de chaque mot-clé pour la page est alors la plus appropriée pour classer ce mot clé et ensuite optimiser le site autour des paires Key-to-URL.

Par exemple, « restaurants végétaliens à Phoenix» pourrait être pertinent pour cinq pages différentes, et le meilleur candidat est alors choisi. La structure de liens internes est alors optimisée pour ne favoriser que le meilleur candidat, à savoir que les liens internes contenant le texte d’ancrage sont orientés vers le meilleur candidat plutôt que de se répandre à travers ces cinq pages-candidats. Cela rend beaucoup plus de sens que de rivaliser contre soi-même sans aucun des pages gagnantes (Un pur exemple de « dilution de jus »).

7. Mettre en place un blog hébergé gratuitement

Les blogs gratuits hébergés comme WordPress.com et Blogger.com offrent un précieux service. Plus de 18 millions de blogs sont hébergés sur WordPress.com. Ils ne sont toutefois pas un service idéal si on se soucie de SEO ou de monétisation. Ils ne sont pas assez souples pour installer votre propre choix de plugins ou des thèmes et framework pour constituer un tueur en référencement et surtout d’URL (par défaut en sous-domaine de wordpress ou blogger).

Mettre un ensembles d’annonces AdSense sur votre blog WordPress.com est contraire aux Conditions Générales d’Utilisation du service? C’est bien mieux de vous procurer un hébergeur et d’installer la version auto-hébergée de WordPress si vous avez le plein contrôle sur la chose…

8. Ne pas correctement désactiver Google personnalisation

Il n’y a déjà pas mal de temps, Google a commencé à personnaliser les résultats en fonction de l’activité de recherche pour les utilisateurs non-enregistrés. Pour ceux qui pensaient que l’utilisation non connectée de Google était suffisante pour obtenir des résultats non personnalisés, j’ai des nouvelles pour vous: Ce n’est pas le cas. Pour remédier à la chose, cliquez sur « Historique Web » dans le SERPs de Google, puis «Désactiver la personnalisation basée sur l’activité de recherche ». Ou sur une requête individuelle, vous pouvez ajouter & pws=0 à la fin de l’URL Google SERP (mais seulement si Google Instant est éteint, voir ci-dessus).

9. Ne pas se logger aux outils gratuits google

Certains des outils basés sur le Web que nous utilisons tous régulièrement, comme Google Trends, restreind les fonctionnalités ou donne des résultats incomplets (ou moins précis) lorsqu’on est pas loggé sur son compte. Google AdWords Keyword Tool indique très clairement: « Connectez-vous avec votre AdWords pour voir la liste complète des idées pour cette recherche ». Il serait sage de tenir compte de l’instruction.

10. Ne pas lier vos meilleurs pages avec vos meilleurs termes sur la page d’accueil

Les catégories que vous affichez sur votre page d’accueil devraient être pensés en termes de référencement. Même avec votre nuage de tags si vous en avez un. Et les «produits populaires» que vous pensez. Dans votre esprit, traduisez «Produits populaires» en «produits pour lesquels j’ai le plus envie d’aller au sommet de Google. »

11. Ne pas retourner un code d’état de 404 lorsque vous êtes censé le faire

Il est important de retourner un code d’état 404 (plutôt que 200 ou 301) lorsque l’URL demandée est clairement fausse/inexistante. Sinon, votre site sera moins digne de confiance aux yeux de Google. Et oui, Big brother vérifie aussi cela.

12. Ne pas construire des liens vers des pages qui pointent vers vous

De nombreux référenceurs amateurs négligent l’importance de bâtir des liens vers des pages qui pointent vers leurs sites (lien indirects). Pour les sites commerciaux, il peut être difficile d’obtenir des liens qui pointent directement vers votre site. Mais une fois que vous avez acquis un lien fort, il peut être beaucoup plus facile de construire des liens vers cette page de liaison et ainsi vous pourrez profiter de l’avantage indirect.

13. Aller plus haut avec la copie et/ou des liens signifiants pour les spiders

D’innombrables sites ont des paragraphes de « DC » (duplicate content) en dessous du pied de page ou « footer » (c’est à dire après la déclaration de copyright et mentions légales) tout en bas de page. Souvent, ils intègrent de nombreux liens sémantiquement riche. Ils peuvent même traiter chaque lien avec les balises gras ou fort. Est-ce que c’est aussi évident que ça? Je suppose que si vous mettez un commentaire HTML qui le précède immédiatement comme « nourriture à spider pour le SEO » (Peut-être « Insérer ici le spams de keywords pour Google ici » pourrait être plus à propos?)

14. Ne pas utiliser la balise canonique

La balise canonique peut ne peut pas toujours fonctionner, mais ça ne peut certainement pas faire de mal. Alors allez-y et utilisez-les. Surtout si c’est un site de commerce électronique. Par exemple, si vous avez un produit mappé dans plusieurs catégories résultant de plusieurs URL, la balise canonique est une solution facile, voire indispensable.

15. Ne pas vérifier votre IP avant d’y installer votre site.

Si vous achetez une maison, vous vérifiez parfois les écoles de la région et les statistiques de criminalité, non? Pourquoi ne pas faire la même chose lors du déplacement sur un nouvel IP ?. Majestic SEO est un vérificateur de quartier IP. Ceci est particulièrement important pour les hébergements mutualisés à bas coût. Vous ne voulez pas être sur la même adresse IP (hébergement mutualisé) avec un tas de sites de spammeurs/blackhatteurs/porn/warez ?.

16. Faire trop de liens internes

Diluer votre jus SEO tellement que seulement un mince filet bénéficie à chacune de vos pages. Le PageRank d’une page ou de l’article doit profiter aux sujets connexes non à tout sous le soleil (c.-à des centaines de liens).

17. Confiant les données dans Google Webmaster Tools

Vous avez remarqué que les données de Google Webmaster Tools ne coincident jamais avec vos données d’analyse? Faites confiance plutôt à vos données analytiques plutôt que les données webmaster tools.

18. Soumettre votre site à l’examen du public lors d’une conférence où des ingénieurs de Google sont présents

Doh! (Insérez la voix de Homer Simpson ici.) Sauf si vous êtes absolument sûr de vous que rien de bizarre ne se passe au sein de votre site, c’est à peu près une mission suicide. Corollaire: parler à Matt Cutts lors d’une conférence sans couvrir votre badge avec des cartes de visite. Notez que cette erreur a été fourni par un type que nous appellerons « Leon » (vous vous reconnaissez, « Leon »!)

19. Cannibaliser la recherche biologique avec PPC

Payer pour le trafic que vous auriez obtenu gratuitement? Oui ça doit faire mal. La recherche biologique et la recherche payée sont synergiques et/ou parfois cannibales, il faut le savoir.

20. Confondre Causalité & corrélation

Quand certains disent ils ont ajouté des balises H1 à leur site et ont vraiment amélioré  leur classement Google, la première question que je pose est la suivante: «Aviez-vous déjà un H1 présent et changé juste une balise en H1, ou avez-vous ajouté une manchettes riche en mots clés qui n’étaient pas présents avant? « C’est généralement ce dernier. Le texte riche en mots clés en haut de la page coïncide avec la prééminence du mot-clé (lien de causalité). La corrélation avec la balise H1 n’a pas bougé l’aiguille.

21. Ne pas penser en termes de votre (hypothétique) Google « feuille de rap »

Google ne suit pas une « feuille de rap » de toutes les transgressions au sein de votre réseau de sites, mais ils serait stupide de ne pas en tenir compte. Soumettre votre site aux annuaires 800 robots sur une période de 3 jours est tout simplement stupide. S’il est assez facile de voir un grand pic dans vos backlinks entrants, alors il est certainement assez facile pour Google de repérer ces anomalies.

22. Ne pas utiliser une variété de texte d’ancre

Il est judicieux d’utiliser une variété d’ancres dans votre texte, car il faut que cela ait l’air naturel. Pensez en outre diversité de liens.

23. Traiter tous les liens indiqués dans Yahoo Site Explorer comme « suivis »

Ne me demandez pas pourquoi YSE comprend des liens nofollow dans ses rapports, mais il le fait. Beaucoup d’utilisateurs d’YSS pensent à tort que tous les liens présentés sous l’onglet «inlinks » passent du jus.

24. Soumission d’une demande de réexamen avant tout soit clean

Cela peut ne pas être super-commun, car de nombreux référenceurs n’ont jamais présenté une « demande de réexamen » de Google. Et heureusement pour eux. Mais si c’est votre cas, alors assurez-vous que tout -et je dis bien tout- a été correctement nettoyé et que vous avez bien documenté dans votre soumission.

25. Soumission aux sites sociaux d’un compte utilisateur non connu

Rien ne va plus vite que de planifier la soumission d’un utilisateur inconnu sans histoire, sans followers, pas « street cred ». Les utilisateurs avancés restent la règle, refonte DIGG ou non.

Source : www.searchengineland.com, S. Spencer, traduit et adapté.

Top 6 des navigateurs

15 Avr 2013, Posté par D. Bocquelet dans Digital

NavigateursEn tant que veilleur vous vous êtes sans-doute posé la question, au delà du moteur de recherche, quel est le « meilleur » navigateur à utiliser au quotidien ?

Le qualificatif  « meilleur » reste bien entendu, hautement subjectif, mais il existe quelques critères « objectifs » qui peuvent être pris en considération :

Du point de vue du veilleur ou du référenceur et autres professionnels du web la question à son importance. Ces métiers nécessitent d’avoir un outil au quotidien de première frappe, rapide et pratique (hors customisations avancées). Une petite étude a donc été réalisée la semaine passée :

Premier constat : Firefox semble emporter tous les suffrages, suivi de chrome et enfin IE (Microsoft Internet Explorer).

En revanche pour ce qui est de la proportion d’utilisation pour le grand public et les professionnels, une étude de mars 2013 de TNW montre que IE se maintient toujours en-tête, et de loin en terme d’utilisation : 55.83%.

UTILISATION :

#1 Internet Explorer : IE8 prends 23.23% de cet ensemble, du fait du grand nombre d’ordinateurs « tournant » toujours sur Windows XP, principalement au niveau des réseaux d’entreprises. La mobilité est beaucoup plus forte chez les freelance, PME-PMI et particuliers. IE9 (liés à Vista/Seven) prends la seconde place de cet ensemble avec 20.62%. Des dinosaures comme IE7 et IE6 (XP non mis à jour et Windows 98) ne sont plus respectivement qu’à 1.93 et 6.21%. IE10, lié à l’utilisation de la nouvelle tablette tactile et du nouvel OS Microsoft, Windows 8 prends une part croissante de 2.93% (actuellement 3%)… La principale explication derrière cette prééminence est bien entendu liée à la domination sans partage de la micro-informatique personnelle par Microsoft. Dans une utilisation quotidienne limitée de l’internet, par faute de comparaison et d’habitude, ainsi que de la difficulté de faire évoluer les gros réseaux d’entreprise, IE reste donc utilisé « par défaut ».

#2 Mozilla Firefox.

Issu du monde de l’open source, il n’a pu se construire sa place que grâce aux « geeks » et par contestation d’IE. Quasi inconnu du monde des grandes entreprise, il est un choix individuel au sein de petites structures et free-lances, ainsi que semble t’il les professionnels les plus chevronnés du web en heures d’utilisation. En mars 2013, il dominait 20.21% du marché, derrière IE9 et E8. Alors qu’IE dominait encore le service public, il semble que les économies budgétaire ont parfois milité dans l’adoption d’un OS non propriétaire, à savoir LINUX-Ubuntu. Le navigateur associé est aussi FF (Firefox). C’est particulièrement vrai dans le milieu scientifique.

#3 Google Chrome.

Autre choix alternatif, il a capitalisé sur une interface plus minimaliste (fidèle à l’interface du moteur d’origine), très rapide (au départ)  intégrant dans un seul champ la barre d’adresse et le moteur. Là encore le public concerné est fait de particuliers, avec une utilisation du navigateur moins intense du fait que les extensions du navigateur et sa flexibilité sont moindres. Les « geeks » ne sont pas non plus convaincus de cette solution semble-t’il, et les habitudes n’en sont qu’en partie responsable. Il y a une méfiance justifiée relative au modèle économique de google qui laisse à penser en utilisation quotidienne qu’il se comporte en spyware à but commercial. Les veilleurs et en particulier les professionnels du référencement le fuient comme la peste à cause de résultats complètement biaisés (par l’utilisation du compte google, adresse gmail etc. importance outrancière donnée aux réseaux sociaux internes…) et de l’impossibilité de passer facilement en recherche internationale. Chrome prends 16.45% du marché.

#4 Safari et Opera, navigateurs Macintosh.

Second fournisseur du marché de la micro-informatique, Macintosh propose des machines mieux « finies », performantes, plus fiables et design, et se destinent surtout aux professionnels des arts, de la mode, de la communication… Safari est son navigateur Natif, ce qui explique sa part du marché de 5.31%. Opera (1.74%) peu connu est un navigateur alternatif né également sur macintosh mais aujourd’hui disponible sur windows et Linux.

#5 Les raretés : Des navigateurs très confidentiels, comme Maxthon.

Se taillant la part du microbe (0.46% du marché en Europe), quelques navigateurs sont des alternatives exotiques, non sans mérites.

On ne les citera pas tous, mais existent dans cette « face cachée » du web, Lunascape, Browsar, SlimBrowser, Camino, K-meleon, XB Browser, Flock, Ibrowser, Ikab, SeaMonkey, Stainless, Sunrise, et  Shiira (ces derniers basés sur un framework open source spécifique à Mac OS), … ou bien Maxthon (testé ici) qui est un dérivé du Chinois d’IE. Les partenariats Microsoft-Baidu (le moteur de recherche filtré Chinois) ont permis d’en faire un des navigateurs les plus utilisés en Chine.

Source TNW (The Next Web)

Source : TNW (The Next Web)

PERFORMANCES Comparées :

Du plus au moins gourmand, en mégaoctets constatés  dans le gestionnaire de tâches. Essai effectuée sur la base de l’OS Windows XP (le plus courant), sur un seul onglet, avec un même site internet riche graphiquement et faisant appel à des scripts jquery (javascript).

#1 : Maxthon : de 115 à 150 mo (stabilisés avec 10 onglets).

#2 : IE8 : 120-140 mo (stabilisés)

#3 : Opera : 122 mo (stabilisés)

#4: Firefox : 203 mo (stabilisés)* Commence à 170-180

#5: Safari :  210 mo (stabilisés)** Commence à 130 mais l’utilisation de webkitprocess fait vite monter ce chiffre.

#6: Chrome : 322 mo.

On le voit, IE8 est de manière surprenante plus « léger » que la concurrence, toutefois, il reste en retard par rapport aux évolution du web, qu’il s’agisse de javascript avancé (jquery), de flash, java, et autres applications et ne respecte pas les standards du W3C, donnant un affichage des sites internets souvent aléatoire, voire des bugs. Sur le plan de la sécurité c’est, sans surprise, la plus mauvaise note. La communauté des hackers l’a prit pour cible depuis longtemps et traque ses failles; il rend de ce fait l’usage de pare-feu supplémentaires indispensables.

A ce jeu, Maxthon semble immunisé. Ce type de navigateur reste encore trop confidentiel (à l’ouest). Il est également assez peu gourmand au niveau de la création de nouveaux onglets : 120 mo stabilisés avec 10 onglets, c’est une des meilleurs performances de cet essai. En revanche, ses performances d’affichages et interprétations du W3C se rapprochent d’IE8, ce qui est normal vu sa parenté, et les mêmes problèmes relatifs au W3C apparaissent.

Opera est également léger et sans surprise. On est pas forcé d’être un utilisateur de Mac pour l’adopter par ailleurs. De manière indicative, il monte à 530 mo pour 10 onglets.

Safari serait le navigateur idéal si son gestionnaire d’applications flash/jquery, webkit2process n’était pas aussi gourmand en ressources. Assez sûr, simple, respecteux des standards et rapide, il souffre néanmoins d’une gestion des onglets  relativement gourmande (10 onglets), deux processus safari totalisant 150 mo et webKit2Process 260-280 mo. Soit au total près de 400 mo… Cette dernière application est intrinsèque et ne peut être « terminée » sans provoquer un arrêt du navigateur.

Chrome obtient la plus mauvaise note de performance, toutefois pour un usage « frais » (première installation, pas de compte google), il relativement reste aussi léger que ses concurrents, et le reste en l’optimisant. Au niveau de ses performances face à des scripts complexes et gourmands, il répond bien et vite (plus que mozilla). La multiplication des onglets n’obère pas trop  sur la part prise par l’ensemble, mais ses « dépendances » démasquées dans le panneau de gestionnaire des tâches n’est ni forcément indispensable, ni forcément évident à supprimer. Niveau sécurité il est également efficace. Toutefois après une utilisation soutenue (quotidienne et intensive) son système de cache fait qu’il peut-être particulièrement lent à répondre (non-utilisé pendant 2 heures, il peut mettre 1.30 min et plus en tapant une requête ou en créant un nouvel onglet !). Ce n’est pas -et loin s’en faut- le navigateur préféré des référenceurs à cause de ses résultats trop personnalisés même lorsque l’on est pas connecté. Les veilleurs ont un peu moins de préventions quoique le poids de ces filtrages personnels obèrent clairement les résultats, en revanche il est utile d’utiliser des opérateurs booléens directement en barre d’adresse.

Firefox reste le navigateur fétiche des référenceurs et veilleurs, si toutefois ils parviennent à tirer profit de leurs options pour disposer d’un google « neutre ». C’est le plus riche en possibilités et le plus souple et personnalisable, et il reste sûr du fait que les hackers militent pour l’open-source… Toutefois, la multiplication des onglets nuit à ses performances. On peut facilement dépasser un go avec dix onglets au contenu riche et dynamique.  Tout comme Chrome, il est également beaucoup plus stable qu’IE. L’extension flash est relativement gourmande en ressources.

Pratiques Black Hat SEO : Nouveaux coups de bec de pinguin

02 Avr 2013, Posté par D. Bocquelet dans Digital

On le sait, la veille est compromise par les abus de référencement. Google tente de réagir face à toujours plus de black hat SEO, mais face à une industrialisation croissante de ces pratiques et a une concurrence féroce, la partie est loin d’être gagnée par le bestiaire de Google:

A savourer sans réserve :

  1. Cloaking : Servir un contenu taillé pour le google bot et un autre pour les internautes (pas neuf, mais toujours présent)
  2. Les liens sans cohérence, comme par exemple quand on fait du référencement pas cher alors que cette phrase n’a aucun rapport (pinguin)…
  3. Le spamcomment : Le fait de pourrir les forums et les commentaires d’articles avec des liens sémantiques (voir le premier commentaire de cet article)
  4. Le splog : Créer des blogs et des articles avec un contenu généré automatiquement intégrant à la pelle des mots-clés et liens sémantiques…
  5. Le blogging acheté : Combien de bloggeurs sont achetés pour créer du contenu/servir la soupe via des liens sémantiques à un site de marque, en dofollow bien sûr…
  6. Liens embarqués : Vous voulez faire du backlink détourné sur des blogs ? – Proposez un widget, plugin ou infographie utile et cachez-y un lien, voire plusieurs…
  7. Keyword stuffing : Le fait d’avoir  un texte bourré de mots-clés. Figure parmi les plus vieilles ficelles, mais apparemment certain(e)s en sont encore là
  8. Et ajouts personnels : Participer a des pétitions et donations en y plaçant son lien, cacher du contenu riche en se servant du css, booster artificiellement son rss en faisant du neuf avec du vieux, jouer au coucou avec des sites abandonnés, etc…

Aaah, le backlinking (passez votre curseur sur les liens au cas où…).

Source : http://www.journaldunet.com/solutions/seo-referencement/mauvaises-pratiques-seo/

Les nouveaux enjeux du référencement

12 Oct 2012, Posté par D. Bocquelet dans Digital

Recadrons le sujet :

« Le référencement est l’ensemble des actions techniques visant à promouvoir un site internet »:

C’est une définition à nuancer.

Le « technique » est là pour faire la différence avec de la publicité, ou du marketing. Toutefois, c’est aussi incorrect, car une bonne partie du référencement n’est justement pas « technique ». Et cela reflète parfaitement la situation actuelle. Qu’en dit wikipedia ? : « techniques visant à apporter un maximum d’informations concernant le contenu d’une page web aux robots d’indexation des moteurs de recherche. »

En réalité le référencement (SEO en anglais) est une nébuleuse reprenant des éléments communs à d’autres actions visant, de manière globale, à faire connaître un site internet. Et son évolution, depuis une bonne quinzaine d’année a été spectaculaire : Il démarrait jadis avec une simple optimisation (au temps où les utilisateurs de Wanadoo se comptaient sur les doigts d’une main et beaucoup ne juraient (et croyaient encore) au minitel, à une suroptimisation parfois grossière et à présent totalement archaïque (comme le keyword stuffing)…

Il est ensuite passé par une phase d’expansion (on dira même d’explosion) du temps de la première bulle internet, fin 1990-début 2000, lorsqu’il était « in » d’avoir son propre site, sans se préoccuper d’interactivité (ce qu’on appelle aujourd’hui le « web 1.0 »). A cette époque, le terme de « référenceur »  et de « référencement » n’était plus connu des seuls initiés, mais toutes les agence de communications qui se lançaient dans le web en avaient au moins quelques notions. Un certain moteur de recherche, Google, était encore peu connu (arrivé en France en 1999). Puis 2010, la seconde bulle internet, qui ne prend sa pleine ampleur que vers la fin de 2011.

Aujourd’hui, Google règne (toujours) en maître sur le paysage mondial et particulièrement Français de la recherche internet. Beaucoup se demandent encore si faire un site qui plaît seulement aux internautes suffit. Erreur.

Car avant qu’un site internet soit vu par des êtres humains, il doit être « poussé » par les robots au seul niveau efficace des résultats de recherche : La « ligne de visibilité ».

Dans la pratique il s’agit toujours de la zone allant de la première à la 30 position sur la requête recherchée (soit la troisième page sur google).  Les non-professionnels de la recherche internet s’acharnent rarement au-delà. Quand aux veilleurs et autres professionnels de la recherche, ils connaissent les formulations et opérateurs leurs permettant un accès au « web profond » (au delà de cette « ligne de visibilité ») et se placent d’emblée hors de ce classement. Ils sont toutefois une claire minorité, joints par des geeks connaissant aussi des « hacks » de recherche. Les règles du marketing grand public les ignorent donc.

Veille et référencement aujourd’hui se répondent en effet sur la masse considérable de sites internet consultables du web (plus de 582 716 657 à ce jour (source: netcraft)). Le web « visible » n’a fait, sur chaque requête, que reculer, rendant la tâche de recherche de plus en plus difficile, ainsi que celle du référenceur.

La logique de prise d’information et celle des impératifs rentabilité et marketing se téléscopent ainsi et depuis quelques années ont fini par rendre l’utilisation d’outils de filtrage et de crawl complémentaires. Une nécessité pour bien des entreprises effectuant de la veille.

Si on ajoute au matraquage publicitaire via des services comme google adwords, les pratiques « limites » (aujourd’hui sanctionnées par Panda) comme les fermes de liens qui n’apportant aucun contenu, ou encore les résultats commerciaux qui (volontairement) brouillent les résultats « naturels », le travail du référenceur lambda, au budget limité, ne s’en trouve que plus ardu.

Aujourd’hui la profession de référenceur n’est plus inconnue de l’état ni des services publics en général, ce qui est un minimum s’il on songe à faire carrière et à s’y spécialiser. C’est même devenu un ensemble de spécialités, compliquant encore l’organigramme de l’équipe qui se cache derrière un webmaster. Le temps où le webmaster au singulier est bien révolu. Il faut en effet être à la fois webdesigner (codeur CSS et infographiste – deux cultures totalement différentes), Ergonome, Développeur (avec des spécialités qui se comptent par dizaines), Marketeur graphiste (communication), et rédacteur, et enfin référenceur (c’est à dire à la fois codeur sémantique, mapper, rédacteur SEO, linkeur, expert SEO social…).

Les fondamentaux sont toujours là (et encore plus après le lâcher de la ménagerie Google), du contenu, encore et toujours, faire un site « dans les guidelines google » c’est à dire faits pour les internautes. Le message de Google étant toujours de ne pas se préoccuper de leur robot crawler. Or,  les impératifs du moment pour les « grands comptes » imposent les premières places, quelque en soient les coûts. La guerre économique à depuis quelques années investi la scène internet, et les référenceurs s’y sont retrouvés en première ligne. Ce n’est pas pour rien qu’on parle aujourd’hui du remplacement du chef de projet webmaster (à l’ancienne, c’est à dire 70% codeur, 20% webmaster, et 10% référenceur), par un chef de projet SEO. L’évidence est qu’actuellement, le référencement supplante tous autres aspects du sites internet, et pour cause. Avec une telle masse d’information, la seule manière de parvenir aux premières places, de manière « naturelle », est bel et bien de confier le projet à un coordinateur issu du monde du SEO: Un site internet est fait de compromis et d’équilibrages.

Souvent la voix la plus forte (client, principal investisseur ou département marketing) n’était pas la mieux placée sur ces questions. Cela a durant des années fait les affaires de agences spécialisées en refonte de sites internet. Car sur les centaines de million de sites web, les plus anciens ont déjà changé presque entièrement plusieurs fois. Les « changements » d’un site web sont bien sûr avant tout de contenu « frais », préalable à une bonne réindexation régulière, à des ajustements permanents de différents éléments (pas seulement des retouches techniques) jusqu’à la refonte complète. On n’aurait pas l’idée actuellement de proposer un site entièrement en « flash », qui se se maintient que sur quelques types de sites internet de niche (ex. promotion d’un film). Globalement donc le mouvement a été vers la décrue du « tout graphique » vers un meilleur compromis. De nouvelles technologies javascript par ailleurs, SEO-friendly, ont aidé à cette mutation.

Le référenceur, au travers ces évolutions et la croissance fulgurante du web, semble être devenu le professionnel-roi d’internet (ou devrait-on préciser « reine » car elle est fortement féminisée), une acception à tempérer toutefois par la condition de bien savoir s’entourer…