viedoc

Rssaero, enfin sur Facebook

21 Juin 2013, Posté par adminviedoc dans Outils

Rssaero a enfin rejoint Facebook, le réseau social le plus fréquenté en France ! Vous pourrez nous rejoindre très facilement dans un esprit de convivialité pour partager des articles et vos commentaires sur Rssaero, ou tout simplement pour demander un conseil ! Pour rejoindre notre groupe, il vous suffit d’avoir un profil sur Facebook et de cliquer sur l’image ci-dessous !

 

A tout de suite sur Facebook !

Veille Salon au Bourget 2013

18 Juin 2013, Posté par T. Perran dans Veille Salon

VIEDOC par l’intermédiaire de son service Veille Salon, sera présent au salon du bourget, le cas échéant pour étudier les innovations et nouveautés présentes et présenter RSSAero, l’outil de veille spécialisé de l’aéronautique. On ne présente plus le Bourget, salon grand public et professionnel qui est l’occasion pour chaque avionneur de présenter leurs derniers appareils et d’emporter des contrats et aux fournisseurs de trouver des débouchés.

Voir la fiche sur veille salon

Voir le site du Bourget

La conception des sites web : Bilan

17 Juin 2013, Posté par D. Bocquelet dans Digital

Construire un site web aujourd’hui et hier n’a plus rien à voir et le marché de la conception de site web s’est profondément modifié, aussi bien du point de vue des acteurs impliqués que de la méthodologie et de la finalité:  Les sites eux-même ont changé. En tant que webmaster depuis 15 ans, voici mon point de vue à titre personnel :

– La technologie :

Le HTML 5 dont on nous à rebattu les oreilles est maintenant là, de même que le Responsive Design. Le premier est arrivé avec des promesses d’interactivité plus spectaculaire -ce que le Flash permettait autrefois, mais avec la différence d’utiliser une banque d’effets dérivés du javascript, Jquery, et surtout d’être SEO-compatible, et d’autre part se rapproche étrangement du tactile, ce qui nous amène directement au responsive design. Ce dernier contrairement à ce que le nom indique n’à rien à voir avec le développement durable mais est la traduction d’un maquettage et d’un webdesign s’adaptant automatiquement à tous les types de médias accédant au web : PC, tablette, et téléphone portable. Toutefois le HTML 5 ne concerne pas forcément les webmasters travaillant pour le web BtoB, et pour cause : Du fait du caractère assez statique des réseaux internes d’entreprises, IE8 est encore Roi (couplé avec Windows XP). « Toucher sa cible » implique donc de devoir se rabaisser à utiliser des techniques old school sous peine de ne pas être vu du tout, ou ben de proposer deux versions d’un même site. Merci encore Microsoft, de n’avoir pas respecté les standards du W3C…

L’un et l’autres sont des révolution allant globalement dans le même sens : Un web de plus en plus dynamique, universel, et user-friendly. Vous vous souvenez de ces scènes où l’on voyait Tom cruise manipuler des données avec les doigts devant un écran translucide (Minority Report, 2002) ? On y arrive. Le tactile s’est en effet abattu sur le marché comme une nuée de sauterelles. Les tablettes sont partout. Pour autant Windows 8 n’arrive pas à percer. Questions d’habitudes ? Toujours est-il qu’un cahier des charges de site web qui se respecte en 2013 intègre ces deux dimensions. Et le Responsive design et ses pourcentages à l’infini n’est certainement pas accessible au webdesigner amateur. C’est une activité qui réclame une calculette…

– Ergonomie standard

Depuis que le web grand public s’est imposé, et que le nombre de site internet à explosé, on a vu apparaître des « standards », qui se sont imposés et sont devenus presque incontournables selon le type de site internet, en grande partie dicté par des règles d’E-marketing. La partie « vitrine » ou « corporate », la Landing page d’un site obéissent en effet à des codes graphiques bien identifiés. Le modèle « trois pavés » et son carousel au-dessus (avec images XXL et phrases choc), le « footer » (partie basse, répétée du site) sémantique ultra-long sur fond sombre (son menu secondaire et sa ribambelles d’icônes sociaux) et le double « header » (partie haute, répétée du site) avec logo et slogan à gauche, menus à droite, sont en fait vus et revus, copiés et réinterprétés en permanence. Il en est de même pour les icônes, souvent très proches (login, déconnexion, user, contact, etc.). Du coup cette imitation forcenée créé en parallèle une « ergonomie standard », tellement prégnante sur le web, qu’il n’y a guère plus que les agences de communication (celles qui ont survécu à la crise) qui peuvent encore se permettre une certaine originalité, pour des raisons évidentes.  On note aussi parmi les « tendances » dictées par le marketing, la prédominance de blancs et de gris en fond sur lesquels se détachent des éléments de « captation » de l’attention (boutons et autres) généralement en vert pomme et en orange vif, le vert étant inconsciemment la couleur la plus incitative. Le style « en bandeaux » pour les sites corporate est aussi prédominant. Il est venu du webdesign de sites d’applications mobiles anglo-saxon et s’est ensuite généralisé. C’est une des conséquences de l’arrivée il y a presque 10 ans des écrans TFT, de plus en plus larges. Les sites modernes sont panoramiques, faits pour remplir l’écran, mais en même temps avec une partie centrale limitée en largeur aux configurations les moins généreuses (1024 puis 1280 pixels actuellement).

– Qui fait des sites web aujourd’hui ?

Vaste question. L’irruption du CMS dans les années 2000 a bousculé les codes et chamboulé le paysage des acteurs « traditionnels » du web, les Webagencies, elles mêmes sous-produits des agences Print qui faisaient appel à des développeurs (souvent free lance) au début de la première bulle internet. Le CMS (Pour Content Management System) est en quelque sorte la pâte à tarte de supermarché comparée à celle faite maison. C’est en somme un site prémâché, préformaté, qui à permis quand même de démocratiser la création de contenu sur internet comme jamais auparavant. Peut-être 95% des créateurs de contenus aujourd’hui n’ont jamais fait de code (html et autres). C’est ça la révolution du CMS. Le blogging n’est que l’un des ses aspects. La plupart des institutions, associations, organisations et sites corporate de PME-PMI utilisent des CMS que leurs ont personnalisés des agences de communication ou des webdesigners Freelances. L’avantage de la formule est que ces systèmes donnent une véritable autonomie à leurs propriétaires. Plus besoin d’appeler le webmaster, sauf pour un pépin ou une question technique. Les agences sont elle-même devenues des pourvoyeuses de service (elles réservent le nom de domaine, un hébergement, installent un CMS, le personnalisent, et éventuellement assurent un support derrière). Elle n’ont plus ce rôle d’intermédiaire -et éventuellement de conseil- quand aux contenus des clients. Le client est donc son propre éditeur, rédacteur, marketeur, fournisseur de visuels et référenceur… Et souvent les clients eux-même préfèrent prendre en main ces aspects eux-mêmes -quitte à y sacrifier du temps pour économiser de l’autre côté en prestations d’agences.  On comprend donc que dans la conjoncture économique récente très peu amicale et tendue, les agences migrent vers d’autres activités ou disparaissent purement en simplement. L’une des concurrence de ces acteurs traditionnels, agences et free-lance, aussi bien inattendue que massive depuis 5 ans est l’irruption de La Poste sur le marché du web, se reposant sur le succès et la notoriété des pages jaunes.  D’autres acteurs, aux méthodes commerciales efficaces mais discutables, ont disparues, comme CORTIX. La plupart des éditeurs de CMS avec « pignon sur rue » comme Joomla, Drupal, Worpdress et E-commerce comme Magento et Prestashop, proposent d’héberger directement les utilisateurs -s’épargnant de fait l’installation du CMS -parfois complexe pour des non-initiés. Enfin il y a les hébergeurs de sites faussement gratuits, en alternative aux portails de blogging.

– La méthodologie :

Cette dernière change bien entendu selon le type de site demandé par un client. Rares sont aujourd’hui, vu la puissance des grands CMS actuels et leurs nombreux plugins gratuits, les sites entièrement créés de A à Z. C’est pourtant parfois le cas, lorsque le cahier des charges est d’une telle complexité que la modification et l’adaptation d’un CMS serait plus longue et complexe au finale que la création du site à partir de la feuille blanche. En revanche, les points essentiels de la méthodologie n’ont guère changé. En tout premier, le site n’étant plus une simple carte de visite ou plaquette se contentant de faire de la présence, il est aussi un investissement -de départ et souvent et bien plus actuellement de long terme, devant amener des ventes directs ou au moins prises de contact, donc forcément amène à s’interroger sur son ROI (Retour sur Investissement). Une fois la question posée de savoir à qui est destiné ce site (a quels visiteurs il s’adresse), elle entraîne aussi celle de ses utilisateurs, ce qui a des conséquences multiples tant du côté marketing, que technique (Type, Fonctionnalités attendues…), et communication. Un des aspects, autrefois souvent amené à posteriori et maintenant pleinement intégré dès la conception d’un point de vue technique et par la suite en stratégie complémentaire du marketing, est le référencement (SEO). Avec la prédominance de Google comme moteur de recherche, ces stratégies évoluent vite et bien souvent les aspects de SEO techniques intégrés dans un cahier des charges long à construire sont obsolètes lorsque le site est enfin mis en ligne… Un autre aspect du SEO est que ce dernier soit être diversifié au possible et surtout actif sur le long terme, ce qui implique encore disposer de contenus frais sur son site, mais aussi d’être présent sur les réseaux sociaux.

Un article viedoc-solutions

Veille Salon à Make up in Paris

14 Juin 2013, Posté par Wanda Tardy dans Veille Salon

L’équipe Veille Salon pour VIEDOC sera présente au salon Make Up in Paris 2013, qui se tient du 20 au 21 juin dans l’espace prestigieux du Carrousel du Louvre.

Sans doute l’évènement de l’année dans le domaine du maquillage en Europe, Make Up in Paris pour sa quatrième édition accueillera cette année près de 150 exposants d’après les estimations, comprenant des marques, des fournisseurs d’ingrédients, process, experts du packaging, professionnels de la formulation, et attirera des centaines de professionnels de la R&D, marketing et achat. Make Up in Paris se double également d’un programme de conférences.

MakeUp In Paris sera l’occasion de découvrir les innovations de l’année et fera l’objet d’un rapport de veille.

Retrouvez ce salon et tous ceux des cosmétiques sur rsscosmetic.com

Viedoc à IEXPO

13 Juin 2013, Posté par adminviedoc dans Société, Veille Salon

VIEDOC est présente aujourd’hui à IEXPO, le salon de la veille et de l’IE qui se tient à Paris Porte de Versailles.

Une présence à la fois pour se présenter au public ainsi que ses dernières nouveautés et prendre le pouls de l’intelligence économique en France, ainsi que d’éventuelles innovations.

Le salon IE expo se tient du 12 au 13 juin à Paris, porte de Versailles. C’est avec Documation l’un des plus importants du genre en France et certainement aussi en Europe.

Veille Salon à Smart Grids (SG Paris) 2013

07 Juin 2013, Posté par T. Perran dans Veille Salon

Le salon des réseaux énergétiques intelligents (SG pour Smart Grids) 2013  s’est tenu les 4, 5 et 6 juin derniers à Paris, au CNIT de la Défense. Un consultant VIEDOC, s’est rendu sur place au bénéfice du service VEILLE SALON.

C’est l’un des premiers salons en Europe dans ce domaine prometteur et de nombreux exposants y étaient présents pour présenter leurs systèmes. Ce salon comprenait de nombreuses conférences et avait pour sponsor officiel EDF.

Rappel : Les smarts grids sont des systèmes plus ou moins complexes de gestion des réseaux d’énergies (électriques pour l’essentiel) qui ont pour objectif d’optimiser au maximum toute la chaîne la distribution, depuis la production jusqu’à la consommation, notamment en répondant le plus exactement à la demande, et en l’anticipant au besoin pour éviter les pics et surtensions dommageables pour le réseau. Les Smarts grids ont notamment l’avantage de permettre d’épargner le réseau et d’éviter d’avoir à effectuer des modifications coûteuses lorsque la demande s’accentue. Ces systèmes sont notamment fort utiles lorsque devant gérer l’énergie propre tributaire de la météorologie et d’autres éléments naturels, citons notamment le solaire, l’éolien, et la force des vagues.

Un rapport de veille attendu fin juillet sur les innovations et exposants les plus marquants de cet évènement.

Suivez les derniers comptes-rendus complets des salons et conférences de votre domaine par des experts, téléchargez des rapports de veille gratuits.

Arte a diffusé récemment un documentaire retraçant les débuts tumultueux et l’histoire de web depuis son origine.

Entre nostalgie et surprises, un documentaire d’une heure vingt diffusé à des heures indues, mais heureusement disponible ici :


Source : Zdnet : http://www.zdnet.fr/actualites/une-contre-histoire-des-internets-documentaire-a-ne-pas-manquer-39790935.htm

La mort du SEO

24 Mai 2013, Posté par D. Bocquelet dans Digital

Google Pinguin V2Voilà encore un bel exemple de titre choc du style prisé par les marketeux-bloggeurs…

Mais ce n’est pas un soufflé : Avec la sortie officielle de Manchot V2 (en réalité qui correspond à Pinguin 4), annoncé par Matt Cutts en juin et finalement qui arrive avec un peu d’avance, ça rue dans les brancarts, voire ça panique. Matt avait déclaré en effet en août 2012, je cite : « You don’t want the next penguin update », c.a.d vous allez prendre, très, très cher, et également en introduction que l’intention de l’ogre de Mountain View était de faire du « Jutting & Jolting », termes intraduisibles en Français mais qu’on peut comprendre comme étant une grande secousse du paysage SEO.

Evidemment passée l’annonce, on en est encore à deviner ses tenants et aboutissants exacts, mais on se doute sur qui va tomber le gourdin, notamment la guerre ouverte annoncée contre le « spamdexing ». Alors que les sanctions vont ressembler à la météo de mai, les changements sur beaucoup de sites ont commencé.

Premier du genre : Le retrait des backlinks du footer, un élément répété sur tout le site. (On peut aussi le passer en nofollow pour réduire le choc et attendre de voir). Pour le reste, il suffit de dresser la liste des techniques black hat (voir nos posts précédents) pour avoir des indices.

La mort du SEO ?

Un titre pas forcément excessif, car effectivement si Google multiplie les sanctions, les référenceurs « actifs » (ceux qui jouent la carte des backlinks à fond et sous toutes ses formes), vont se retrouver obligés de passer par le désaveu massif, voire d’y renoncer ou de faire un tri entre les liens selon leur qualité. Gageons aussi qu’il y aura aussi pas mal de redirections 301… En tout cas beaucoup de travail en perspective, surtout pour ceux qui étaient d’abord préoccupés par leurs contenus, et sans doute trop. Certain(e)s jetterons sans doute l’éponge et une page aura été tournée. Celle du référencement industriel et du métier même de référenceur. Et si le paysage SEO montre effectivement uniquement des sites « douteux » garnis de publicités google adwords restent au top, gageons que l’hypocrisie du moteur sera au comble et une révolte de grande ampleur fera irruption. D’un autre côté si des sites « spammy » (avec plusieurs millions de liens montés en quelques mois) testent au top on en déduira que les blackhatteurs ont encore de beaux jours devant eux, et Google, du travail.

Les webmasters sont-ils désarmés ?

Non, bien sûr que non. Ils peuvent choisir d’aller faire indexer leur site ailleurs, c.a.d notamment sur bing-bling. Googlebot trouverait porte close via htaccess et robots.txt. Iraient sur google uniquement au final ceux qui veulent des contenus commerciaux « maison » et faisant partie de leurs cercles (nb. google+ n’a jamais réussi à s’imposer), et ceux qui font des recherches, sur Bing, à moins que le moteur de Microsoft qui lorgne du côté du modèle économique de son rival, lui emboîte le pas. On assisterai alors à l’arrivée d’un nouveau moteur open source, commençé honnêtement, le temps, lui aussi peut-être de trouver son modèle économique… Derrière tout ceci se profile une certaine maturité du web, devenu foncièrement bridé et foncièrement commercial en même temps. Don’t be evil.

La fin du référencement : Une aubaine pour le web.

Oui, ce serait aussi un corollaire de la guerre ouverte de google au SEO. Une étude de 2011 de l’observatoire du web montrait que près de 70% des contenus hébergés sur le web comprenaient du porno et du spam, et 80% du trafic mail contenait du spam. La charge financière liée à l’hébergement de ces sites spammy est considérable. Toute la logique du Black Hat SEO qui consiste à industraliser la création de contenus artificiels, sans intêrét pour les internautes, à seule fin de générer des masses de backlinks sémantiques (et donc in fine de la popularité aux yeux de google), occupe un volume d’espace sur internet absolument redoutable. On pourrait comparer cela à vivre au milieu d’une énorme déchetterie. De plus les victimes collatérales de la guerre que livrent les FAI contre le spam et de mettre dans le même panier des émetteurs « cleans » et « spammeurs », au grand désespoirs des premiers qui voient leurs mails légitimes envoyés au panier ou bloqués sans ménagement, particulièrement ceux des FAI concurrents. Les hackeurs qui utilisent des PC zombies et passent d’une IP à l’autre, les squatteurs spammeurs d’hébergements mutualisés, font du tort au reste de la communauté.

A méditer…

Les 25 erreurs les plus fréquentes en SEO

20 Mai 2013, Posté par D. Bocquelet dans Digital

Allez, encore un « top », c’est toujours une bonne accroche…

Vous vous êtes sans doute demandé, si vous aviez fait tout le nécessaire pour que votre site internet brille sur la toile. Référencement naturel impeccable, pas mal de backlinks en dur, un blog et des réseaux sociaux pour faire le buzz… Et bien non, ce n’est toujours pas ça !

Pas mal d’erreurs, presque insignifiantes, le plus souvent indirectes, peuvent impacter votre efficacité. Non je ne vous ferai pas l’affront de parler de l’erreur de débutant par excellence, l’URL non canonique. Vous allez voir ici des choses plus sounoises…

1. Google AdWords Tool réglé sur la recherche large (« Broad Match »)

AdWords réglé par défaut en ce qi concerne la surveillance des mots-clés en mode « requête large », vous fournit des données inutiles du point de vue SEO – inutiles en ce que les nombres sont tellement gonflés en incluant d’innombrables combinaisons improbables  incorporant le terme de recherche spécifié. Par exemple, l’analyse rapporte 30,4 millions de requêtes pour « chaussures », mais comprend des phrases de plusieurs mots comme « chaussures de ville », « chaussures en cuir », « chaussures à talons hauts,» et même «fers à cheval» (« Horse shoe »), «chaussures de neige , « et » segments de frein (« Brake shoe »).  »

En mode Exact, le volume de requêtes de recherche pour « chaussures » tombe à 368.000. La différence est frappante ! – Alors rappelez-vous toujours si vous faites des recherches de mots clés pour le référencement dans l’outil keywords d’AdWords: décochez la case à côté de « requête large » et cochez la case « exacte ».

2. Interdire (disallow) alors que vous vouliez Noindex

Avez-vous remarqué des SERPs (pages de résultats des moteurs de recherche) Google sans titres ou extraits? Cela arrive lorsque votre fichier robots.txt a refusé Googlebot de crawler une URL, mais Google sait encore l’URL existe parce que les liens ont été trouvés pointant là. L’URL peut encore classer des termes relatifs à l’ancre texte dans les liens pointant vers des pages non autorisées. Robots.txt contient des instructions de ne pas crawler le contenu de la page, mais pas d’instruction de ne pas déposer l’URL de l’index.

Si vous placez un meta robots noindex meta tag sur la page, vous devez autoriser les spiders à accéder à la page de sorte qu’il peuvent voir la balise meta. Une autre erreur est d’utiliser l’outil de suppression d’URL dans Google Webmaster Tools au lieu de simplement « noindexer » la page. Rarement (voire jamais) l’outil de suppression devrait être utilisé à tout bout de champ. Notez également qu’il y a une directive noindex dans le REP (Robots Exclusion Protocol) à qui obéit Googlebot (officieusement).

3.  Paramètres URL SERP et Google Instant

Je viens d’écrire sur les paramètres que vous pouvez ajouter à Google SERP URL. Des personnes se plaignent de ne pas être en mesure d’ajouter des paramètres à la fin de Google SERP URLs comme & num = 100 ou & pws = 0 – depuis que Google Instant est apparu sur la scène. C’est facile à résoudre : Il suffit de placer Google Instant en mode « Off » et les paramètres d’URL fonctionnent à nouveau.

4. Ne pas utiliser le vocabulaire de votre client

Votre client n’utilise pas forcément (voir pas du tout si c’est du jargon) le vocabulaire d’une industrie ou d’une spécialité professionnelle. Ils n’ont jamais utilisé l’expression «électrique culinaire » dans une phrase, malgré le fait que c’est le terme acceptée par l’industrie pour les petits appareils de cuisine. Votre client effectuer rarement une recherche répondant à votre façon de penser mais plutôt un recherche logique intuitive. Par exemple, j’aurais deviné que le pluriel « appareils photo numériques » battrait le « appareil photo numérique » singulière requête en volume – mais c’est l’inverse en fonction des différents outils de Google. Le bon choix devient évident après une petite gymnastique, mais souvent c’est la politique intérieure ou l’inertie d’une société de conserver la terminologie moins populaire en place (par exemple « Sweat à capuche » quand « capuche » est ce que les gens recherchent).

5. Rater la phase de keywords brainstorming

Trop rarement le plan du contenu d’un site a été tiré d’un keywords brainstorming. Ce dernier peut être aussi simpliste que l’utilisation de « Google Suggest » (qui autocomplète ce que vous tapez dans le champ de recherche) ou Soovle (qui autocomplète simultanément à partir de Google, Bing, Yahoo, YouTube, Wikipedia, Amazon, et Answers.com). L’idée est de penser latéralement.
Par exemple, un fabricant de meubles de bébé découvre la popularité de la requête « nom de bébé » grâce à un examen des termes populaires commençant par «bébé» et décide de construire une section de son site dédiée aux termes connexes (« les tendances de noms de bébé », « nom de bébé significations », »noms de bébé les plus éculés », etc.)

6. Correspondance des URLs avec des mots clés, mais pas dans l’autre sens

C’est la procédure d’exploitation standard pour cartographier toute le contenu du site relatif à des thèmes-clés (parfois appelés mots-clés primaires, termes de recherche populaires, ou « mots d’or ».) Ce qui n’est pas si commun est de commencer avec une cible (ex. le plus désiré) dans la liste de mots clés et la cartographie de chaque mot-clé pour la page est alors la plus appropriée pour classer ce mot clé et ensuite optimiser le site autour des paires Key-to-URL.

Par exemple, « restaurants végétaliens à Phoenix» pourrait être pertinent pour cinq pages différentes, et le meilleur candidat est alors choisi. La structure de liens internes est alors optimisée pour ne favoriser que le meilleur candidat, à savoir que les liens internes contenant le texte d’ancrage sont orientés vers le meilleur candidat plutôt que de se répandre à travers ces cinq pages-candidats. Cela rend beaucoup plus de sens que de rivaliser contre soi-même sans aucun des pages gagnantes (Un pur exemple de « dilution de jus »).

7. Mettre en place un blog hébergé gratuitement

Les blogs gratuits hébergés comme WordPress.com et Blogger.com offrent un précieux service. Plus de 18 millions de blogs sont hébergés sur WordPress.com. Ils ne sont toutefois pas un service idéal si on se soucie de SEO ou de monétisation. Ils ne sont pas assez souples pour installer votre propre choix de plugins ou des thèmes et framework pour constituer un tueur en référencement et surtout d’URL (par défaut en sous-domaine de wordpress ou blogger).

Mettre un ensembles d’annonces AdSense sur votre blog WordPress.com est contraire aux Conditions Générales d’Utilisation du service? C’est bien mieux de vous procurer un hébergeur et d’installer la version auto-hébergée de WordPress si vous avez le plein contrôle sur la chose…

8. Ne pas correctement désactiver Google personnalisation

Il n’y a déjà pas mal de temps, Google a commencé à personnaliser les résultats en fonction de l’activité de recherche pour les utilisateurs non-enregistrés. Pour ceux qui pensaient que l’utilisation non connectée de Google était suffisante pour obtenir des résultats non personnalisés, j’ai des nouvelles pour vous: Ce n’est pas le cas. Pour remédier à la chose, cliquez sur « Historique Web » dans le SERPs de Google, puis «Désactiver la personnalisation basée sur l’activité de recherche ». Ou sur une requête individuelle, vous pouvez ajouter & pws=0 à la fin de l’URL Google SERP (mais seulement si Google Instant est éteint, voir ci-dessus).

9. Ne pas se logger aux outils gratuits google

Certains des outils basés sur le Web que nous utilisons tous régulièrement, comme Google Trends, restreind les fonctionnalités ou donne des résultats incomplets (ou moins précis) lorsqu’on est pas loggé sur son compte. Google AdWords Keyword Tool indique très clairement: « Connectez-vous avec votre AdWords pour voir la liste complète des idées pour cette recherche ». Il serait sage de tenir compte de l’instruction.

10. Ne pas lier vos meilleurs pages avec vos meilleurs termes sur la page d’accueil

Les catégories que vous affichez sur votre page d’accueil devraient être pensés en termes de référencement. Même avec votre nuage de tags si vous en avez un. Et les «produits populaires» que vous pensez. Dans votre esprit, traduisez «Produits populaires» en «produits pour lesquels j’ai le plus envie d’aller au sommet de Google. »

11. Ne pas retourner un code d’état de 404 lorsque vous êtes censé le faire

Il est important de retourner un code d’état 404 (plutôt que 200 ou 301) lorsque l’URL demandée est clairement fausse/inexistante. Sinon, votre site sera moins digne de confiance aux yeux de Google. Et oui, Big brother vérifie aussi cela.

12. Ne pas construire des liens vers des pages qui pointent vers vous

De nombreux référenceurs amateurs négligent l’importance de bâtir des liens vers des pages qui pointent vers leurs sites (lien indirects). Pour les sites commerciaux, il peut être difficile d’obtenir des liens qui pointent directement vers votre site. Mais une fois que vous avez acquis un lien fort, il peut être beaucoup plus facile de construire des liens vers cette page de liaison et ainsi vous pourrez profiter de l’avantage indirect.

13. Aller plus haut avec la copie et/ou des liens signifiants pour les spiders

D’innombrables sites ont des paragraphes de « DC » (duplicate content) en dessous du pied de page ou « footer » (c’est à dire après la déclaration de copyright et mentions légales) tout en bas de page. Souvent, ils intègrent de nombreux liens sémantiquement riche. Ils peuvent même traiter chaque lien avec les balises gras ou fort. Est-ce que c’est aussi évident que ça? Je suppose que si vous mettez un commentaire HTML qui le précède immédiatement comme « nourriture à spider pour le SEO » (Peut-être « Insérer ici le spams de keywords pour Google ici » pourrait être plus à propos?)

14. Ne pas utiliser la balise canonique

La balise canonique peut ne peut pas toujours fonctionner, mais ça ne peut certainement pas faire de mal. Alors allez-y et utilisez-les. Surtout si c’est un site de commerce électronique. Par exemple, si vous avez un produit mappé dans plusieurs catégories résultant de plusieurs URL, la balise canonique est une solution facile, voire indispensable.

15. Ne pas vérifier votre IP avant d’y installer votre site.

Si vous achetez une maison, vous vérifiez parfois les écoles de la région et les statistiques de criminalité, non? Pourquoi ne pas faire la même chose lors du déplacement sur un nouvel IP ?. Majestic SEO est un vérificateur de quartier IP. Ceci est particulièrement important pour les hébergements mutualisés à bas coût. Vous ne voulez pas être sur la même adresse IP (hébergement mutualisé) avec un tas de sites de spammeurs/blackhatteurs/porn/warez ?.

16. Faire trop de liens internes

Diluer votre jus SEO tellement que seulement un mince filet bénéficie à chacune de vos pages. Le PageRank d’une page ou de l’article doit profiter aux sujets connexes non à tout sous le soleil (c.-à des centaines de liens).

17. Confiant les données dans Google Webmaster Tools

Vous avez remarqué que les données de Google Webmaster Tools ne coincident jamais avec vos données d’analyse? Faites confiance plutôt à vos données analytiques plutôt que les données webmaster tools.

18. Soumettre votre site à l’examen du public lors d’une conférence où des ingénieurs de Google sont présents

Doh! (Insérez la voix de Homer Simpson ici.) Sauf si vous êtes absolument sûr de vous que rien de bizarre ne se passe au sein de votre site, c’est à peu près une mission suicide. Corollaire: parler à Matt Cutts lors d’une conférence sans couvrir votre badge avec des cartes de visite. Notez que cette erreur a été fourni par un type que nous appellerons « Leon » (vous vous reconnaissez, « Leon »!)

19. Cannibaliser la recherche biologique avec PPC

Payer pour le trafic que vous auriez obtenu gratuitement? Oui ça doit faire mal. La recherche biologique et la recherche payée sont synergiques et/ou parfois cannibales, il faut le savoir.

20. Confondre Causalité & corrélation

Quand certains disent ils ont ajouté des balises H1 à leur site et ont vraiment amélioré  leur classement Google, la première question que je pose est la suivante: «Aviez-vous déjà un H1 présent et changé juste une balise en H1, ou avez-vous ajouté une manchettes riche en mots clés qui n’étaient pas présents avant? « C’est généralement ce dernier. Le texte riche en mots clés en haut de la page coïncide avec la prééminence du mot-clé (lien de causalité). La corrélation avec la balise H1 n’a pas bougé l’aiguille.

21. Ne pas penser en termes de votre (hypothétique) Google « feuille de rap »

Google ne suit pas une « feuille de rap » de toutes les transgressions au sein de votre réseau de sites, mais ils serait stupide de ne pas en tenir compte. Soumettre votre site aux annuaires 800 robots sur une période de 3 jours est tout simplement stupide. S’il est assez facile de voir un grand pic dans vos backlinks entrants, alors il est certainement assez facile pour Google de repérer ces anomalies.

22. Ne pas utiliser une variété de texte d’ancre

Il est judicieux d’utiliser une variété d’ancres dans votre texte, car il faut que cela ait l’air naturel. Pensez en outre diversité de liens.

23. Traiter tous les liens indiqués dans Yahoo Site Explorer comme « suivis »

Ne me demandez pas pourquoi YSE comprend des liens nofollow dans ses rapports, mais il le fait. Beaucoup d’utilisateurs d’YSS pensent à tort que tous les liens présentés sous l’onglet «inlinks » passent du jus.

24. Soumission d’une demande de réexamen avant tout soit clean

Cela peut ne pas être super-commun, car de nombreux référenceurs n’ont jamais présenté une « demande de réexamen » de Google. Et heureusement pour eux. Mais si c’est votre cas, alors assurez-vous que tout -et je dis bien tout- a été correctement nettoyé et que vous avez bien documenté dans votre soumission.

25. Soumission aux sites sociaux d’un compte utilisateur non connu

Rien ne va plus vite que de planifier la soumission d’un utilisateur inconnu sans histoire, sans followers, pas « street cred ». Les utilisateurs avancés restent la règle, refonte DIGG ou non.

Source : www.searchengineland.com, S. Spencer, traduit et adapté.

Un outil de veille au service de l’innovation maritime

13 Mai 2013, Posté par D. Bocquelet dans Outils

L’Innovation au niveau du secteur maritime est une réalité, voire une obligation : Les ressources maritimes sont en partie maltraitées (surpêche, pollution…), mais aussi en partie sous-exploitées.

Pour un milieu qui couvre les 3/4 de la planète, cela concerne, entre autres,  les matériaux (minerais) et les énergies marines :

MATERIAUX : L’exploitation des filons de grand fond. Le cas le connu, ce sont les nodules polymétalliques des grands fonds, au niveau du rift pacifique et atlantique.

ENERGIES : Outre l’exploitation pétrolière, qui devient plus difficile à mesure qu’elle se raréfie, bien plus prometteuses sont les énergies renouvelables.

EAU : Le traitement des eaux usées (qui finissent dans les océans) comme celui des besoins croissants en eau douce, obligeant à concevoir des usines de désalinisation de de traitement de l’eau de mer de plus en plus performantes et durables en alternative aux sources naturelles.

TRANSPORT : Sur le plan technologique, des progrès dans l’économie des moteurs (diesels), et la forme des carènes, notamment le fameux « bulbe d’étrave » qui permettent des économies substantielles, ne sont que deux aspects parmi les champs d’ innovations possibles.

INDUSTRIE HALIEUTIQUE : le secteur de la pêche est contrait à une sélection plus sévère des espèces et à une réglementation sans cesse plus contraignante. En revanche l’halieuculture (aquaculture) demande de nombreuses innovations pour compenser la surpêche.

CONSTRUCTION : Navale ou nautique, les innovations proviennent du domaine des matériaux, des moteurs, des systèmes informatiques de repérage, de la conception et  et de la construction (modularité, etc.)…

Pour tous ces domaines, l’innovation est nécessaire, pour ne pas dire indispensable. C’est bien souvent plus qu’une simple question de survie. Pour aider à accompagner ces entreprises, un outil de veille spécialisé existe depuis 2010 : RssMaritime.

Destiné aux professionnels, à des PME-PMI par son coût attractif, c’est un solution complète comprenant un sourcing considérable de près de 400 flux RSS qualifiés par des experts et classés (ex. motoristes pour la plaisance), et plus de 1000 sites internet d’information internationaux pour un surveillance plus exhaustive. L’outil comprend une page d’actualité personnalisable, sources et bookmarks (sites internets sans flux RSS), un moteur de recherche multicritères puissant, des fonctionnalités de partage et d’échange autour des actualités, des tableaux de surveillance personnalisés, des statistiques de recherche avec un filtrage dynamique, et un système d’alertes mail sur mesure qui peut être configuré aussi comme une newsletter.

La veille maritime au service de l’innovation peut donc passer par un outil de veille. Tapez simplement « outil de veille maritime » et essayez RssMaritime.