viedoc

La conception de site web (seconde partie)

14 Mar 2014, Posté par D. Bocquelet dans Digital

Un « bon » site internet ne se décrète pas.

Même parfaitement optimisé il reste encore le plus grand chemin à faire avant d’en faire un outil réellement efficace. Lors de l’article précédent nous avions vu les démarches préalables et le brainstorming nécessaire avant la conception d’un site web. Toutefois, est-il besoin de justifier autant de temps consacré à ce dernier lorsque … la concurrence existe.

En effet, lorsque pour chaque domaine tout a été fait ou presque, et que l’on arrive bon dernier, on peux légitimement se demander s’il ne suffit pas de reprendre les recettes déjà utilisées dans tous les domaines, des accroches et rédaction marketing en passant par le graphisme, la philosophie et l’ergonomie.

-Quoi de plus semblable pour un site e-commerce vendant des accessoires informatiques qu’un autre ?

Surtout lorsque ces derniers sont basés sur les mêmes architectures (prestashop et magento entre autres) à peine personnalisées !

Ces « standards » déjà déployés largement et repensés, affûtés pendant près de 20 ans permettent effectivement aux professionnels du web et agences d’aller plus vite dans leurs propositions, et aux clients de cerner plus rapidement leur « cahier des charges » puisque les exemples abondent. Mon expérience personnelle m’a d’ailleurs amené plus d’une fois à dresser des cahiers de charges simplifiés sur le mode « je veux ça ».

Pour autant ce n’est pas parce que l’on débarque bon dernier sur un secteur ultra-concurrentiel que l’on va avoir forcément du mal à percer et justement que l’on va faire comme tout le monde !

La bonne vieille publicité à la rescousse

Bien sûr certains secteurs sont plus durs à percer que d’autres. On ne créé pas une nouvelle compagnie d’assurance tous les jours. Certains secteurs de la vente en ligne approchent de la saturation. Les concepts à la « -like » sont également saturés et peinent à trouver des financements. Toutefois en espérant que Google fasse son travail, il est toujours possible de percer en pensant « out of the box ». Il suffit d’avoir à la base un concept suffisamment original pour se démarquer justement de la concurrence.

Ce sont les règles de la publicité qui s’appliquent dans toute leur splendeur, et qui magnifient (et parfois inflexent) les idées du commanditaire. Se démarquer est un moyen de faire une impression durable sur des clients/prospects, tout en utilisant les mêmes méthodes marketing, ou en innovant. On joue sur des aspects spécifiques peu explorés, on manipule des leviers ça et là, de manière à renouveler le discours alors même que le fond reste le même (innovation incrémentale dans le marketing), ou bien on lance une idée radicalement nouvelle sur un secteur existant (innovation de rupture sur un marché).

Dans les deux cas (produit existant vendu différemment ou nouveau produit) ce genre d’innovation reste un risque. C’est un pari. Certains domaines accepteront plus facilement que d’autres des discours et propositions à la marge ou en rupture. Certains domaines sont plus conservateurs que d’autres, et pas forcément les plus attendus. Pour certains en effet, un discours en rupture aura l’effet même contraire à celui escompté. Or au lancement d’un nouveau concept on ne peut pas -si de gros investissement sont en jeu- se rater à la première réception; tandis qu’un site e-commerce vendant un produit très courant pourra plus facilement changer de ton si besoin est (changements de textes, nouveau Template…). Un site web conçu comme un outil et créé entièrement sur mesure dans une certaine optique de produit et cheminement marketing et ergonomique ne pourra être modifié aussi facilement.

Une bonne publicité qui aura pour base un site web devra donc prendre en compte les facteurs inhérents à la concurrence et au secteur concerné pour éventuellement conseiller le client sur les limites possibles et les « conventions » du domaine afin de diminuer ce risque. Une progression incrémentale (idée radicale mais faible investissement de départ) est un autre bon moyen de réduire les risques. On peut aussi « tester » le terrain en entourant une idée radicale de recettes éprouvées.

Si en revanche on souhaite faire exactement comme la concurrence, le seul levier restant étant une sur-optimisation pour correspondre le plus possible aux requêtes les plus populaires, reprendre de manière statistique les recettes qui fonctionnent et appuyer sur ce qui marche le mieux, ne négliger aucun levier, et avoir un budget conséquent notamment Google Adwords, la publicité directe la plus évidente.

Attention à l' »ergonomie standard »

Avoir un discours et un produit de rupture c’est bien, mais mélanger ça avec un site internet également complètement en rupture est un risque à ne pas courir. En effet voir quelque chose de différent et qui peut convaincre, mais ne pas trouver le moyen de poursuivre à cause de problèmes aussi prosaïques qu’un bouton mal placé ou ambigu, un cheminement contre-intuitif ou trop complexe ou pire, par de cheminement logiques visibles, sont des recettes pour une faillite assurée. Les rares cas ou l’on peut présenter une ergonomie atypique, très originale, voire même contre-intuitive à dessein sont ceux des créatifs, graphistes, webdesigners et agences de communication, qui doivent précisément se démarquer pour prouver leur savoir-faire.

Dans la plupart des secteurs marchands on s’attendra à trouver la même ergonomie partout, et l’usage généralisé des CMS à fait énormément pour leur standardisation. Par exemple on s’attendra à trouver les éléments suivants comme quasi-invariables sur tous les sites : Une page de présentation générale et des pages de contenus plus détaillés, un formulaire ou une adresse mail de contact,  une page de mentions légales (obligatoire) et éventuellement un « qui sommes nous ». Les deux dernières ne sont pas identiques (et souvent confondues). Sur un blog, on aura des thématiques associées à des articles, le fil des articles, un flux RSS et un moteur de recherche interne. Sur un site e-commerce, on s’attendra à trouver en plus un espace connecté de compte client, un panier, une page de CGV (Conditions générales de vente) et souvent aussi de livraisons/retours lorsqu’il s’agit de produits physiques.

La rapidité des internautes dictée par la force de l’habitude des internautes fera donc que l’on souhaitera optimiser son site en maximisant les aspects lisibilité/contraste, en plus du placement des liens et boutons le plus judicieux. Les techniciens pensent souvent « vitesse de chargement », alors que pour des sites de très grandes marques, des experts opticiens sont appelés afin d’optimiser le parcours des yeux et le jeu des contrastes, le tout basé sur des statistiques. Les cheminements ne se devront prêter aucun parasitage ou élément équivoque qui pourrait ne serait-ce que freiner très légèrement le passage de l’internaute au statut d’acheteur/prospect intéressé et actif. Un bon « cheminement » ergonomique et marketing est une planche savonneuse, très inclinée…

Ne négligez pas les aspects juridiques

Beaucoup d’internautes sont parfois scrupuleux sur cet aspect lorsqu’un doute s’installe (critiques mitigées ou absence de critiques, peu de communication…). A l’inverse bien des sites internet sont l’œuvre de webdesigners ou même infographistes souvent par nature hermétique au côté juridique. Or un des éléments de confiance négligée repose sur du « reassuring » dont les textes juridiques font partie. Un site sans mentions légales peut faire peur et fuir une clientèle potentielle. De même un site avec des mentions légales visiblement bâclées ou pire « copié-collé » et mal converties depuis un autre site fera la même impression, voire pire.

-Définissons d’abord la différence entre les « mentions légales » et la page « qui sommes nous ».

-Les mentions légales sont destinée notamment à dire qui est derrière le site internet, nommer le responsable de l’édition par exemple. C’est vital dans le cas ou du contenu extérieur est brassé par de multiples contributeurs, blogs, forums, espaces d’échange. Comme pour toute entité physique, un site internet a besoin d’un responsable en cas de litige, et un « rédacteur en chef » si les contenus sont internes. Pour la majorité des affaires concernant les droits d’auteur le responsable du site web souvent avait gain de cause en ayant défini son rôle comme d’organiser l’affichage de liens pointant vers un contenu extérieur et ont souvent des mentions légales très travaillées (parfois avec l’aide d’experts juridiques). Si une société est derrière, tous les renseignements administratifs la concernant doivent y figurer. Certaines se retrouvent au niveau du Whois, mais systématiquement, d’autant que ce dernier est parfois masqué. Mais si cette page sert aussi à se prémunir contre tout litige concernant les contenus externes transitant sur le site, il l’est aussi par rapport aux tarifications, imposant parfois de se renseigner directement si ces derniers sont inexacts en cas de site plus à jour par exemple. Techniquement, un internaute devrait passer par les mentions légales avant même de visiter le site… Ce que l’on fait lorsque l’on accepte d’installer un logiciel n’est pas passé dans les usages du web, et le marketing y gagne sans doute…  Un autre aspect devant figurer dans les mentions légales -souvent négligé- est l’obligation de mentions spécifiques aux bases de données acquises sur le site via un formulaire de contact. Tout site au moins en France, doit faire sa déclaration à la CNIL (Commission Nationale Internet et Libertés). Heureusement les procédures se sont très simplifiées selon le type de site. Mais tout site doté d’un formulaire doit préciser dans quelle conditions la base de données personnelles acquises lors de l’inscription sont utilisées (Certains sites peu scrupuleux les revendent en effet  à des tiers !) et précise la manière dont une personne inscrite pourrait faire radier ses données de cette base.

-Une page « qui sommes nous » (pas systématique) lorsqu’elle est bien séparée évoque plus sommairement la société, l’organisme, voire l’individu derrière le site web,  (contacts, mails, adresse, etc.) mais sans détails juridiques et parfois avec un aspect « philosophie » du site. C’est aussi une page qui rassure. Le web est anonyme, masqué par excellence. Avoir donc des noms, des contacts des adresses, rassure et participe au climat de confiance qui peut transformer l’internaute en client.

-Les conditions générales de vente et de livraisons. Mandataires sur un site E-Commerce, elles presque plus nécessaires au site de commerce lui-même qu’aux acheteurs, qui bien souvent cliquent négligemment sans les lire ces CGV-CLR pendant leur processus d’achat. Or elles servent aussi bien souvent pour le vendeur à se garantir d’à peu près tous les cas de figure qui pourraient survenir pendant la vie de son commerce en ligne. Bien travailler ses CGV-CLR permet donc de s’éviter par la suite bien des déboires avec les clients, des remboursements et des litiges. Bien travailler signifie aussi bien adapter ces textes à son cas de figure. Là encore faire du copier-coller d’autres sites n’aide pas forcément… Toutes les CGV ne sont pas utilisées par les sites E-commerce. Un site proposant par exemple des prestations intellectuelles avec un bon de commande doivent aussi travailler leurs CGV en connaissance de cause.

Et après …

Le site étant terminé, et sur le point d’être mis en ligne, c’est une autre bataille qui commence. Certes, ce n’est déjà plus de la « conception » au sens strict, on est déjà dans l’après-site. Mais ce serait oublier qu’un site web vit et évolue. Un bon référencement par exemple, s’appuie sur des statistiques de fréquentation (type Google analytics ou Xiti …) pour voir s’il y a des problèmes éventuellement dans le cheminement des internautes, et plus fondamentalement jauger les « signaux fort » et « faibles » qui permettent de se faire une idée des performances du site.

-Parmi les signaux forts, on notera bien sûr les chiffres de fréquentation en eux-mêmes (nombre d’internautes par jour, mois, etc.), que des données sur leur système d’exploitation/navigateur qui permettent le cas échéant d’adapter techniquement le site, la nationalité/langue et zone d’origine, mais aussi des données comportementales comme le taux de rebond, le nombre de pages visitées et leur cheminement sur l’ensemble des pages du site.

-Les signaux faibles se déduiront d’à peu près tous les autres indicateurs, souvent indirects, qui permettront de se faire une idée « marketing » d’un ciblage réussi -ou non. Qui commanderont alors les ajustements nécessaires

-Sur le plan purement technique côté « robot », Google webmaster Tools peut être un guide utile. Il y a également des quantités de sites d’audit gratuits qui proposent de parser le site pour en tirer des diagnostics SEO, balises, sémantique, liens, détails techniques divers, par rapport aux canons du SEO.

-Enfin il y a l’aspect financement du site même. Dans certains cas lorsqu’il n’y a pas de produit à vendre mais de l’information, l’usage de publicités (Google Adsense et en régies comme Trade doubler) constitue une solution, à condition que le trafic du site soit suffisant. On peut tourner autour concrètement de 200 € par mois pour un site à 10 000 visiteurs et plus par jour si les pubs sont bien « camouflées » dans le site. C’est très utilisé par les sites de partage/téléchargement. Cela ne paie pas le webmastering, mais tout au plus l’hébergement/nom de domaine.

-Autre aspect financement, du point de vue marketing : Faire du payant apparaître comme du « gratuit ». C’est tout l’art de l’Incentive, stratégie marketing très utilisée actuellement. On pourrait évoquer deux cas concrets : – Les sites proposant de faire son site gratuitement  et les applications (de type partage, social etc.). Les uns comme les autres ont des modèles économiques bien rodés. Les premiers imposent des publicités par exemple sur le site hébergé, qu’il faut payer pour masquer, ou bien des tonnes d’extensions que beaucoup trouveront utiles, voire indispensables à la longue, sans compter des « piqures de rappel » incessantes par mail. Pour les applications, le réflexe des utilisateurs sera de les considérer gratuites par essence. Mais bien souvent ces dernières sont issues des fonds de business angels ou de crowdfunding, et les fonds servent le plus souvent à faire connaître le site qu’à faire l’application ou le site lui-même… Une fois le trafic acquis, et les utilisateurs nombreux, on propose des fonctionnalités supplémentaires et au final on s’approche de solutions payantes. De manière générale sur internet rien n’est gratuit. Pensez toujours lorsque vous voyez des concurrents « quel est leur modèle économique ».

Mais tout ceci concerne le « on-site ». Le côté « off-site » est redoutable par son ampleur et ses marges de manœuvres, mais devient hors sujet. On évoquera donc pêle-mêle :

  1. La recherche d’une popularité réelle (lien « naturels ») ou factice (linkbuilding)
  2. La recherche d’une diversité dans les médias renvoyant au site (parfois avec 2 ou 3 niveaux intermédiaires)
  3. La recherche de moyens de promotions traditionnels (flyers, encarts presse, affiches, etc.)
  4. La recherche de moyens de promotions sur internet (vidéos, présentations (ppt…), documentations et leaflets PDF)
  5. L’utilisation d’infomerciaux (créer du contenu « utile » dans la même thématique mais renvoyant au site au final)
  6. La publicité on-line (Google Adwords et autres)
  7. Les jeux, concours, l’événementiel…
  8. Les techniques black hat…

Un sujet au cœur de l’expérience Viedoc Solutions.

 

 

Un flux d’évènements gratuit sur votre site

06 Mar 2014, Posté par D. Bocquelet dans Veille Salon

Viedoc vous propose d’enrichir votre site internet avec une liste actualisée et exhaustive d’événements professionnels internationaux, sélectionnés dans leur secteur ou métier. C’est un service de veille salon.

Il y a pour l’instant neuf domaines couverts pour ces événements : 

Les événements en question sont principalement :

  • Des salons internationaux
  • Des congrès
  • Des conférences
  • Des colloques
  • Des symposiums
  • Des journées d’échange
  • etc…

Comment cela fonctionne ?
On peut afficher sur son site deux types de « lecteurs » à la manière d’agrégateurs. Un grand et un petit. En fonction de leurs dimensions, ils n’affichent pas le même niveau de détail.

Le petit lecteur ci-contre >>
…va afficher le type d’événement et son nom, lieu et date. On peut cliquer comme pour un flux rss et accéder à la fiche complète du salon avec son descriptif et renseignements pratiques.

Le grand lecteur ci-dessous
…est plus complet, indiquant l’organisateur, périodicité, etc.

Les deux lecteurs intègrent une pagination.

Comment faire pour l’intégrer sur mon site ?
C’est facile. Il suffit de se rendre sur la page concernée de chaque secteur (voir liens plus haut), copier le  code d’intégration correspondant au type de lecteur choisi, puis l’intégrer dans sa page, soit en colonne par exemple (petit lecteur), soit en pleine page (ci-dessous). Vous pouvez adapter ce code selon vos besoins.


L’ industrie de la restauration est plus compétitive que jamais.
Dans une tentative de gagner plus de clients exigeants et à court d’argent, les chaînes de restaurants rapide US ont fais les frais de quelques innovations en 2013.

Des idées de ce qui se prépare à débarquer plus tard en Europe ?

1- Un McDonald à mi-chemin entre le petit déjeuner et les hamburgers :

Cette année, le géant de la restauration rapide a commencé à tester le « McDonald After Midnight ». Le menu comporte un petit déjeuner avec des McMuffins, oeufs, jus d’orange et pommes de terre rissolées – à côté des hamburgers et des frites. Le PDG Don Thompson a déclaré la marque aimerait servir éventuellement ce petit déjeuner tous les jours. C’est une étape importante dans la bonne direction.

2 – Applebee a tué l’un des aspect les plus ennuyeux de sa chaîne.

La chaîne de restaurant à l’esprit décontracté installe des tablettes pour payer directement dans ses magasins, laissant les clients payer sur ​​place et en éliminant la nécessité de produire un chèque.

3 – Burger King a créé une version améliorée du McRib:

Le « BBQ Rib sandwich » a d’abord été vu comme un rip-off du classique de McDonald. Mais la version de Burger King coûte seulement 1 $, comparé aux 3 dollars d’un McDonald.
Avec des clients comptant chaque centime, ce prix abordable est important.

4 – Taco Bell s’élargit petit à petit à l’échelle nationale.

Maintenant, tout le monde sera en mesure d’obtenir des articles Mex Californiens comme le Breakfast Crunchwrap et la gaufre Taco.

5 – Starbucks à mis à jour sa sélection de pâtisseries.

Starbucks a déployé la gamme Boulangerie – pâtisseries « La Boulange », qui est une grande amélioration sur les offres précédentes.
On peut voir ce mouvement aussi comme une étape pour offrir une gamme encore plus large, comprenant aussi le petit-déjeuner.

6 – KFC met le poulet en gobelet.

Le « Go Cup » permet aux clients de manger leur KFC en voyageant, y compris le poulet et les frites, dans un porte-gobelet.
Le concept est simple, mais aussi créatif. KFC affirme que 42 % des Américains seraient plus susceptibles de manger dans leur voiture si le récipient alimentaire s’adaptait au porte-gobelet.

7 . « La Meilleure chaîne de pizza » .

Une flopée de nouvelles chaînes visent à faire de la pizza ce que Chipotle a fait pour le mexicain. Ils offrent des produits frais et des pizzas faites devant le client, le tout en moins de cinq minutes. Besoin d’ une preuve de plus que c’est la prochaine grande innovation du secteur ? Nous avons récemment appris que Chipotle vient d’ouvrir une chaîne de pizza à Denver.

8 . Le nouveau menu « super-cheap » de Taco Bell.

Taco Bell vient de sortir un menu extra-économique comportant un plusieurs produits pour seulement 1 $ : Les menus taco Beefy, Cheesy, Spicy et Crunchy. À une époque où McDonald et Wendy mettent en vedette leurs menus les plus chers, cette accessibilité supplémentaire aidera Taco Bell se démarquer.

9 – Beignet sans gluten chez Dunkin’Donuts.

Le gluten est un complexe de protéine présente dans la farine de blé. Un nombre croissant de personnes sont allergiques à la protéine, et le menu « sans gluten » est devenu un régime à la mode aux USA. Le beignet devrait donner à Dunkin’ un avantage sur ses concurrents comme McDonald et Starbucks…

Un article traduit de l’anglais de rssagro – Source : Ashley Lutz – businessinsider.com, 23 décembre 2013.

Y-a-t’il un référenceur dans la salle ?

28 Fév 2014, Posté par D. Bocquelet dans Digital
SEO pour les nuls - Credits : moz.com

Le SEO n'est pas la tasse de thé de tout le monde - Credits : moz.com

Le fait d’avoir effectué un pré-sourcing récemment dans le domaine automobile m’a permis de constater à quel point les sites de ces entreprises étaient « mal chaussées » en matière de SEO, relevant 10 erreurs fréquentes.

Cette étude impromptue s’est basée sur un ensemble d’environ 1000 sites de différentes sociétés de l’automobile, depuis d’obscurs équipementiers de troisième niveau aux sites de constructeurs (près de 300 à l’heure actuelle), sites d’informations, blogs… Nous avons mis en place un système permettant de détecter et d’afficher le titre et la description pour simplifier ce travail.

1-Pas de description.
Sans doute la carence la plus flagrante de toute est le manque de remplissage des balises descriptives pour la page d’accueil, de type « content goes here » « description goes here » restants du CMS installé par défaut ou d’un webmestre quelque peu dilettante. Proportion : Un bon 50% des sites visités, mais souvent cumulés avec l’erreur numéro 6. La page d’accueil et son riche contenu se retrouvait reléguée au fond d’une arborescence au lieu d’être au premier niveau.

2-Pas de titre. Plus rare, mais néanmoins courant, et de manière surprenante, est le manque de balise titre remplie. La faute parfois à des pages par défaut affichant un flash servant de point d’entrée… Environ 15% des sites. Certains sites (près de 20%) combinaient les deux lacunes !

3-Balises non fermées. Dans certains cas (environ 10%), la balise titre (spécifiquement) n’était pas fermée correctement ou un caractère mal géré brisait la chaîne de termes employés dans la balise. Le problème est qu’un robot ne verra pas ou se termine le titre ou indexera une montagne de code peu utile. Ce type de bug est fréquent sur les CMS.

4-Balises mal utilisées. Dans certains cas des webmasters (ou webdesigners) peu au fait du SEO ont rempli la balise titre et/ou description de mots-clés à la chaîne, sans phrase construite ou d’accroche. Ce cas représentait environ 5% des sites.

5-Balises trop courtes. Près de 15% des sites présentaient un titre réduit à « welcome » ou « home » et une balise descriptive ne portant que le nom du site ou un slogan de quelques mots… Là encore, des CMS laissés « brut » au profit du style.

6- Homepage sur une URL exotique.
Sans doute provoqué par l’usage de CMS un peu datés, mal/pas configurés ou de type .asp/.jsp, certaines pages d’accueil affichaient leur contenu non pas sur l’url « normal » d’index par défaut (www.monsite.com) mais sur une URL exotique qui était en fait la création de la page d’accueil par défaut et sa redirection depuis le nom de domaine, de type : www:monsite.com/Gdfdf551_Node%gFModule/Main/#main/Gd445Jzeg-G4405ddg_Request?-04452_home
Pas vraiment SEO-friendly… Un bon URL rewriting est toujours utile. Ce cas de site se situait aux environ de 15%.

7-Homepage bourrée d’actualités. Au temps ou les webmasters ne juraient que par du « contenu frais en page d’accueil » en tentant d’émuler avec un site d’entreprise souvent statique par définition avec un blog, chouchou de Google, ce principe à fait quelques dégâts collatéraux. Certains sites n’affichent en effet que des actualités, parfois en deux ou trois types d’affichage sur leur page d’accueil, et pas forcément leur propres actualités ! Le problème le plus gênant se situe au niveau de l’utilisateur qui ne sait pas forcément ce que fait la société, et du SEO-même puisque le moteur n’a que des actus -souvent trouvées ailleurs- pour définir l’accroche du site dans les SERPs. Bien souvent il faut fureter à la recherche du « about us » pour avoir quelques informations de base. Ce cas est assez fréquent, jusqu’à 30% !

8-Portail en intro : Là encore, héritage de ce qui se faisait peut-être au tout début de la première bulle internet, beaucoup de sites n’ont qu’une page quasi vide avec quelques drapeaux pour s’orienter vers des versions locales « en dur ». Rappelons qu’une page d’accueil se devrait être bien remplie a priori et qu’il y a moyen de rediriger automatiquement selon l’ip de l’utilisateur, vers la partie du site /fr par exemple. Environ 8-10% des cas.

9-Site entièrement graphique ou en flash. Ces dinosaures du web sont encore bien là (environ 10-12%)… Bien évidemment dans ce cas est-il encore permis de douter de leur pertinence sur le plan du SEO ? Google lit le flash, c’est un fait, mais de manière désordonnée et par bribes, ce qui entraîne des surprises désagréables notamment au niveau des SERPs. Encore une fois, un site en flash ou tout graphique (textes en images, liens en images, etc.) n’a pas grand chose, voire rien, à donner à un moteur de recherche en termes de contenu… Si vous voulez du graphique, beau et animé passez au jquery qui est 100% SEO-compatible !…

10-Duplicate content. On ne présente plus cette erreur classique de débutants. Un même contenu sur /www.monsite.com, monsite.com, monsite.com/index.html, monsite.com/main/content/homepage.php et j’en passe. Peut-être 10% des cas, parfois même pour des sites importants comme http://byd.com/ et http://bydauto.com/…

Au final, bien des sites présentaient des problèmes de SEO (presque tout en fait), et ce dès la page d’accueil, ce qui n’inaugurait rien de bon pour le reste. Certains cumulaient même la moitié de ces points. D’autres (rares) affichaient même des dizaines de liens en bas de page de type casino/roulette, rachats crédits, assurance, produits de pharmacie ou voyance. Cela a permis de dater les sites également, dont certains semblaient « dans leur jus » depuis la première présence de leur société en 2000-2002. Sans doute seulement 10% du total étaient à la fois efficaces, solidement designés et SEO-proven (en général ceux des constructeurs hauts de gamme).

En conclusion le métier de référenceur attire sans doute toujours moins que celui de webdesigner et à de beaux jours devant lui, dans le business de la refonte de site ! …
Il faut aussi éduquer les clients pour ce qui est de l’utilité d’un bonne démarche SEO dès le départ et non après coup…

Retour sur le congrès PCD & Aérosol Forum 2014

20 Fév 2014, Posté par adminviedoc dans Veille Salon

Viedoc PCD
Cette année encore, le congrès PCD & Aérosol Forum a remporté un vif succès. Ce salon est devenu au fil des années la rencontre innovation packaging incontournable des professionnels de la cosmétique.

Plus de 3873 participants dont 220 sociétés exposantes en provenance d’une soixantaine de pays ont fait le déplacement (+ 14% par rapport à 2013).
Exposant pour la 2ème année consécutive, la société Viedoc a une nouvelle fois présenté à l’ensemble de la profession l’étendu de son offre dédiée à la veille packaging et cosmétique .
En effet, Viedoc propose aujourd’hui une offre unique en son genre, couvrant à la fois la veille salon dédiée au packaging , des outils de veille thématique (RSS Packaging et RSS Cosmetic) mais aussi sur mesure, sans oublier les prestations veille classiques – veille brevets & technologique, analyse concurrentielle, étude de marché, sourcing fournisseurs….
Travaillant aussi bien pour les marques (Dior, Chanel, L’Oréal, Shiseido, Make Up For Ever…) que pour les fournisseurs de packaging (Quadpack, Kurz, Pochet, Axilone, Aptar, Technicaps…), Viedoc est à présent un véritable partenaire des sociétés œuvrant sur ce secteur.

Nous tenons d’ailleurs à remercier vivement toutes les personnes qui nous ont rendu visite ainsi que l’organisateur de ce salon, la société ORIEX Communication et tout particulièrement son directeur, Jean Pierre Appert, sans qui cet événement, aujourd’hui immanquable pour la profession, n’aurait pas lieu.

– Deux sociétés ont remporté 1 an d’abonnement à notre outil Rss Packaging :
A l’issue du congrès PCD, nous avons tiré au sort deux cartes de visites parmi celles qui nous ont été remises par les personnes venues nous rencontrer sur notre stand. Nous avons ainsi le plaisir d’offrir 1 an d’abonnement à notre outil de veille thématique RSS Packaging aux sociétés Cosmogen et Seriplast qui rejoignent ainsi les nombreux utilisateurs et abonnés à nos services de veille.

Le Veilleur Virtuel, un concept d’avenir

13 Fév 2014, Posté par adminviedoc dans Outils

La veille dans les PME/PMI, une démarche indispensable et pourtant peu répandue.

Les notions de veille et les méthodologies à appliquer sont souvent méconnues au sein des entreprises de petites et moyennes tailles qui constituent pourtant le tissu économique de notre pays. Et quand l’entreprise est un tant soit peu sensibilisée à la veille, ce sont les ressources humaines qui font défaut.

Chez Viedoc, nous travaillons depuis des années avec des entreprises de toutes tailles, y compris des PME/PMI mais aussi des TPE, et nous avons bien cerné leurs habitudes, leurs forces et leurs lacunes dont la taille ne doit en aucun cas être un frein à la veille, bien au contraire.

En effet, la veille stratégique se révèle utile, voire indispensable, ne serait-ce que pour développer son activité ou pour survivre dans un contexte concurrentiel. Tout chef d’entreprise doit en effet, au quotidien, arbitrer et prendre des décisions qui sont cruciales pour l’orientation de sa société. On ne peut le faire à l’aveugle et c’est là que la démarche de veille prend tout son sens.

Disposer d’un outil de veille pour une PME/PMI reste une gageure et le budget à y consacrer en est la principale cause. L’offre professionnelle pour ces entreprises commence à peine à éclore, et elle n’est pas forcément toujours bien adaptée à leurs besoins et contraintes budgétaires.  Quant à la veille réalisée avec des outils gratuits, ce n’est pas non plus la panacée, puisque cela demande une bonne connaissance de ces solutions et surtout cela est très chronophage. On constate donc, que dans la majorité des cas, c’est une activité annexe d’un ou de plusieurs salariés puisque l’entreprise ne dispose pas de personne dédiée à la veille.

Cette activité diablement chronophage a un coût non négligeable que le cabinet Mindjet a chiffré (étude 2013) :

  • Tous les jours, 25 minutes en moyenne sont consacrées à la recherche d’information par personne
  • Tous les ans, cela équivaut à 95 heures de travail perdues par personne
  • Et cela se traduit par un coût de 1855 Euros par salarié et par an pour la recherche d’information …

Concrètement, pour une PME/PMI de 50 personnes cela représente donc une coût caché de 92 750 Euros par an

Ces chiffres démontrent bien l’utilité et surtout la nécessité pour ces entreprises de petite et moyenne taille à investir dans un outil de veille professionnel dimensionné pour leurs besoins.

L’outil Rss Sourcing a été développé pour répondre à ce besoin bien spécifique. D’un coût abordable démarrant à 900 euros/an, il agit comme un « veilleur virtuel » au service de votre entreprise vous alimentant en informations directement en lien avec vos centres d’intérêt. Personnalisable par chacun des utilisateurs, il dispose des fonctionnalités essentielles de recherche, collecte, surveillance, diffusion et partage pour mener une veille stratégique.

Les techniques du SEO black hat

13 Fév 2014, Posté par D. Bocquelet dans Digital

En SEO (Search Engine Optimisation) il y a clairement deux types d’agences professionnelles qui appliquent soit des méthodes « SEO white » (google) soit « SEO black hat », soit plus rarement les deux quand elles savent le faire, en fonction de la demande du client. Les professionnels du SEO font le distingo en effet entre des méthodes brutales « où le client en à pour son argent », meilleure place garantie pour des prix cassé, mais peu pérenne au final. Pour d’autres, qui sont près à y mettre le prix, les techniques white hat permettent de pérenniser un positionnement sur le long terme. Faire connaître un site internet requiert en tout cas de solides connaissances techniques pour son optimisation, mais le gros du référencement -n’en déplaise à google – se tient en dehors du site même. Outre les backlinks, et nombreuses manières de les obtenir, il y a également un certain nombre de techniques « borderline » ou black hat historiques qu’il peut être intéressant de connaître (juste pour son édification personnelle, google les frappe vite et fort.).

Achat de liens : Classique, mais comme c’est en général des annuaires par soumission auto, basse qualité, on à la quantité mais pas la qualité. C’est pire si c’est en beaucoup moins d’une heure. Toutefois la pratique du « webring » a été travestie et aujourd’hui des plate-formes identiques à ce qui se fait en annonce classique, des plate-formes, proposent de l’achat de lien avec rémunération au clic. Dans tous les cas, Google est nettement plus sensible aux liens payés ainsi qu’au guest-blogging commercial.

Achat de fans Facebook : Racheter une page Facebook populaire peut être très juteux surtout dans le domaine concerné (ex. vous faites une page Facebook sur le thème du Streetwear au travers des sneakers, et on vous rachète la page pour pointer sur un site qui en vends…)

Adresse email piège : Reprenant le principe des HoneyPot (spams arrivant sous des titres bénins ou camouflés par des personnes de votre weblist), ils vous attirent sur un site simplement pour booster sa popularité.

Adware : En principe un petit logiciel publicitaire (toolbar, etc) parfois spyware, installée à votre insu et installée sur votre navigateur en téléchargeant un autre logiciel. Font apparaître des popup et renvoie vers certaines pages web, « forçant » le référencement de ces dernières. Difficile à éliminer.

Auto-blog spamming : Cette technique bizarre consiste à profiter du contenu « naturellement spinné » de « généreux donneurs ». Il faut d’abord désactiver la prtection anti-spam d’un blog créé sur un nom de domaine et avec quelques posts sur un mot-clé porteur (jeux flash gratuit, viagra, crédit immobilier…). Puis laissez les spammeurs commenter allègrement. Ensuite parsez et moissonnez les contenus, supprimez automatiquement les liens sortants et republiez le tout. Du content gratuit.

Background spoofing : Technique préhistorique et maintenant universellement sanctionnée consistant à cacher des mots-clés pour accroître la crédibilité de la page (ne sont visible que des moteurs : Même couleur que le fond par exemple)…

Billet sponsorisé : Publi-reportage ou publi-blogging, un article « bénin » sur un blog populaire et parlant d’une marque ou d’un produit (le tout rémunéré). Souvent utilisé en e-réputation.

BotNet : Se dit d’un réseau de PC zombies utilisés pour envoyer des tonnes de spam ou cliquer sur des publicité adsense (fraudant la « popularité de l’annonce » et permettant d’en faire baisser le CpC)

Clic forcé : Obliger les internautes, pour obtenir une information, un lien, etc. de cliquer sur une bannière renvoyant à une site internet, créant de la popularité artificielle. Très utilisé sur les sites populaires de téléchargement et de streaming.

Cloaking : Une des plus ancienne technique serveur consistant à produire deux contenus pour des cibles différentes : Une page suroptimisée pour les moteurs et une autre page plus graphique pour les visiteurs. On peut également utiliser une adresse ou plusieurs adresses IP (on parle alors d’IP cloaking).

Content farm : Type de site suroptimisé pour le « contenu à la demande », produit du contenu pour chaque requête de l’internaute et profite de son ranking pour se rentabiliser par des publicités ciblées. Maintenant sanctionné par Panda.

Content spinning : Consiste à Modifier par le moyen d’un script un texte de base pour produire des centaines de variantes. Le but est ensuite de soumettre ces textes à autant d’annuaires pour faire du backlink.

Contenus cachés : Un autre grand classique, qui consiste à camoufler du contenu suroptimisé par les moteurs aux visiteurs « humains ». On peut ainsi cacher des liens javascript ou des mots-clés dans des balises alternative, le CSS, etc. Il est actuellement possible de produire une grande variété de contenus visible uniquement dans le code de la page grâce à l’avancement de techniques de programmation et d’affichage complexes.

Cybersquatting : Utilisé par les « coucous » du web, il consiste à déposer ou récupérer (plus rare) un nom de domaine très populaire pour profiter de la notoriété de la marque et ainsi booster le référencement de son contenu. Devient rare. La plupart des marques déposées ont actuellement réservé presque toutes les déclinaisons de leur nom de domaine, et n’hésitent pas à attaquer à bon droit même pour un nom de domaine phonétiquement proche.

Domaines jetables : Créer des sites de micro court terme sur des mots-clés populaires et les abandonner ensuite lorsque la tendance disparaît. Quelque chose comme tigerwoodssexrehab.com par exemple. Ces sites peuvent servir de tremplin pour du backlink, à condition que ce dernier soit « nettoyé » avant.

Donations juteuses : Très souvent les sites recevant des donations affichent les liens des donneurs. Pour certaines applis/sites populaires, cela peut devenir fort juteux…

Email phishing : Quoique utilisé souvent pour récupérer des mots de passe et données confidentielles (hameçonnage), ces faux mails de sociétés connues (comme paypal) peuvent aussi servir à envoyer l’internaute sur un site redirigé (c’est moins inquiétant quand on ne demande pas de données spécifique mais une simple infirmation importante à consulter). Très proche : L’email Spoofing.

Spyware : Plus utilisé en dark marketing qu’en référencement, ce petit logiciel est souvent installé avec une toolbar ou un logiciel bénin, à l’insu de l’internaute dont les requêtes et comportements vont être regardés à la loupe et envoyés à une centrale pour analyse, et optimiser ensuite le ciblage des campagnes.

Extracteur adresses email : C’est un petit utilisé utilisé pour « aspirer » (on dira détecter) les adresses mail d’un site entier (forum, etc) en les récupérant par des techniques souvent de hacking. Le but derrière est d’avoir des listes d’adresses mail valides, d’une rentabilité juteuse en webmarketing ou en spamming. Sachant que l’on peut renvoyer les adresses visées sur son site, cela peut être évidemment une technique de SEO prisée… Il est possible aussi d’utiliser des logiciel qui créent des combinaisons d’adresses ou directement vers des adresses type « contact@… » sur des millions de sites à fin également de spamming.

Farm links : Utilisant l’appétit naguère bien connu de google pour les liens entrant et sortants, ces sites ont un contenu sémantique entièrement ventilé à travers des liens, très nombreux, de manière à maximiser le poids de leur contenus.

Faux avis consommateur : Utilisé en e-réputation inversée à des fins indirecte de NSEO (negative SEO) : Donner des avis défavorables sur une entreprise/produit sur des forums, commentaires de blogs, etc. sous de nombreux comptes bidons et en masse. Condamné mais difficile à prouver (sauf par le tracking d’ip) et maintenant utilisé par certaines sociétés peu scrupuleuse pour couler leur concurrence. L’inverse est aussi vrai…

Folksonomie et UGC tagging : Par UGC on entends « user generated content », ceux qui utilisent bien obligeamment votre site internet, et reprennent vos contenus pour partager en les taggant (en y associant des mots-clés) sur les réseaux sociaux, aussi bien images que textes.

Google bombing : Utilisé plus souvent négativement que positivement, il consiste à faire remonter une page/site par association de mots-clés (requête), via une galaxie de sites et de liens dans le coup. Exemple : Celui qui a consisté à associer à la requête « miserable failure » le site de Geroge Bush en premier résultat, ou « trou du cul » la page facebook de Nicolas Sarkozy… Très utilisé en NSEO sous différentes formes.

Hoax : (« canular ») Faux messages pseudo-officiels ou simples rumeurs circulant par mails, twits et autres, consistant à dénigrer souvent un produit/marque. Très utilisé en E-réputation inversée.

Livraison d’IP : Offrir un contenu approprié localisé à ceux provenant d’une adresse IP spécifique au pays. Offrir à l’utilisateur le choix qui va bien. Shopping.com fait un excellent travail ici…

Mass following : C’est une technique artificielle de création d’audience via twitter en créant une masse de « suiveurs » ou d’abonnés bidons, créés par une multitude de comptes factices. Les informations « populaires » sur twitter sont ensuite plus facilement reprises par d’autres médias et google.

MFA : Ou « made for adsense ». Ce sont des sites au contenus pauvre pour l’internaute mais parfaitement optimisé à tous les points de vue de manière à capter les requêtes des internautes pour que les visiteurs repartent en ayant cliqué si possible sur un lien adsense. Panda demande actuellement plus de contenu « valable » (au détriment de son propre revenu !…).

Mouse trapping : Technique ancienne qui consiste à piéger l’internaute sur le site en désactivant par exemple l’action du « prédécent », la touche de retour, ou masque la barre d’adresse, forcer la redirection, etc. Actuellement sanctionné. C’est un moyen d’abaisser artificiellement (de manière très rustique…) le taux de rebond du site/page.

Opt-in passif : Se dit d’un choix précoché par exemple lors du téléchargement d’un logiciel par clic forcé ou plus souvent par formulaire. Cette case coché contient souvent « et j’accepte de recevoir les emails commerciaux de nos partenaires » Condamné par la CNIL en principe. Cela peut être un moyen de vendre des annonces par le biais d’une application populaire, mais aussi sur de nombreux services et annuaires.

Optimisation automatique de page : Certains CMS d’Ecommerce ont la faculté de créér des pages un peu comme les fermes de contenu, en optimisant leurs balises description, URL et keywords en fonction de la requête de leur moteur de recherche. Un concept qui peut être repris pour n’importe quel site de contenu, plutôt que de sortir une liste d’articles proches de la requête…

Parking de nom de domaine : Se dit d’un nom de domaine acheté puis abandonné par son propriétaire (non renouvellé). Le « parking » va consister à héberger le nom de domaine pour revente sur un site de type MFA pour garder le poids du référencement associé intact autant que possible, et ainsi de proposer un prix de revente très supérieur.

Piège à clics : Un autre moyen pour des annonceurs peu scrupuleux d’augmenter le trafic sur leur site/page, en plaçant dans leur popup d’annonce un faux bouton « fermer » ou assimilé. En pensant fermer l’annonce on est en fait redirigé vers le site.

Pixel invisible : Une image d’un pixel carré quasi invisible et souvent présente dans les mails et qui provoque une requête serveur informant les emetteurs du message du comportement de l’internaute (utilisé en médiamétrie, etc) : C’est une composante d’analyse très commune en e-marketing.

Post sponsorisé (et spamlinking) : Pratique très utilisée en SEO consistant à multiplier des backlinks sur des blogs permettant les commentaires plus ou moins modérés en affichant dans sa signature le lien de son site (voir plusieurs avec la technique de la « guirlande »).

Site Under : Une pleine page qui s’affiche derrière une page visitée « normalement » (sorte de popup d’annonceur moins voyant). C’est un autre moyen de multiplier les affichages et les liens vers son site. Souvent utilisé pour faire connaître des branches de son activité.

Slamming : Technique qui peut être utilisée pour récupérer un nom de domaine jugé « juteux » sur le plan du SEO en envoyant à son propriétaire un faux mail ou courrier expliquant que le nom de domaine arrive à expiration et l’invitant à le renouveller sur une autre plate-forme (de fait l’usurpateur récupère ce nom à son profit).

Spamcomment : Consiste à faire passer un lien ou un message souvent spinné dans un blog ou forum en général peu modéré pour faire « mousser » son référencement sur des requêtes particulières.

Spam referer : Technique de fabrication artificielle de popularité par un script ou logiciel le plus souvent, provoquant la simulation de visites venant d’un site internet à mettre en avant. La duperie vient en fait du fait que ces liens d’une site référent n’apparaissent que dans les résultats d’un indicateur de trafic : Le webmaster découvrant ce pseudo-trafic venant d’un site va alors visiter la page en question, et donc augmenter « pour de vrai » sa popularité.

Spamming de suggestions : Il s’agit d’insérer un résultat (une suggestion) dans la liste déroulante des suggestions de google de manière forcée. Soit pour booster la popularité de son site, soit pour faire du NSEO d’un concurrent. Les techniques qui permettent d’y parvenir passent par différentes techniques mais la plus simple est encore d’engager des « petites mains » en masse pour taper la requête associée. Rien ne sert de le faire soi-même, google détecte la provenance « physique » de la requête.

Splog : Un splog est un blog au contenu pauvre pour l’internaute mais suroptimisé pour google (notamment bourré de liens sémantiques riches et contenus spinnés en raccord avec le nom de domaine et/ou de requêtes les plus populaires). Le but est de truster les première places pour soit faire du lien vers un site « légitime », soit se monétiser par la publicité. Les blogs mis à jour fréquemment sont naturellement optimisés SEO.

Supercookie : Indirectement liés au SEO (plutôt au ciblage marketing), ces « cookies spéciaux » sont physiquement proche des cookies standards et peuvent être supprimés aussi facilement du cache de votre navigateur, mais sont utilisés pour tracker votre comportement.

Redirections 301 : Rediriger ses pages périmées vers des versions plus récentes ou vers la page d’accueil pour en garder le « jus ». Lors d’un déplacement vers un nouveau domaine les utiliser bien sûr de la même manière.

Texte caché (CSS) : Les scripts jquery très utilisé actuellement permettent parfois de « cacher » du texte entre différents éléments, qui apparaît dans le code (crawlé donc), mais ne se voit pas.

Typosquatting : Le fait de déposer un nom de domaine très proche d’un autre nom de domaine très populaire ou de très gros trafic (ex. goohle.com) en exploitant les fautes de frappes les plus courantes des internautes pour attirer du trafic. La tromperie s’accompagne parfois d’une habillage très proche sinon quasi-identique du site visé, un peu comme pour le phishing, pour que l’internaute ne reparte pas immédiatement.

User agent cloaking : Cloaking à partir de l’identification du user agent d’un robot d’indexation d’un moteur (La chaîne de caractères qui dans le cadre du protocole d’échange Internet et permet d’identifier l’application demandant des contenus à un serveur web..). La technique de l’IP cloaking est souvent préférée car moins surveillée/sanctionnée. La sanction d’un site pris en flag’ de cloaking peut aller droit au blacklist.

Webscrapping : Créer des versions miroirs de sites populaires par « pillage et reconstruction » pour profiter des similarités et divertir les requêtes des internautes vers vous. Avant de se faire pincer, revendre les sites aux propriétaires des sites « scrappés » pour qu’ils récupèrent leur jus.

A Paris depuis l’année dernière, le tissu entrepreneurial le plus dynamique provient principalement des startups évoluant au sein des nouveaux pôle constitués à Paris et Lyon, et se voit confirmé par des succès récents (introduction de Criteo en bourse), chiffres records pour Vente-privee.com, succès des objets connectés Français au au CES de Las Vegas en décembre dernier… Encore récemment Wired faisait la part belle aux récents succès de la sphère entrepreneuriale Francophone, Leetchi (plate-forme de paiement collectifs), Blablacar (plate-forme de co-voiturage), Melty (E-TV pour ados), AppsFire (Recommandations pour des développeurs), et d’autres plus anciennes comme Viadeo, Withings ou Deezer (qu’on ne présente plus)…

Pourtant l’attention des médias internationaux pour la « hottest startup capital » n’est pas dans l’hexagone, mais plus au sud, dans la bouillante Barcelone.

En effet, toutes les attentions se portent actuellement sur Barcelona.IO, le hub 2.0 d’où part les plus talentueuses des startups espagnoles, et ce malgré un climat économique toujours peu favorable,  et un manque de business angels. Le réseau de financement reste classiques : L’état Catalan, les Banques, les corporations et quelques sociétés d’investissements, toutes encore trop frileuses. Cependant Barcelone a des atouts. Un dynamisme et des idées avec de bonnes écoles, un niveau de vie moins onéreux qu’à Paris, une taxation plus légère et des règles d’embauche plus souples. Plus encore, l’espagnol est parlé dans la plus grande partie de l’Amérique du sud, et les Catalans sont aussi naturellement bilingues, et ont moins de mal a passer le cap de l’internationalisation d’emblée. Enfin et surtout, « Barcelone reste la ville la plus riche et la plus dynamique de l’Espagne, avec une vie culturelle vibrante et un climat plus avenant » (selon Christopher Pommerening d’Active Venture Partners).  Voici 10 exemples de ces startups (selon Wired.uk) qui ont eu le plus de succès :

– Social Point : Andrés Bou and Horacio Martos ont lancé un free-to-play sur facebook à grand succès en 2011, Dragon City (second meilleur jeu facebook en 2012), suivi par Social Empire et Pool masters. Ils ont fédéré autour d’eux un véritable écosystème de développeurs tournés vers les jeux sociaux. La première’application a été téléchargée deux millions de fois . Ces jeux totalisent 42 millions d’utilisateurs par mois. En moins d’un an, le trafic quotidien est passé de un million à 6,5 millions. Avec le modèle freemium, où les utilisateurs peuvent faire des achats sur les jeux, les revenus générés en 2012 ont été de 20 M $ (12 M £).

– Restalo :
Fondée en 2009, Restalo est le premier fournisseur en temps réel de réservations de restaurant en ligne en Espagne et en Italie. Fondateur CEO, Juan Otero a vu une occasion de remplacer la paperasse par un service en cloud:  « Avec l’augmentation dans les mobiles, les médias sociaux et les méthodes de micro-paiement, la technologie s’invite dans les restaurants et l’industrie alimentaire comme jamais auparavant ». Restalo génère des revenus mensuels de 2,2 M € pour ses restaurants. Les partenariats avec Google, TripAdvisor et Yell ont encore augmenté ce nombre.

– Kantox :
Fondée en Juin 2011 par Philippe Gélis et Antonio Rami, Kantox est un marché parallèle pour achats/vente des devises, avec des frais réduits. « C’est le contraire du marché des changes », pour Gélis. Kantox a échangé plus de 50 millions (£ 30.000.000) de dollars depuis Novembre 2011.

A surveiller :
1-Whisbi
Whisbi aide les marques de vente en ligne étroitement associées avec un service permettant aux équipes commerciales de parler aux clients via un téléphone à deux voies ou une conversation vidéo bidirectionnelle sans que le client ait besoin d’un logiciel. Les frais sont assurés par une taxe pour chaque entrée nouvelle dans leur système, ou par l’utilisation de leur propre agents vidéos.
2-yuilop
Yuilop est une application mobile offrant la possibilité de passer des appels gratuits et textos à d’autres mobiles – sans que l’autre utilisateur ait besoin de l’application. Les utilisateurs ne paient pas pour ces appels ou textos, mais génèrent une monnaie virtuelle, « énergie », en recevant des appels et envoyant des alertes. Le PDG et fondateur Jochen Doppelhammer espère élargir son appli à cinq millions d’utilisateurs, avec en prime un ticket d’entrée aux États-Unis en 2014.
3-Knok
Knok a jeté son dévolu sur les nouvelles modes dans de l’industrie du tourisme et des vacances. L’échange de maisons permet aux membres de rester gratuitement dans les maisons des autres. Les frais d’adhésions annuels de 95 Euros comprennent un nombre illimité d’échanges et couvrent tous les frais d’assurance. 20000 utilisateurs sont enregistrés avec un choix de 159 pays à visiter. Knok a soulevé 500 000€ lors d’un tour de financement privé en Mars 2013.
4-ChangeyourFlight
ChangeYourFlight permet aux passagers d’ annuler les billets d’avion non remboursables. La plate-forme regroupe les demandes des voyageurs pour des remboursements partiels sur des vols gratuits. Lorsqu’une demande est acceptée, l’utilisateur reçoit un remboursement et un bon pour un autre vol, tandis que la compagnie aérienne peut revendre la place disponible, aidant les deux parties.
5-Passnfly
Lancé en Février, Passnfly offre une solution numérique pour la vérification en vol. Il vérifie automatiquement l’affectation des passagers sur leur siège choisi et envoie la carte d’embarquement sur ​​leur téléphone mobile. Passnfly est en partenariat avec 200 compagnies aériennes, en expansion: Le fournisseur de services de voyage Amadeus estime 15% de tous les check-ins seront traitées automatiquement en 2015.
6-CloudWork
Lancé en Octobre 2012, CloudWork est un service basé sur le service Web Nubera, par les créateurs du marché indépendant de l’application getapp. Il permet aux petites et moyennes entreprises d’accroître leur productivité en connectant leurs applications d’entreprise, la mise en commun des données et des processus à partir de sources précédemment isolées telles que Dropbox et Twitter.
7-Akamon
Akamon est un acteur du social gaming à forte connotation locale:  Chaque fois qu’il s’ouvre à un nouveau marché en Amérique latine ou en Europe du sud, il développe de trois à cinq jeux à thème sur place, et correspondant à la culture locale. La société a été élu meilleur jeu de démarrage à GamesBeat 2012. Le groupe à produit un chiffre d’affaires de 8,5 millions de dollars (5 millions de £) en 2012.

Un article tech de rssintelligence.

Source originale : http://www.wired.co.uk/magazine/archive/2013/11/european-startups/barcelona

20 ans d’Internet en France et 10 ans pour Viedoc…

10 Fév 2014, Posté par D. Bocquelet dans Digital

A l’occasion des cinq ans de Viedoc Solutions et 10 pour VIEDOC en septembre 2015, c’est l’occasion de fêter son deux-centième site internet. Un premier site personnel était hébergé à l’époque sur Wanadoo. Puis bien d’autres ont suivis, qui ont vu défiler différentes technologies, avec a chaque fois des spécialisations exponentielle, de plus en plus pointues au fur et à mesure que cet univers virtuel d’étendait sur la planète. Un « big bang » reflété par l’explosion de la plus grosse bulle internet en 2000 (on passait de quelques millions à plus de 200 millions d’ordinateurs connectés dans le monde en quelques années). La France a accusé un retard sensible, du fait qu’elle était paradoxalement l’une des premières dans ces technologies avec le Minitel. Un retard bien rattrapé depuis. La France est en pointe notamment au niveau des applications et objets connectés comme démontré au salon de Las Vegas au mois de janvier dernier. La France n’a pas à rougir de sa position dans ce domaine, avec selon une étude récente, près de 60% des commerces

Sur le plan du web donc, tout a été fait ou presque par nos services, depuis les simples pages de « présence » sur le web, aux logiciels SAAS comme RSS sourcing et RSS Intelligence. Des e-commerces (sous presque toutes les architectures connues), des CMS (idem), des forums, annuaires, moteurs de blog, portails, nous avons tout fait ou presque, tout testé, tout expérimenté. Nous avons appris de la concurrence en matière de marketing, maîtrisé les dernières technologies tout en tentant de les rendre accessibles aux plus grand nombre d’internautes. Heureusement qu’actuellement, les nombreux hacks destinés à l’éternel cancre de la classe, Internet explorer, malheureusement populaire, s’estompent tant la qualité et la « compliance » avec les standards du W3C s’améliorent, en même temps que le parc informatique des sociétés (notre cible première). En effet, faire du web pour les particuliers n’est pas très difficile, ces derniers évoluant en général plus vite sur des machines récentes, avec des navigateurs à jour.

L’un des bouleversements les plus apparents du web récent concernent d’une part le jquery -famille de dérivés du javascript permettant des effets graphiques rivalisant avec flash, dans une technologie non « embeddée » (non séparée du code du site web), offrant un clair avantage au plan du SEO, et d’autre part le design « responsive », adapté à tous les médias possibles, en l’occurrence tablettes et smartphones. Le marketing a évolué, aujourd’hui on va droit à l’essentiel, et plus personne n’aurait l’idée d’intituler sa page d’accueil « bienvenue sur mon site ». Toutefois nous avons pu aussi voir que le SEO a encore de beaux jours devant lui vu le nombre de sites d’entreprises construits sans les plus élémentaires règles de référencement. A savoir n’ayant sur leur page d’accueil, ni titre, ni descriptifs. La faute aux webmasters, qui sont en réalité pour leur immense majorité des infographistes devenus webdesigners, et se faisant passer pour webmasters.

En réalité, le webmaster actuellement se doit d’être un homme orchestre, et bel et bien un chef d’équipe, tant les compétences nécessaires se sont spécialisées. Pour une grosse agence web, cette équipe comprend : Des développeurs (avec des sous-spécialités réseaux, data, applis mobiles, jquery, sans compter la base php-mysql…), un(e) infographiste pour le maquettage et un (des) webdesigner(s) spécialisé CSS et php/html pour l’intégration; des référenceurs on-site (technique, contenus) et off-site (ex. social manager), un(e) spécialiste E-marketing qui chapeautera cette partie, en charge de la com et du rédactionnel en fonction du cahier des charges client…

Et malheureusement rares sont les « webmasters » qui disposent naturellement de toutes ces compétences. En réalité certaines sont quasi-incompatibles. L’expérience nous a montré les fortes divergences de vue, parfois tendues, entre les infographistes, développeurs/intégrateurs et le SEO… Chaque site est en réalité un compromis qui tente d’arriver à 99% de ses objectifs en tirant le meilleur partie de toutes ces contraintes. Chaque site est une quadrature du cercle et le webmaster doit coordonner ces divergences et tenter d’obtenir le résultat final le plus proche des objectifs et du cahier des charges fixés par le client.
C’est en tout cas comment viedoc voit les choses. Passez nous voir à l’occasion !

La conception de site web (première partie)

07 Fév 2014, Posté par D. Bocquelet dans Digital

Internet en France à 20 ans. (Wanadoo et consorts ont commencé à proposer leurs services en 1994). La philosophie derrière la conception de site web depuis cette époque reste majoritairement technique, pluri-disciplinaire, avec cette question :

– A quoi doit servir ce site internet ?
Car aujourd’hui il est impensable de se lancer dans la création d’un site web sans avoir d’autre ambition que simplement « être présent ». La « présence » en effet était la préoccupation lors de l’âge d’or, de la première bulle internet pour la plupart des entreprises. Le web a évolué, et on est entré depuis des années dans la génération des « sites-outils ». Le chiffre d’affaire record de l’E-commerce à pleinement démontré la pertinence du web dans l’économie réelle.

Donc avant de se lancer dans toute démarche visant à créer son site internet, il faut bien se convaincre que c’est non seulement sa présence que l’on affirme mais aussi un puissant instrument de générations de prospects, voire de clients directs dans le cas de l’E-commerce. La plupart des sites internet étant aujourd’hui des blogs, des E-commerces, et des CMS pris au sens originel, ils ont tous comme point commun d’être basés sur une architecture existante. A savoir, une base de fichiers techniques se raccordant dans 99% des cas à une base de données. Le grand avantage de ces formules toutes prêtes -qu’ont bien compris les agence de communication- était de confier le soin au client et utilisateur final, d’effectuer lui-même ses mises à jour, tâches chronophages et difficiles à quantifier -donc à chiffrer- pour lesdites agences. Il faut ajouter un aspect supplémentaire de l’ère post-Panda, la montée en puissance du content marketing, qui fait du site devenu blog une machine à générer des leads.

En règle générale ces sites ont une base en php, avec des éléments séparés typiques tels que la partie haute et basses, répétées sur toutes les pages (généralement appelées « header » et « footer » respectivement), un corps central de contenu polyvalent, et aussi des « templates » maquettes d’habillage graphique passant par une feuille de style (css) et d’autres éléments. La base de données, qui contient tout (identifiants et mots de passe cryptés, noms, informations d’usage, et surtout contenus textuels de toutes sortes).
Parmi les points à aborder lors d’une installation, c’est souvent la version de php installée sur le serveur de destination qu’il faut connaître, sous peine de télécharger la dernière version du CMS et se rendre compte de son incompatibilité. Pour le reste on doit être en mesure d’accéder à un manager sur le serveur pour créer une base de données qu’il suffira ensuite de « raccorder ». Les installations de CMS modernes sont actuellement assez simple, il suffit que remplir quelques champs pour qu’elles prennent effet.

Il existe également un second type de site dont l’idée avait été lancée il y a plus presque 20 ans par les « portails de blogs » et hébergeurs. L’idée est que vous aviez un « espace » personnel avec un sous-domaine. Le « site » à proprement parler était le portail entier, sur lequel vous ne louiez qu’une fraction de l’espace. L’avantage des généreux hébergeurs ? Déjà à l’époque, du contenu donc du trafic, et de la publicité ciblée. L’expérience nous a montré qu’un site en sous-domaine chez un de ces portails de type « site gratuit » était en général le pire choix pour faire du référencement correct.

Ce qui nous amène au troisième type de conception de site web, celui que vous construisez de A à Z. Ce genre de site historique est souvent condamné aux extrêmes entre les sites faits sous wordpress ou pire, sous word, aux sites très hauts de gamme et entièrement sur mesure pour lesquels ils n’existent ni base technique ni templates. Entre les deux, il y a une galaxie de sites basés en tout ou partie sur des CMS et très modifiés. Le site sur mesure -disons-le clairement- est de loin l’idéal s’il on recherche la perfection en matière de site web. Il peut être réellement optimisé sans avoir à torturer une base existante. Tous les CMS ne sont en effet pas égaux en termes de rapidité de chargement, simplicité d’utilisation, et performances SEO. Il est donc bon de souligner que que seul un site maîtrisé de bout en bout sur le plan technique et contenu permet d’arriver à 100% de ses objectifs.

Voici donc le préalable à la conception d’un tel site web (réalisé par vous ou par un véritable webmaster; pas un installeur/habilleur de CMS):
Se poser, en tout premier lieu, la question de son utilisation finale.
-Va t’on faire de la vente ? Dans ce cas on s’oriente vers un E-commerce, de type Prestahop, Magento, et consorts.
-Va t’on faire un portail communautaire ou site d’association ? Dans ce cas un CMS complet de type Joomla, Drupal, et consorts, feront l’affaire
-Souhaite t’on faire simplement un forum ou un annuaire ? Dans ce cas aussi il existe des CMS spécialisés, respectivement comme phpBB et FreeGlobes…
-Souhaite t’on faire un blog simple ? -Blogger par exemple est une bonne option.
-Souhaite t’on faire un site d’entreprise et blog à la fois ? – Le choix le plus évident semble WordPress…

Etc. En simplement énumérant les différentes finalités du site on est amené à utiliser l’une de ses bases techniques, modifiée le cas échéant à grand renfort de modules et de personnalisation. Pour tous ceux qui ne rentreraient pas dans ces cases, le sur mesure reste une bonne option, si ses finalités sont connues.
S’il s’agit d’un simple site de présentation « about us », « services », « tarifs/prestations », etc. avec formulaire de contact pour capter les prospects, la plupart des CMS peuvent le faire. Mais dans certains cas, un site fait entièrement « à la main » est toujours utile.

20 best forums CMS ever

En effet, sur un plan purement technique, la conception de site web sur mesure est considérés généralement comme générant des sites plus rapides (nonobstant la qualité du serveur et de sa distance), tout simplement parce qu’ils sont « expurgés » alors que les CMS pour la plupart sont de grosses machines devant intégrer beaucoup de possibilités à la base, ce qui génère parfois un code assez lourd côté internaute, quoique les meilleurs aient fait des progrès nombreux à cet égard. Heureusement les modules permettent d’alléger ces noyaux, dans une certaine mesure. Gagnants également sur le plan SEO, car les CMS par défaut génèrent souvent des URL assez indigestes et ne sont pas toujours optimisé questions balises. Enfin, gagnants sur le plan de l’habillage du contenu interne (donc in fine, de l’efficacité marketing), car sur la plupart des CMS on est condamné aux possibilités laissées par l’éditeur Wysiwyg pour sa mise en page, qui de plus peut générer des balises redondantes ou inutiles, ou pire, supprimer des inserts de type vidéo ou audio. Un site sur mesure accepte lui du code « brut » (quoique’il puisse être fait en mode visuel sur Dreamweaver ou assimilé, puis corrigé en mode code), donc au final sans surprise et assez léger au final.

Une fois ces préliminaires techniques vus et fixés, reste la partie « marketing ».
Seconde grande question, par forcément liée à la première : A qui se destine ce site web ?
Cette question sous-tend deux points de forme et un point technique.

  • Sur le plan graphique. On ne s’adresse pas à tous avec les mêmes codes visuels, selon qu’il s’agit du sexe, de l’âge, ou du profil socio-économique de chaque prospect potentiel.
  • Sur le plan rédactionnel. De manière plus directe, et sans  même penser au référencement, comment s’adresse t’on à ces prospects potentiels ?
  • Enfin sur un plan technique. On n’aura pas les mêmes fonctionnalités ou manière de fonctionner selon ces mêmes profils. Il faudra adapter le site en conséquence.

Une fois que l’on aura fixé donc la liste des profils visés par le site internet (les ados, les seniors, les femmes, les PME ou grands groupes, les associations, etc.) et en affinant ces profils au besoin on obtiendra une ligne directrice solide aussi bien dans le fond que dans la forme. Ce sera la pierre angulaire du maquettage et de la recherche des textes à fournir, puis au final de la mise en page et du fonctionnement. Dans presque tous les cas de figure, il faut sur le site un cheminement clair et sans bavure vers le « call to action » en général un bouton bien en vue envoyant vers un formulaire d’inscription. Je ne reviendrai pas sur l’utilité d’une telle démarche. Ces prospects sont volontaires, intéressés, et ciblés. C’est du pain béni pour la prospection commerciale. Des doutes pendant la conception de vos maquettes et de vos argumentaires ? – Regardez la concurrence !

Troisième partie : Le SEO (référencement)

Une fois ce travail de marketing fait, il faut convertir ces contenus « textes » en contenus « pages ». Et c’est là que les connaissances en SEO entrent en jeu. Chaque page doit en effet contenir :

  1. Un contenu unique et bien identifié (voir aussi fonctionnement).
  2. Un URL très finement ciselé en fonction des mots-clés les plus importants du texte
  3. Un titre (balise) également bien dosé, souvent court (il doit accrocher, être efficace car il apparaît dans les SERPS*)
  4. Une balise descriptive (très importante car elle doit donner un complément utile et également aguicheur, quitte à passer le contenu SEO plus en profondeur)
  5. Des mots-clés (optionnel) très peu utilisés, mais chaque pourcentage compte. Pas d’abus.
  6. Un balisage de titres et sous-titres clair et bien segmenté (H1, H2, H3, <strong>, etc).
  7. Un texte mariant efficacité marketing et SEO (les mots-clés importants doivent y être !). Pas de redites si possible, clair et concis.
  8. Un contenu visuel en rapport, optimisé, de même que les liens (alt, title, nom de l’image, etc).

La suite avec la seconde partie…