viedoc

Les Big Data, c’est l’explosion de données numériques générées par chacun d’entre nous (mails, cartes bancaires, téléphones, caméras, …) et la révolution numérique liée à leur traitement, ultra-rapide, grâce à des supercalculateurs. Dans un documentaire diffusé récemment sur Canal+ et intitulé «Big Data: les nouveaux devins», le réalisateur, François Lescalier, explique que l’explosion des données est une révolution majeure sous-estimée en France. Il est vrai que les Big Data génèrent un volume d’informations très important qui peut être exploité à différentes fins et notamment pour tenter de prédire, voire influencer, les comportements des citoyens et consommateurs que nous sommes.

Mais concrètement au niveau des entreprises qui constituent le tissu économique de notre pays, l’exploitation des Big Data a-t-elle un sens ? La majorité des entreprises doivent-elles et surtout ont-elles les moyens d’analyser ces masses données ?Chez Viedoc, nous ne sommes pas convaincus de la nécessité pour les entreprises d’investir dans les Big Data et nous pensons que la vraie valeur provient de ce que certains appellent les « Small Data », c’est-à-dire les informations réellement utiles et stratégiques pour une entreprise.

Les entreprises qui s’engagent dans la voie des Big Data, pénètrent dans le monde des statistiques et de la science des données et se retrouvent vite face à un certain nombre de pièges et de limitations. Les partis pris et écarts dans le recueil des données, le manque de prise en compte du contexte et le traitement erroné des données peuvent rapidement amener à des conclusions qui sont infondées et surtout qui ne font en fait aucun sens au regard de la problématique étudiée.

En matière de veille, il est illusoire de croire que plus il y a de sources d’information mieux c’est.

Face à l’infobésité de l’information, le temps passé à trier et sélectionner les informations recueillies de façon à dénicher celles qui nous intéressent vraiment par rapport au sujet traité a considérablement augmenté. Ceci est d’autant plus vrai que le contenu qualitatif, celui qui apporte une information originale, au sens strict du terme, et de qualité est chose rare sur le Web. Combien de personnes nous disent chaque jour ne pas avoir le temps de lire les newsletters auxquelles elles sont abonnées par faute de temps…

Chez Viedoc, lorsque l’on fait une étude sur un sujet précis, la première étape est consacrée à la collecte d’information à partir de mots clés identifiés et définis en amont. Cette collecte ne peut en aucun cas être exhaustive, et ce qui importe alors avant tout c’est d’identifier les sources d’information les plus pertinentes. On est là bien au cœur des « Small Data » qui sont en fait un nombre limité de sources d’information hautement qualifiées qui vont permettent de rationaliser et optimiser le temps passé à analyser les données.

Il a été démontré qu’au-delà d’un certain volume, le bénéfice généré par la collecte de davantage de données diminue au point que le temps passé à en recueillir encore plus est tout simplement inutile.

En matière de veille stratégique, il faut donc opter pour des sources d’information très qualifiées et actualisées régulièrement.

Personne ne peut nier la nécessité des données, mais nous sommes convaincus qu’investir dans l’importance supposée du volume des données n’est pas la bonne méthode pour la majorité des entreprises. L’intelligence économique, et par conséquence la prise de décision, repose en effet plus sur des aspects tels que la qualité des données et l’importance du contexte que sur le volume de données traitées.

La priorité doit donc être mise sur la pertinence des données recueillies, et non pas sur leur quantité. De toute façon, l’immense majorité des entreprises n’a pas les ressources nécessaires pour analyser un grand nombre de données. La seule solution pragmatique pour ces entreprises qui souhaitent tout de même mettre en place une démarche de veille stratégique est donc la suivante :

  • identifier et mettre en surveillance des sources d’information clés soigneusement sélectionnées pour la qualité des informations diffusées
  • limiter l’utilisation de filtres en amont de façon à ne pas éliminer trop rapidement des informations potentiellement pertinentes utilisant un vocabulaire différent du sien

En conclusion, pour ne pas être noyé sous l’information il suffit d’avoir un bon corpus de sources clés associé à un outil de veille simple d’utilisation.

Avec de la méthodologie et du temps, tout un chacun est en mesure d’identifier des sources d’information à l’aide des moteurs de recherche classiques. Cependant si vous n’avez pas les ressources en interne pour mener à bien cette démarche, ou si vous préférez confier cela à des professionnels, les consultants experts en veille de Viedoc peuvent vous assister avec :

  • des packs sourcing secteurs (maritime, automobile, aéronautique, cosmétique, agroalimentaire)
  • des packs sourcing métiers (textile, environnement, packaging, matériaux)
  • des prestations de sourcing sur mesure

 

Daymon Worldwide -marque de détail et d’approvisionnement géante aux USA- a publié début janvier 2014 les résultats de ses études « hommes en mission », révélant six types de profils marketing axés sur une « mission » d’achat et définit des archétypes de consommateurs inédites révélant l’évolution des rôles de genre et des comportements d’achat…

Selon l’étude, 52% des acheteurs de sexe masculin aux États-Unis sont personnellement responsables d’environ 78% cent de tous les produits non-alimentaires achetés pour leur ménage dans le dernier mois, de sorte qu’ils représentent une énorme opportunité financière pour les détaillants prêts à répondre avec des produits et des services personnalisés.

« Alors que les femmes et les mères ont longtemps été la cible traditionnelle pour les détaillants d’épicerie, les hommes et les pères représentent maintenant une occasion d’affaires importante… » déclare la directrice de Daymon Worldwide, Carla Cooper. «Nous avons vu quelques unes des dernières études de consommation «en instantané» des acheteurs de sexe masculin qui ont quantifié ce segment démographique, mais nous étions convaincus que nous devions fournir à l’industrie une analyse plus complète de qui exactement ces derniers sont, ce qu’ils pensent d’eux-mêmes et comment ils diffèrent les uns des autres. Ce sont des blocs de construction qui peuvent permettre aux détaillants et fabricants de jouer sur la bonne combinaison de produits et de services afin d’optimiser les achats et d’augmenter la fidélité ».

Pour donner un aperçu plus détaillé sur le comportement d’achat des hommes, Galileo Global Group, de Branding Daymon a dépêché une étude nationale représentative grâce à un questionnaire en ligne rempli par 1000 américains de 18 ans et plus qui satisfont à certaines exigences :

  1. Être personnellement responsables d’au moins la moitié des achats de nourriture et boisson pour le ménage,
  2. Achètent au moins l’un des 10 aliments et boissons pour la maison
  3. Ont acheté au moins un aliment et boisson la semaine avant la participation au sondage.

Selon le le chef de projet Marketing Andres Siefken de Daymon Worldwide, les résultats sont très singuliers: « Près de 50 pour cent de tous les hommes américains font des achats basés sur la « mission » d’emmagasiner un article ou un groupe d’éléments, y compris des denrées spécifiques pour le ménage», explique Siefken.  » En outre, 60 pour cent des acheteurs de sexe masculin sont personnellement responsables de tout ou presque en matière d’épicerie pour leur foyer. « Les hommes ne sont pas égaux – les attitudes changent selon une segmentation bien spécifique ».

Selon l’étude, les clients masculins peuvent être segmentés en six archétypes en fonction de leurs attitudes et leurs sentiments sur les rôles de genre, la cuisine et les achats pour leur ménage. Tous ces archétypes effectuent des achats axés sur une « mission » mais chacun avec une perspective légèrement différente. Ceux-ci comprennent:

• Les traditionnalistes 15%) – Un groupe d’hommes qui sont plus ancrés dans leurs habitudes et voudraient revenir en arrière vers des rôles plus traditionnels entre les sexes. Ce sont de grands fans de la cuisine maison, mais faite par leur compagne.

• Les modernes (12%) – Ce sont les acheteurs masculins les plus avant-gardistes, ceux qui croient en l’égalité, profitent de leur participation active dans le partage des tâches ménagères et à la cuisine. Ils apprécient également de repas cuisinés au foyer, mais pourraient préférer être chef la plupart du temps.

• Les mâles Primaux (14%) – Ce groupe a tendance à être plus âgé et croient souvent qu’ils sont le sexe dominant et peuvent mieux gérer les rôles pour la cuisine et les courses par rapport à leurs homologues féminins.

• Les hommes Confus (19%) – Ce groupe de jeunes hommes a tendance à être dans un état de confusion quand il s’agit de rôles de genre. Peut-être inconsciemment, ils pensent que les femmes doivent faire la cuisine et le ménage, mais en partie ne veulent pas offenser les femmes, et se tournent vers le moyen de les apaiser. Ils ont également souvent confrontés à un problème d’identité et hésitent à montrer leur côté féminin.

• Les Hommes dicernants (20%) – Ces hommes très instruits commandent habituellement un revenu plus élevé et partagent de nombreuses caractéristiques similaires à l’archétype moderne.  Comme ils croient aussi en l’égalité, en soutenant leur conjoint de toute façon nécessaire, et effectuent un grand nombre de tâches ménagères. Ils sont plus impliqués dans les achats de nourriture, et se dirigent vers de la plus haute qualité. Ils sont également un peu plus susceptibles de puiser dans leur côté féminin.

• Les Homme « chahutés » (20%) – Quoique assez semblables au groupe des confus, ces derniers font de leur mieux pour éviter les conflits et se plieront à la volonté des femmes dans leur vie. Ils croient fermement en l’égalité, le partage des tâches ménagères et n’ont pas peur de montrer leur côté féminin. Mais ils ne veulent pas remettre en question les femmes dans leur vie et peuvent même se sont sentis « battus » dans leurs relations passées.

« Tous ces acheteurs masculins abordent la tâche des achats d’épicerie très différemment de celle des femmes… » dit Siefken . «Ils sont beaucoup moins susceptibles de faire des listes, découper des coupons de réduction ou regarder les inscriptions en magasins, mais vont passer plus de temps à faire des courses réelle. Ils sont aussi plus susceptibles de les faire seuls – Un luxe que de nombreuses femmes avec enfants n’ont pas – et préfèrent l’après-midi, et en cours de semaine – hors mercredi. Tous ces comportements offrent des perspectives inestimables pour les détaillants intéressés à personnaliser leurs offres pour attirer et retenir ces clients de sexe masculin.  »

Une segmentation des besoins :
Chacun des six archétypes disent effectuer régulièrement six types de déplacement d’achats « axés sur une mission » précise, et certains d’entre eux plus régulièrement que d’autres. Ces missions peuvent être décrites comme suit :

• Le Nerd-shopper (13%) – Cet acheteur cherche à se procurer des articles qui montrent qu’il se soucie de leur bonne gestion des courses pour le foyer, profitant d’occasions spéciales qui lui permettront d’impressionner leurs familles et amis tout en appréciant le processus d’achat. L’acheteur de type « Homme confus » tombe souvent dans ce segment.

• L’homme des cavernes (10%) – Ces acheteurs masculins ont une approche moins sophistiquée, de type « rechercher et récupérer  » et effectuent un shopping habituellement en préparation d’une occasion pour se divertir, ou organiser un rassemblement plus informel par exemple pour des événements sportifs, des soirées de jeux, ou traîner avec des amis. L’archétype d' »Homme Primal »  tombe souvent dans ce segment.

• A la demande (23%) – Ce sont les acheteurs-consommateur  recherchant quelque chose de simple et rapide, à but précis et immédiat. Ceux qui vont sur ces types de « missions » cherchent à acheter quelque chose de rapide pour le dîner, soit en épicerie ou à emporter dans un restaurant. L’archétype du « Classique » tombe souvent dans ce segment.

• Le sportif (13%) – Faire les courses est une occasion de profiter d’un mode de vie sain. Ces acheteurs sont prêts à prendre leur temps pour explorer le magasin et pour trouver leurs offres de produits sains préférés, ou même essayer quelque chose de nouveau. Le « discernant » et le « chahuté » tombent souvent dans ce segment.

• La Gestion de foule (26%) – Cette mission appelle à de plus solides occasions d’achat visant à trouver quelque chose pour tout le monde à la table. Ces derniers sont généralement effectués tôt dans la journée, et impliquent une planification et une navigation avec la recherche d’options d’achats. Le « Moderne » tombe souvent dans ce segment.

• Souvent homme varie (15%) – Les occasions d’achats sont  aussi celles d’essayer quelque chose de différent. C’est une composante de l’acte de faire les courses d’être à la recherche de quelque chose hors de l’ordinaire. L' »Homme confus » tombe souvent dans ce segment.

Bien que la plupart de ces acheteurs arrivent à l’épicerie, 20 pour cent vont également en supermarchés, 12 pour cent passent par la vente à emporter en restaurants 16 pour cent dans d’autres types de débits.
« Armé d’ informations précises et détaillées sur la population des consommateurs, les détaillants et les fournisseurs américains peuvent fournir des produits et des services qui les inciteront à revenir pour plus personnalisation », pour Siefken. « Afin de puiser dans chacun des archétypes et leur mission correspondante, il y a des implications spécifiques pour chaque détaillant unique en fonction de son marché et de sa stratégie.  »

Un sujet basé sur alerte web rssagro.com, basé sur une étude de www.daymon.com, traduit et adapté de l’anglais.

Les fonds affluent dans l’Internet des objets, construits autour de capteurs intelligents connectés à Internet. Mais le sens le plus riche de tous, la vision, est resté en grande partie ignoré, et utilisé dans l’industrie seulement pour une petite fraction de son potentiel. La vision est resté isolée dans un recoin technologique du développement des machines intelligentes, tandis que les autres sens avançaient rapidement.

Jusqu’à récemment, la vision par ordinateur – la plus largement utilisée dans la fabrication – et les technologies de l’informatique grand public ont existé dans des mondes parallèles. Avec d’autres technologies productives, la vision par ordinateur a tendance a être calibré spécifiquement pour la machine, au matériel piloté, et fait peu de cas de l’usage de l’Internet. Beaucoup de progrès que nous tenons pour acquis dans l’informatique moderne grand public – connectivité omniprésente, stockage illimité en cloud, aperçus tirés de masses de données non structurées – doivent encore être appliquées au monde l’usine en général et à la vision par ordinateur en particulier.

Il n’est pas surprenant quand on sait que jusqu’à récemment, la plupart des logiciels de vision numériques ont été créés par des fabricants de matériel de vision par ordinateur, construits sur des systèmes embarqués sans API ouvertes. Ce qui vient à l’esprit quand vous pensez au logiciel qui a été fourni avec votre scanner, votre routeur Wi-Fi, et le système de navigation de votre voiture ? Volumineux, peu flexible et peu intuitif. Le logiciel n’est rien de plus que d’un utilitaire nécessaire au fonctionnement du matériel .

Mais ce monde fermé est en train de céder face à une convergence de technologies émergentes :

  1. La prolifération de capteurs à bas prix et de senseurs caméra pixel haute densité
  2. Les implémentations ouvertes des algorithmes de vision, l’apprentissage de la machine et des outils statistiques
  3. Une puissance de calcul croissante peu onéreuse, devenant pratiquement illimitées dans un cloud

Ces technologies offrent toutes les matières premières nécessaires à un un changement massif dans la manière dont la vision par ordinateur est opérée. Ce changement concerne le passage d’une concentration sur la matière première des données visuelles – les pixels et les bitmaps générés par des caméras spécifiques – à l’extraction de données à partir d’images et l’utilisation de techniques statistiques et scientifiques des données à tirer de ces enseignements.

Cette nouvelle approche de la vision par ordinateur trouve un puissant potentiel au sein de la renaissance de l’industrie manufacturière américaine, mettant l’accent sur des cycles de production rapides et une personnalisation de masse. Considérant que l’ usine américaine typique a été construit autour fonction reproductibles, systématique, la fabrication moderne est axée sur ??la flexibilité, l’adaptabilité et une plus grande efficacité. Nous sommes passés d’Henry Ford déclarant « de n’importe quelle couleur qu’ils veulent tant qu’elles sont noires » à Moto X (Le téléphone de Google) fabriqué aux États-Unis et livré dans les quatre jours configuré sur le client.

Des exigences de qualité implacable :

Ce besoin de flexibilité sur la ligne de fabrication est cependant en tension avec les exigences de qualité auxquelles les fabricants font face de manière implacable entre le haut de l’industrie et le bas des chaînes d’approvisionnement. Malgré des investissements considérables dans le contrôle qualité, les constructeurs automobiles ont rappelé presque autant de voitures que de voitures vendues aux États-Unis en 2012. Ford et General Motors ont effectué des opérations de garantie de quelques 5,7 milliards de dollars en 2012, plus de la moitié des 10,5 milliards comptabilisés en résultat net… Les constructeurs automobiles sont en train de payer les fournisseurs en fonction de Benchmarks de défauts par millions, éliminant ceux qui tombent en dessous des seuils, et en repoussant leur responsabilité afin d’effectuer des réclamations jusqu’à leurs fournisseurs.

Alors que l’automatisation a transformé une grande partie de la fabrication manufacturière, une part encore surprenante du contrôle qualité se fait toujours manuellement ou s’appuie sur le jugement humain. De nombreux types de contrôle exigent une évaluation visuelle, mais l’expérience de la vision par ordinateur dans le contrôle qualité a jusqu’ici été une source de frustrations. Les machines en usage utilisent une architecture vieille de 30 ans à forte intensité capitalistique et fortement limitée dans ses capacités. Les systèmes de vision par ordinateur contemporains fonctionnent comme des îles autonomes, rarement connectés à Internet. Chaque fois que les besoins changent, chaque installation doit être reprogrammé manuellement, unité par unité, ce quui ajoute une charge financière et des délais de production parfois intolérables en flux tendus.

Pire encore, peu de données sont conservées, ce qui rend difficile un repérage des tendances ou de corrélations entre plusieurs variables. La plupart des inspections de qualité de fabrication par la vision numérique est aujourd’hui en partie un échec. Si les inspections initiales d’un cycle de production passent l’inspection de la qualité, les machines sont allumés et les données d’essais écrasées.

Le nouvelle vision par ordinateur

Libéré de ses entraves matérielles et étendue par la connectivité, le stockage de données illimitées et l’analyse statistique de données de Big-data sont en train de changer le rôle de la vision dans le secteur manufacturier. Au lieu d’être un outil réactif pour détecter les défauts, la vision par ordinateur est devenu un outil de collecte de données à l’appui des initiatives de prévention des défauts, pour améliorer la compréhension des processus complexes, et permettant une plus grande collaboration entre les chaînes d’ approvisionnement en temps réel.

Avec les services web modernes, une fois les données recueillies, elles sont facilement regroupées dans des tableaux de bord accessibles aux chargés de la production, ingénieurs qualité, et les services de gestion, locale ou mondiale. Les fabricants peuvent également partager des données avec les partenaires de la chaîne d’approvisionnement, ce qui rend plus facile le contrôle des fournisseurs ou de satisfaire aux exigences d’établissement de rapports pour les clients.

Un grand fabricant de boulons de haute qualité et d’autres fixations automobiles, a parfaitement intégré ces nouveautés dans leur utilisation de la vision numérique. Son système l’utilise pour analyser le grain des boulons. Si le motif est erroné (si les lignes du grain se terminent sur ??une surface portante) la tête du boulon peut se fendre quand un ouvrier d’usine les tord vers le bas, ou pire, quand il tient déjà un bloc moteur en place. Le système capture des images en utilisant un scanner à 100 dollars acheté chez Best Buy. Toute l’intelligence est dans le logiciel, en cours d’exécution à distance sur la plate-forme de cloud computing d’Amazon. Le système compare chaque image à des milliers d’ autres photos de grains métalliques stockés dans le nuage, recherchant des modèles qui sont en corrélation avec l’échec de la pièce.

Le fabricant de vis explore maintenant l’extension de son système de vision par ordinateur à son fournisseur d’acier, ce qui lui permet de saisir des images de grains de métal de chaque lot de tiges d’acier qu’il expédie à l’appareil de fixation. Le fabricant de fixations sera alors en mesure d’analyser des ensembles de données de plus en plus massives de corréler des motifs de grain dans les tiges d’acier avec des mesures de qualité dans les boulons finis.

Au lieu d’examiner un seul poste, de grands ensembles de données permettent aux entreprises de tracer les interactions complexes sur la ligne de production et dans la chaîne d’approvisionnement. Des stations en amont peuvent produire des pièces qui sont techniquement au seuil de la tolérance, mais quand certaines plages de variation acceptables sont combinées, elles peuvent causer néanmoins des défauts en aval après installation.

Pour ce client la matière première (une tige d’acier) et le lot de boulons fabriqués à partir de la tige, peuvent chacun être bien conformes aux spécifications, mais l’analyse de données rétrospectives peuvent montrer que certaines combinaisons de motifs du grain dans les tiges d’acier conduisent à plus les taux de défaillance sur les boulons utilisés pour des applications spécifiques.

Quand les constructeurs automobiles s’adapteront au système, ils monteront en puissance. Si un rapport constate que les boulons fixant le porte-gobelet se brisent et conduisent à des réparations sous garantie, le fournisseur de pièces dispose maintenant d’outils d’analyse pour déterminer la source du problème. Ils peuvent exécuter l’analyse pour déterminer si les boulons qui ont échoué provenaient d’un lot particulier de tiges d’acier, ou ont été faits un jour où leur ligne de production a été ajustée à une tolérance spécifique ou bien encore si le problème n’était pas dans le boulon lui-même, ou avec l’opérateur travaillant sur le côté gauche de la ligne d’assemblage, qui surcouple uniformément les vis du moteur.

Une fois les données capturées dans le cloud, de tels systèmes peuvent stocker une quantité illimitée de données indéfiniment, pour une nouvelle analyse ou recherche précise à tout moment. Ils permettent de déceler des corrélations dans le temps, suivre des tendances par l’analyse statistique et d’identifier des causes profondes, et les problèmes que nouvelles variables posent, revenir en arrière au besoin et analyser des données précédemment acquises dans leurs évaluations. Comme chaque ligne de production devient plus intelligente, l’ensemble du système devient plus intelligent. Comme Google en apprend davantage sur les consommateurs dans leur recherche et à chaque clic, les utilisateurs de ces systèmes sont en mesure de regrouper les apprentissages de problèmes qualité communs dans tous les secteurs.

En fin de compte, la vision peut transformer les défis physiques du monde des problèmes Big Data. Nous savons maintenant comment résoudre ces problèmes Big Data de mieux en mieux chaque jour.

Titre original : Liberating machine vision machines – Janvier 2014. Traduit et adapté de l’anglais. Source : Wired.

La veille sur le web peut s’avérer complexe et chronophage lorsqu’on utilise les moteurs de recherche pour identifier les sources et les outils gratuits pour les mettre en surveillance. Chaque domaine présente en effet des difficultés et des spécificités qui lui sont propres (homonymes, vocabulaire propre au domaine…) et le secteur maritime ne fait pas exception.

Le tutorial qui suit analyse les problématiques de la veille professionnelle et propose une méthodologie adaptée qui peut fort bien s’appliquer à d’autres domaines.

La veille en japonais pour les nuls

14 Jan 2014, Posté par T. Perran dans Conseil

Le japonais écrit : un dragon à trois têtes !

(Affiche du film Godzilla contre Ghidorah, sorti en 1964)

La langue japonaise est l’une des plus difficiles à maîtriser sur le plan de l’expression écrite. Il existe en effet trois modes d’écriture pour le japonais:

  • Les idéogrammes ou caractères chinois (kanji en japonais), importés de la langue chinoise il y a plus de 1000 ans
  • Le syllabaire Hiragana, inventé par les courtisanes japonaises pour simplifier leur correspondance
  • Le syllabaire Katakana, inventé (peu de temps après les hiragana) par les moines japonais pour retenir la prononciation des caractères chinois

Dans le japonais écrit de nos jours, ces trois modes d’écriture se côtoient. La langue japonaise étant pauvre en nombre de sons différents, il y a beaucoup d’homophones et les idéogrammes servent à différencier un mot d’un autre. Ainsi, les mots anciens s’écrivent en kanji. Pour cela, il y a 2136 kanji officiels ou d’utilisation commune, qui ne suffisent pas pour décrire des lieux ou des champs de spécialité comme la médecine, l’astronomie, etc… Les japonais utilisent alors les kanji non-officiels, au nombre de 9000 environ actuellement, d’où un total de plus de 11 000 kanji, que l’on peut trouver sur les sites internet japonais !

Les syllabaires Hiragana et Katakana

Le syllabaire hiragana sert principalement à la syntaxe grammaticale et permet de savoir comment se lisent les kanji, car ces derniers peuvent se lire de plusieurs façons suivant leur utilisation seule ou avec d’autres kanji. Enfin, le syllabaire katakana est traditionnellement dédié à la traduction phonétique des mots modernes importés d’autres langues comme l’anglais, que l’on ne peut transcrire avec les idéogrammes anciens.

Quelques exemples parmi les 2136 kanji officiels (joyo kanji) ou kanji d’utilisation commune.

Ainsi, le japonisant peut passer sa vie en à étudier le japonais écrit sans jamais vraiment le maîtriser, un  peu comme de l’art. L’écriture du japonais est d’ailleurs un art à part entière, la calligraphie, pour lequel nombre de japonais se passionnent et s’exercent régulièrement, comme l’a illustré le film The Pillow Book de Peter Greenway.

Affiche du film "The Pillow Book" par Peter Greenway, sorti en 1996

Fort heureusement, il n’est pas nécessaire de savoir écrire le japonais pour pouvoir lire le japonais, et plus important, grâce aux outils sur internet, il devient possible de « lire » le japonais sur le web sans jamais l’avoir étudié. Pour le veilleur non-japonisant, cela signifie qu’il peut désormais s’adonner à la recherche d’information en japonais, moyennant quelques gymnastiques intellectuelles.

 

L’intérêt de la recherche d’information en japonais

Le Japon est le pays qui consacre le plus d’effort (% de PIB) à la R&D sur son territoire

Le Japon est la troisième puissance économique au monde, mais a vécu près de trois siècles reclus sur lui-même en fermant ses frontières aux étrangers et en se développant par ses propres moyens uniquement. Rien de tout cela n’est valide aujourd’hui, mais de cette époque reste tout de même l’idée sous-jacente que les japonais sont mieux entre eux et qu’ils n’ont pas de besoin de l’étranger pour innover et aller de l’avant, d’où une langue complexe utilisée exclusivement dans l’archipel japonais qu’il est très difficile de maîtriser.  Ainsi, les japonais consacrent des moyens considérables pour innover et privilégie la communication entre eux par le biais de leur langue qui sert en quelque sorte de barrière contre l’étranger. Dit autrement, les informations techniques sur les innovations au Japon sont abondantes en japonais et sont faméliques en anglais, et cela même quand les sites internet sont bilingues. Si l’on s’intéresse par exemple à des sociétés japonaises, à des laboratoires japonais ou même à des technologies avec de forts acteurs japonais, la recherche d’information en japonais devient obligatoire.

Acquérir le vocabulaire de son domaine

La notion de vocabulaire est très importante en japonais. C’est la première tâche fastidieuse à accomplir pour le non-japonisant, le japonisant et même le japonais. En effet, décrire des innovations récentes à l’aide d’idéogrammes qui ont plus de 1000 ans d’existence n’a rien d’évident et surtout rien d’intuitif. Par exemple, on dit que les scientifiques japonais, lorsqu’ils rédigent une thèse, passent l’essentiel de leur première année à acquérir le vocabulaire très spécifique de leur domaine d’expertise. Sans ce travail, ils sont incapables de comprendre complètement la littérature scientifique de leur domaine. Pour faire de la veille en japonais, la logique est la même et il faut acquérir les mots clés liés aux motifs des recherches d’informations.

Avec de la méthode, celui qui ne connait rien en japonais peut toujours tirer son épingle du jeu dans l’océan d’information japonais. Cela dit, même si les outils et traducteurs automatiques ont fait beaucoup de progrès ces dernières années, il faut reconnaître le passage du japonais vers le français et inversement se passe plutôt mal, et il faudra toujours privilégier les traductions du japonais vers l’anglais, pour ensuite revenir vers le français par ses propres moyens.

Firefox, toujours l’ami des veilleurs

Comme c’est souvent le cas, le logiciel de navigation sur internet Firefox facilite beaucoup les choses, et tout particulièrement la recherche d’information dans une langue que l’on ne maîtrise pas. Avec Firefox, l’utilisateur a accès à toute une série de plugins et de moteurs de recherche intégrés à la barre d’outil qui feront gagner beaucoup de temps. Voici une méthode en quatre étapes pour tirer son épingle du jeu face à des sites japonais.

  • Etape 1: Télécharger les plugins de traduction de l’anglais vers le japonais

Mycroft Project centralise bon nombre de moteurs de recherche et plugins pour Firefox. Pour acquérir les mots clés en japonais en partant d’un mot en anglais, je vous recommande les plugins Denshi Jisho Word – English et WWWJDIC CA – Dictionary Lookup. Il suffit de cliquer sur les noms des plugins, une fois arrivé sur la page de Mycroft Project, pour les ajouter. Avec ses deux plugins, vous aurez accès à d’excellentes traductions, même pour des mots techniques.

  • Etape 2: Télécharger des moteurs de recherche japonais

Cette fois-ci, je vous recommande les moteurs Google Japan et Yahoo Japan (cliquer sur le premier nom sous Major Engines), qui sont de loin les moteurs les plus utilisés au Japon.

  • Etape 3: Faire des recherches en japonais

Avec les nouveaux plugins téléchargés, il suffit de cliquer sur la flèche (en haut à gauche) dans l’espace dédié aux recherche dans la barre d’outils de Firefox (voir impression d’écran ci-dessous) pour faire apparaitre la liste des plugins et des moteurs de recherche. Pour trouver des mots clés en japonais, il suffit de choisir dans cette liste Denshi Jisho – Words ou WWWJDIC CA – Dictionary pour trouver des mots japonais pertinents. Ci-dessous, j’ai fait un essai sur le mot technique Soudure, donc « Welding » en anglais, pour obtenir une série de mots en japonais.

Liste des plugins et moteurs de recherche (en haut à droite) téléchargés dans la barre d’outils

Ensuite, il suffit de choisir les mots qui sont les plus en adéquation avec sa recherche pour les copier et les coller dans l’espace dédié aux recherches dans la barre d’outils de firefox. Une fois le mot japonais collé, il suffit de choisir un moteur de recherche japonais dans la liste, soit Google Japan ou Yahoo! Japan, pour lancer la recherche. Il est plus pratique de faire ces recherches dans un autre onglet.

  • Etape 4: Traduction des pages japonais en anglais

Une fois les requêtes avec les moteurs de recherche japonais lancés, on obtient une liste de site en japonais. Cette fois-ci, il faut cliquer un lien pour aboutir une page où il y a du texte en japonais. Une fois arrivé sur cette page, on copie l’adresse de la page internet pour ensuite la coller dans un site de traduction en ligne gratuit. Il en existe beaucoup et la qualité se laisse à désirer. Mais le plus important reste que ces sites sont quand même en mesure de donner un niveau de traduction, qui permet de savoir de quoi on parle sur cette page. C’est généralement suffisant pour identifier des acteurs sur un marché donné ou une technologie donnée.

Exemple de site japonais, qui servira de référence pour les essais de traduction

Pour avoir plus de succès, il est conseillé d’utiliser plusieurs traducteurs automatique d’URL. Les traducteurs d’URL du japonais vers l’anglais, disons les moins mauvais, sont Google Translate, Bing Translator et Weblio. Il faut surtout veiller à choisir l’anglais comme langue de destination, et surtout pas le français, sous peine de catastrophe…

Traduction du site japonais de référence par Google Translate

Il est certain que la traduction automatique va connaître des progrès fulgurant dans les années à venir, notamment par l’apport des technologies liées au Big Data qui vont finir à apporter de la qualité aux approches statistiques des traductions. Cela dit, comme on peut le voir sur les essais de traduction avec Google Translate (ci-dessus) et Bing Translator (ci-dessous), les traductions sont perfectibles et diffèrent d’un outil à un autre, mais elles sont d’un niveau suffisant pour savoir de quoi il est question sur le site internet japonais  et ainsi déterminer si la recherche a été pertinente.

Traduction du site japonais de référence par Bing Translator

Avec cette méthode, il est possible d’identifier des acteurs japonais et de dresser des cartographies à partir de sources japonais sans connaitre le moindre mot en japonais.

Pour aller plus loin, il est tout de même nécessaire de maîtriser la langue japonaise et pour le coup une nouvelle série d’outils et de plugins est disponibles pour les japonisants. A ce stade, il s’agit de procéder à l’analyse des informations, de recouper les informations et d’aller chercher les informations grises, que les japonais eux-mêmes cherchent à cacher à leurs compatriotes.

Pour cela, la société Viedoc reste naturellement à votre disposition pour vous accompagner dans cette démarche ardue.

Aussi, n’hésitez pas à nous contacter.

Le (véritable) futur du Web

14 Jan 2014, Posté par D. Bocquelet dans Digital, Regard sur l'actualité

Des bases immuables :

Le Web semble rivé sur les mêmes bases depuis la première bulle internet de 1995 à 2000. Outre les modes de présentation (Le flash, l’arrivée des d’un E-marketing sérieux, du contenus trois points, des carousels, puis du jquery), les fondamentaux d’un site internet se sont bien ancrés sur le long terme autour de pages de contenus desservies par un menu principal et des liens secondaires. Derrière cela on recoupe 99,9999% des sites existants. Le SEO (référencement) puis le SMO (référencement sur les réseaux sociaux) ont lissés quelque peu les usages en matière de conception technique, de la même manière que l’ergonomie du web est arrivée a maturité.

Un web lissé et uniformisé :

Un bon exemple de cela est la manière dont les sites E-commerce sont construits, pas seulement parce qu’ils utilisent les mêmes architectures à la base (Prestashop, Magento, Thélia, etc.) mais aussi parce que l’on souhaite de l’efficacité avant tout et que l’on souhaite présenter à un client le moyen de trouver rapidement ce qu’il souhaite (et d’acheter rapidement !). Un internaute qui cherche comment passer commande provoquera des abandons, de même par exemple qu’une originalité dans la présentation qui dérange comme par exemple un choix de police/fonds original mais moins lisible, etc. Des habitudes sont prises en étudiant la concurrence qui aboutissent à des modèles quasi intangibles. Les graphismes changent mais tous les liens d’interaction les plus fonctionnels pour ce type de site seront rigoureusement à leur place. Ce sont donc des impératifs de bon sens marketing qui « lissent » le web.

Une interactivité qui s’épuise :

Certes, la puissance des ordinateurs augmente, les navigateurs se modernisent, mais les médias se sont également multipliés (tablettes, iphones) et ont vite pris de bonnes part du marché. Les gagnants de ce jeu ont établi des bases standardisées dès le départ de manière à incrémenter le plus d’applications possibles, gage de leur polyvalence d’usage et donc d’intérêt durable pour les internautes. Les iphones et tablettes ont su passer de l’étape cruciale de « gadgets technologiques » à un usage quotidien accepté à part entière. Or, les technologies employées sont en nombre restreint, et doivent s’accorder avec celles régissant le monde technique du web « courant ». Après le dégonflement des possibilités du jquery du fait d’une difficile évolution technologie du navigateur encore le plus utilisé, Internet Explorer, les internautes ont tout simplement renoncé à utiliser toutes les possibilités offertes par ces scripts dérivés du javascript pour que leur contenu soit visible du plus grand nombre. (Exemple : Le fait de « glisser-déposer » intuitivement une image dans une application depuis une fenêtre de son PC au lieu de parcourir classiquement son arborescence, ou bien de pouvoir déplacer librement des objets dans l’espace de la page). Le plus grand fautif en la matière étant le lourd, typique réseau d’entreprise, qui migre beaucoup plus difficilement en particulier par temps de crise, et où se trouvent les internautes-prospects les plus intéressants !

Le second frein aux évolutions technologique du web est la complexité des sites récents qui doivent, en plus de gérer une cohorte de navigateurs aux technologies parfois limitées, intégrer un aspect « responsive » dans leur design : A savoir compatibles avec les iphones et tablettes. Enfin le poids de ces contenus purement technique (c’est du code) se fait au détriment de la vitesse d’exécution, synonyme de lenteurs d’affichage, de réponse, et de taux de rebond ou d’abandon des internautes ce qui reste évidemment rédhibitoire dans une approche E-marketing. On a tendance donc à utiliser ces effets avec parcimonie et après les avoir rigoureusement testés.

Enfin, que peut-on inventer de plus à partir d’un écran 2D ? Pas grand chose en fait. On continue à cliquer sur des liens pour accéder à des contenus ou provoquer une réponse du site. Reste que derrière cela les technologies de bases n’ont pas évolué depuis plus de vingt-cinq ans : Ce sont les même protocoles, hérités de l’ère de l’internet filaire téléphonique.

Une révolution se prépare.

Pour préciser ce titre, il ne s’agit pas de « futur » à courte portée (5-6 ans), mais bien d’anticipation à long terme. Il ne s’agit pas d’empiler les nouveautés javascripts pour tenter de rendre les usages de l’internaute encore plus ergonomiques, mais bien d’apporter une vision de l’internet totalement nouvelle. Enfin il ne s’agit pas d’une plus grande « intelligence » du web (le fameux web 3.0 ultra-sémantique) tourné vers le bénéfice des marchands qui pourront cibler leurs prospects avec encore plus de précision, mais bien d’un véritable révolution d’usage et d’apparence : L’irruption d’une vraie 3D avec les moyens de l’exploiter.

Et cette-ci va arriver de deux manières :

– Dans votre vie quotidienne, hors du bureau, sous la forme de la réalité augmentée, avec une série de lunettes (à commencer par les google glass) qui dans leur forme primitive peuvent être assimilées à des gadgets mais entraîneront rapidement une véritable révolution des usages. Il vous sera possible en effet de voir en 2d des informations sur des verres recouvrant tout votre champ de vision. Un effort mental sera nécessaire pour que les yeux assimilent ces deux réalités comme un tout et interagissent avec lui sous une forme qui reste encore à déterminer par les usages. Le feedback permis par la miniaturisation des caméras et projecteurs, le tout connecté a internet en très haut débit et alimenté par un puissant processeur, permet (déjà) de transformer n’importe quelle surface neutre en surface d’action pour y projeter des visuels ou tout éléments d’interaction comme un clavier… On peut donc par exemple composer un numéro de téléphone sur sa main et appeler. Reste à intégrer des capteurs de mouvement pour détecter la danse des mains et des doigts dans l’espace, ce qui existe déjà également à cette paire de lunette pour effectuer des actions virtuelles. Cela est pour l’instant limité à des usages scientifiques de manipulation d’objets 3d.

Le système de manipulation 3d « mains libres » créé par Elon Musk. La création aujourd’hui c’est un mix de gestuelle calibrée sur Leap Motion, casque oculus rift, et impression 3D. Les gains de productivités sont énormes.

Dans votre vie au bureau, par cette fois la substitution de deux réalités. Celle d’une interface en 3D qui devient un nouvel environnement de travail à part entière, une réalité virtuelle « intégrale ». Celle-ci existe dans les faits à titre expérimental depuis des années et se traduit sous la forme d’un casque opaque projetant un environnement visuel et sonore cohérent en temps réel à l’utilisateur. La première application dans ce domaine se trouve dans les jeux vidéos et une société comme Oculus semble sur le point d’inaugurer un standard en la matière pour une future commercialisation massive. Or, si l’on peut modéliser un environnement 3d répliquant un environnement « réel » (ex. montagne) avec difficulté (puissance de calcul limitée) on peut à priori plus facilement répliquer une environnement de travail fonctionnel et artificiel.

L’avantage d’un tel environnement ? On utilise ses mains en entier ou partie et ses doigts (voir plus haut) pour déplacer des éléments, pointer dessus ou les faire glisser en utilisant les doigts de telle manière que les possibilités d’interaction sont bien plus étoffées qu’avec un clavier classique. Lorsque les mains et les bras sont posés sur un bureau de la même manière qu’aujourd’hui, la localisation dans l’espace est encore plus simple. On peut d’ailleurs imaginer que sur le plan technique, la « sphère d’interactivité » limitée des bras et mains sera bien localisée et facilitera le développement d’applications et la vitesse de calcul qu’avec une position debout et mouvante. Oubliez donc le ballet manuel de Tom Cruise dans « minority report », on est déjà un stade plus loin. L’autre avantage d’un environnement 3d est que vous disposez bien entendu d’un « écran » de travail et d’action potentiellement à 360°. En réalité il sera sans doute plus limité par les limites de fatigue de rotation du cou et de la fatigue oculaire liée à la vision périphérique…

La science-fiction est souvent un laboratoire d’idées sur ces sujets. Toutefois « Minority Report » de Spieleberg (2002 ) est déjà obsolète par l’usage des gants que porte Cruise pour « gratter » les images affichées en 2d. Des capteurs de clavier permettent aujourd’hui de s’en passer.

Enfin une telle interface restant virtuelle, elle serait à même d’opérer en alternance avec la réalité augmentée, grâce à des lunettes se prolongeant jusqu’aux oreilles pour l’environnement sonore et certainement moins fatigantes à porter et plus pratiques qu’un casque. On pourrait donc travailler avec la même efficacité quelque soit sa localisation physique, le travail serait donc plus « nomade » que jamais, ou bien se servir d’un environnement alternatif dans sa vie quotidienne, passant de l’un à l’autre en fonction de ses besoins et selon les avantages des deux formules. En matière de « bulle » de calcul étendue rien n’empêche en effet, après calibration physique de l’utilisateur, le même type d’interaction dans un environnement en réalité augmentée, matérialisant par exemple ses éléments d’action par superposition dans un espace réel, les manipulant au besoin avec les bras. Le futur de l’interactivité sera gesticulant et fera penser à des concours de mimiques…

Et le web dans tout ça ?

Il deviendrait logiquement un univers en accord avec ces nouveaux usages. A savoir, les sites eux-même deviendront également « panoramiques », conçus pour fonctionner à 360°, des univers semblables à des pièces dans lequel on pourra évoluer comme pour un bâtiment. Les informations s’afficheront sur les « murs » vus en perspective déformée pour une meilleure visibilité et des éléments volants. Ils seront plus interactifs que jamais. Avec la multiplication des standards de connexion (cela à commencé avec l’inscription automatique via twitter ou facebook), votre présence seule sur un site sera notée et vos paramètres pré-enregistrés. La publicité sera également plus personnalisée et fine que jamais en fonction de profils déterminés par une analyse comportementale très poussée et reposant sur des modèles types en fonction des données récoltées : La psychologie au service de la réclame.

La scène du contrôle virtuel de Zion (Matrix 3 des frères Wachowski) est sans doute encore plus proche dans sa traduction graphique de ce que seront le travail virtuel au quotidien et l’exploration du web dans les années 2025-2050.

La grande inconnue sera l’ergonomie des lieux, à savoir par exemple quels mouvements seront nécessaires pour avancer (tourner c’est induit par les mouvements naturels de la tête). Mais la plupart des actions sur des « objets » dans l’environnement seront sans doute dictées par un usage, là encore instinctifs des mains avec des objets réels, et quelques spécificités pour des actions impossibles à retranscrire de manière « naturelles ». Les webmasters ne devront donc plus être seulement des graphistes 2D mais bien 3D, de manière à pouvoir personnaliser des objets « flottants » types et d’y inscrire des fonctionnalités supplémentaires. La puissance des micro-processeurs continue à progresser, et on l’espère la standardisation forcée par la complexité croissante des sites internet vont permettre d’incrémenter e nouveaux effets bien plus impressionnants que les actuels artifices permis par le language jquery.

Enfin, ces prospectives ne doivent pas masquer deux facteurs importants : La charge imposée en terme d’échanges, de calcul et d’affichage en temps réel de ces données va nécéssiter non seulement une nouvelle technologie de développement (exit les vieux tuyaux et les solutions en javascript, php-mysql) et une puissance de calcul infiniment supérieure à ce qui existe actuellement, probablement venant de la maîtrise de l’informatique quantique.

Calibrer son poste de travail.

Concrètement l’interactivité à son poste de travail ne sera possible qu’après une phase de « calibration ». Chaque individu étant différent, il faut imaginer définir une sphère contenant des éléments virtuels sur lesquels il faudra interagir. Les coordonnées seront enregistrées pour chaque action via feedback avec la projection de manière à définir la juste position des bras et des mains par exemple. C’est un système dérivé de ce qui existe déjà dans la motion capture. Outre un clavier virtuel, cela sera sans doute la somme des interaction déjà présentes pour l’utilisation d’écrans tactiles, auxquels s’ajouteront des gestes spécifiquement optimisés pour la troisième dimension. Voyez Leap Motion qui est un logiciel pionnier en la matière, quoique encore très imparfait. Comme toutes les application pionnières on reste limité à un certain nombre d’applis compatibles, où figurent néanmoins Le New York Times et Google Earth. Un reportage lachainetechno (01net TV)

Pour aller encore plus loin

L’horizon 2025-2050 c’est bien, mais l’horizon 2100 et plus c’est mieux. Si vous avez tenu jusque là, projetons-nous donc plus loin.

Le futur lointain du « web » sera depuis longtemps médiatiquement unifié: A vrai dire il n’y aura plus guère de séparation entre une utilisation « locale » (logiciels) et « online » (web). Les applications internet actuelles sont pour beaucoup des logiciels et la tendance en matière de complexité des sites web tend toujours vers plus de fonctionnalités, ce que nous faisons actuellement avec nos outils de veille, qui sont au départ des sites internet très améliorés (base technologiques semblables). Avec l’augmentation par un facteur de plusieurs milliards de la puissance de calcul les possibilités sont quasiment infinies. On peut très bien envisager qu’au prochain siècle, il n’y aura tout simplement plus de « jeux de mains », et ceci pour une bonne raison. La pensée va plus vite que les gestes. Plutôt que d’en passer par un clavier virtuel pour mimer le fait de taper sur des touches, il va sans dire qu’il est bien plus rapide de « dicter » mentalement un texte. En matière de télépathie les progrès sont constants aujourd’hui, notamment de manière à permettre aux paralytiques d’interagir avec leur environnement. On va donc vers un modèle d’interaction ou seule la pensée « courante » (la pensée claire qui précède immédiatement la parole), génère du contenu et interagisse, en collaboration avec la vision, sur des éléments graphiques 3D. Les gains de productivité issues d’une telle pratique seraient tout simplement faramineux. Une journée type de travail actuel de huit heure pourrait être réduite à quatre ou moins. Ce serait véritable l’âge d’or de la « civilisation des loisirs ».

Allons encore plus loin dans le temps.

A puissance de calcul surmultipliées, possibilités nouvelles, notamment la cartographie complète et en temps réel des interactions du cerveau. Quelles implications pour le web? Si on peut cartographier les interactions du cerveau on peut donc suggérer au cerveau des informations totalement factices. Cela permettrait par exemple de donner au cerveau l’illusion quasi-parfaite d’une réalité alternative (on retombe dans un scénario à la « Matrix »). Les sites web ne seraient donc que de petits univers créés de toute pièces, avec une gradation d’éléments d’apparence « réels » et d’autres purement virtuels mais fonctionnels. Mais quelle serait les implications de la vie ou du travail dans un monde totalement virtuel ? – Un gain de temps encore supérieur. En effet, en se passant des « auxiliaires » des cinq sens, alimentés à la base directement au niveau du cerveau, la rapidité du feedback entraîne une rapidité du traitement, avec auto-adaptation de l’horloge interne. Cela signifie concrètement que le temps vécu en virtuel passe deux, trois fois plus vite qu’en réel et donc permet de travailler notamment deux ou trois fois plus vite, avec les moyens vus précédemment qui font largement appel à la télépathie, mais cette fois « court-circuités ».

Au final on travaille donc bien plus rapidement encore, et bien plus efficacement qu’auparavant. Dans un univers virtuel par exemple, les contraintes d’espace-temps sont absentes, on peut assister à une réunion sans temps de transport. C’est son univers qui s’auto-adapte à ses propres besoins, et non plus le contraire. Physiquement le corps serait par contre maintenu en état d’immobilité totale proche de l’hypnose. Et le cerveau « surchauffe » et se fatigue bien plus vite dans ces conditions. On suppose donc d’une phase de travail virtuel serait suivi par un sommeil bien réel. Cela ne représentant que quelques heures à peine, le corps physique aurait alors l’essentiel du reste du jour pour travailler et ne pas perdre son équilibre naturel. Bien d’autres possibilité sont ouvertes par ce nouveau type de vie, mais là c’est le travail d’imagination des auteurs de science-fiction qui va combler les vides…

Alors, à quand la veille en 3d ?
Un sujet techno Rssintelligence.

Viedoc sera une fois encore présent au congrès PCD qui se tiendra à l’espace Champerret les 5 et 6 février prochain.

Nous serons ravis de vous accueillir sur notre stand 013  pour vous présenter les nouvelles fonctionnalités de RSSCOSMETIC et RSSPACKAGING, nos solutions dédiées à la veille du secteur des cosmétiques, parfums et packaging…

A cette occasion si vous souhaitez une invitation n’hésitez pas à nous contacter.

10 bonnes tactiques de Référencement pour 2014

02 Jan 2014, Posté par D. Bocquelet dans Digital

Après la cohorte bestiale de Google, qui s’est achevée avec Colibri, qu’en est-il des solutions qui fonctionnent encore en référencement, et plus encore, est-il besoin d’en faire ?

Si c’est le bon sens qui parle, oui assurément, les beaux jours du SEO ne sont pas terminés. Comment se lancer sur un secteur concurrentiel et se contenter de faire un site en flash pauvre en contenus et riches en images en attendant que les commandes pleuvent ? Avant de se lancer sur internet il y a des wagons de pratiques éprouvées et de bon sens qu’il faut connaître et des pièges a éviter.

Le référencement n’est pas une science, il y a en effet trop de paramètres à gérer pour qu’une action x entraîne le même résultat sur les sites Y et Z quand bien mêmes ils sont identiques. Tout peut jouer, l’ancienneté, le nom de domaine, le contenu, la popularité… Chaque paramètre doit être considéré comme un petit engrenage ou levier à abaisser ou lever de quelques degrés, chaque action pèse un petit pourcentage sur l’ensemble de votre stratégie SEO.

Les jours où ils suffisait de multiplier des liens à tout va sont révolus, les maîtres-mots sont maintenant « contenu, diversité, et patience ». On peut toujours court-circuiter le facteur temps en passant par des annonces Google adwords, mais sans budget, il importe d’abord et avant tout de savoir ce que l’on fait, ou l’on va, et pour cela commencer par quelques conseils marketing :

  • Déterminez votre cible. Car en fonction de cette dernière dépend la forme, le style, les contenus, éventuellement les fonctionnalités attendues. Tous les internautes n’attendent forcément pas les mêmes choses mais leurs comportements sont induits par l »ergonomie standard ». L’originalité est un facteur important pour se démarquer mais il ne faut pas en oublier « les usages », surtout sur un secteur hyper-concurrentiel où les habitudes ont la vie dure. Un internaute qui ne trouve pas ce qu’il cherche pour un certain type de site ira voir ailleurs et ne reviendra plus.
  • Etudiez la concurrence. Connaissez par coeur leurs approches sur le même sujet, analysez leurs contenus et la manière de les agencer, leur présence sur les réseaux sociaux, relevez leurs backlinks (liens rentrants) leurs sources et les contenus associés. Tout cela vous donnera des idées et des munitions pour  faireau moins jeu égal ou faire mieux.
  • Allez à l’essentiel. Focalisez votre page d’accueil ou votre landing page par défaut sur un « call to action » clair et sans ambiguité : Suscitez une action de la part de l’internaute, maintenant et tout de suite. Ne cachez pas votre lien le plus important dans une masse de texte introductif ou en bas de page.
  • Privilégiez la ligne de flottaison : (Webdesign) il s’agit de la partie visible de votre site sans avoir besoin de scroller. C’est en particulier vrai sur la page d’accueil qui est éventuellement la plus essentielle. Placez-y vos arguments ou accroches choc, et aussi de préférence votre bouton « call to action », bien visible. Sous la ligne on préfèrera trouver du « en savoir plus ».
  • Ne négligez pas les autres pages du site. Pourquoi n’avoir que des liens sur la page d’accueil alors que d’autres pages peuvent aussi recevoir du traffic et permettre de vous trouver ? Cela marche un peu sur le principe de la sérendipité. Trouvez des approches/sujets différents mais dépendant de l’idée principale pour attirer du trafic basé sur un grand nombre de requêtes périphériques.
  • Ne négligez pas « l’after action » : Un internaute qui s’inscrit c’est bien, mais si le mail retour de confirmation passe en spam, c’est mal. Soignez aussi les aspects technique comma la vitesse de réaction du code, de chargement, un serveur « clean » (non blacklisté), un cheminement clair, intuitif et sécurisant, jouent tous un rôle pour conforter l’internaute qu’il n’est pas tombé dans un piège.
  • Créez de la récurrence et de la nouveauté : Une fois que votre internaute a effectué l’action attendue, ne vous faites pas oublier. Rappelez-vous à son bon souvenir (mailings, promos, communication sur un événement interne, etc.). Sans en abuser cela va de soi. Un internaute qui vient c’est bien, un qui revient (souvent) c’est bien mieux.

Une fois ce cadre bien en tête, on peut se focaliser sur le SEO on-site (optimisation pour le référencement naturel) :

  1. Choisissez un nom de domaine évocateur. Si vous démarrez un nouveau site, le nom de domaine est bien souvent calqué sur le nom de la société et par défaut sur ce qui est « disponible ». Or utiliser au moins le mot-clé essentiel pour l’activité est définitivement un plus. Cela compte pour le référencement et rassure les internautes dans les SERP, à condition que le reste suive. Il ne sert à rien en revanche de prendre un NDD à rallonge avec 6 ou 7 mots-clés puis de faire ensuite une redirection pour que cela figure sur sa carte de visite. Google n’aime pas les redirections. Mais un nom court et percutant sans rapport avec son activité peut par contre faire mouche si le reste est soigné, d’un point de vue purement marketing.
  2. Privilégiez une base technique saine. Si vous créez votre site à partir d’une plate-forme ou d’un portail gratuit, vérifiez ce que donne le code (afficher la source). Si votre contenu texte n’apparaît même pas, que le code purement technique (java, ajax, etc) est bien trop long et rend le chargement des pages trop lent, oubliez tout de suite. Privilégiez les CMS en installation indépendante (vous gérez l’hébergement) et étudiez ce qu’il vaut en SEO et testez ses performances. Ou encore mieux pour ceux et celles qui savent (peuvent) faites votre site de A à Z. Un site fait avec Microsoft Word n’est pas une base de travail sérieuse.
  3. Privilégiez un contenu texte équilibré. Le contenu est extrêmement important, non seulement pour les internautes mais aussi pour les moteurs de recherche. Donnez-leur à manger, mais privilégiez une cuisine simple et équilibrée au fast-food (bourrage de mots-clés). A partir de vos idées les plus importantes, rédigez naturellement, sans penser aux moteurs, variez et utilisez des synonymes. Tout est affaire de proportions entre le code et le texte, entre les mots-clés et le texte, les images et le texte. Cela vaut aussi pour l’ensemble des pages du site.
  4. Segmentez votre contenu de manière claire. Utilisez des balises H1 (titre principal de page), H2 (sous titre), H3 (sous-partie…) et des <strong> pour souligner les mots-clés essentiels de votre texte, et là encore distillez les idées maîtresses de manière équilibrée, sans par exemple reprendre forcément le mot-clés 1 (H1) dans chaque H… De la même manière à l’échelle du site entier, proposez aux robots un sitemap.xml à la racine de votre site, si possible à jour. Enfin ne faites pas de vos pages internes des modèles de concours de rédaction ! Gardez à l’esprit ce que l’internaute doit trouver ou comprendre et faites passez le message simplement, Google se fiche bien que votre texte comprenne 40 fois le même mot-clés noyé dans une masse de texte ou une seule fois avec deux phrases. Il donnera à peu près le même poids aux deux pages, tout est en fait question d’équilibre et de pertinence; et cela arrange bien les affaires du marketing et de la communication.
  5. Soignez les balises titre et description. C’est un poncif, mais aussi une corvée nécessaire et indispensable. Le titre apparaît dans l’onglet de la page (navigateur), et en résultat de recherche, il doit donc être en adéquation avec la description qui est affichée, qui doit accrocher en deux lignes (soignez l’impact marketing), et le tout doit correspondre aux balises H qui balisent le contenu, et bien sûr le contenu lui-même. Toute cette hiérarchie doit être littéralement mitonnée aux petits oignons. Cela va sans dire, faites des pages bien différenciées, y compris et surtout au niveau de ces même balises. Ne dispersez pas votre « jus » en reprenant exactement la même idée sur différentes pages. Vous pouvez également renseigner la vieille balise « keyword » mais cela ne comptera que pour un pourcentage très faible d’ordinateurs jamais mis à jour depuis des années…
  6. Ne négligez pas les images. A trop se focaliser sur le texte, il ne faut pas perdre de vue l’importance des images, d’abord directement -sur un plan marketing-, elles ont l’avantage de marquer, résumer une idée et former un tableau composite qui va être retenu par l’internaute. Techniquement elles doivent être légères (pas de .bmp à 300 dpi redimensionné de force à 50 px !) pour la vitesse de chargement. Mais aussi sur le plan SEO : Une image doit idéalement porter un nom évocateur comme courte description, ex. « canard_jaune.jpg » (règle : pas d’espaces, ni d’accents, ni de caractères exotiques), et encore mieux être accompagnée d’une balise « texte alternatif », en code <alt>. Elle ser(vait) à renseigner l’internaute du temps où la connexion était lente avant de s’afficher, si le lien de l’image est brisé; et renseigne le moteur de recherche qui aimera de préférence y trouver un <alt> et un nom d’image associé, et parlant si possible. Le saviez-vous ? vous pouvez aussi y ajouter un titre (<title>), qui s’affichera au survol de l’image pour éventuellement renseigner un peu plus l’internaute et surtout donner des biscuits supplémentaires aux moteurs. Là encore, attention aux abus. Ne créez pas des cohortes de galeries avec des alt et title longs hyper-optimisés ! Il faut que cela ait l’air naturel.
  7. Soignez vos liens internes et externes. Cela part de la page d’accueil qui en général est la plus riche en liens internes vers le reste de vos pages, sur un plan purement fonctionnel, en commençant par le fameux bouton « call to action ». Vos liens pourront être soit des liens textes (un ou plusieurs mots-clés du paragraphe pris dans un lien) ou image. Dans les deux cas il est toujours possible d’utiliser une balises <title> qui va le décrire. Il peut être optimisé sur le plan sémantique, de même que l’ancre elle-même (le mot(s)-clé(s)) en lien. Exemple : « en savoir plus sur nos <lien>prestations de xxx</lien> » parlera bien plus aux yeux de Google que le même insipide « <lien>en savoir plus…</lien> ». Pour un lien image, si l’image est parlante, et le lien dessus porte un <title> parlant, tout va bien. Dans l’ensemble, pensez à variez les formules et évitez le matraquage ou la sur-optimisation, mélangez des liens bien, moins bien, et pas optimisés par exemple. Evitez la surdose de liens internes et de maillage à tout propos entre vos différents contenus. Pour lier un H particulier dans un longue page depuis une autre, vous pouvez utiliser les ancres. Évitez de tartiner le pied de page de votre site de liens internes (sinon ceux qui sont fonctionnels et attendus comme les « mentions légales », « à propos », « contact »..) et plus encore les liens externes (partenaires, autres), c’est à présent très mal vu. Préférez une page « partenaires » ou « liens » unique et bien identifiée. Ne faites pas de liens externes sur des sites qui n’ont rien à voir avec vous, et de même n’acceptez pas des liens venant de n’importe ou … sous peine de passer ensuite des heures à faire du désaveu de liens.
  8. Ayez une vraie stratégie de backlinks: Pour ce qui est des liens qui pointent vers votre site, puissant indicateur pour Google et consorts que votre site est réputé et populaire, il y a quelques règles de bons sens à connaître pour ne pas de prendre de coups de griffe de panda ou de bec de pinguin. D’abord, un bon lien est (pour google) un lien naturel. A savoir un lien  q’un anonyme vous dispensera généreusement pour récompenser la valeur de votre site ou d’un contenu en particulier… Mais ça c’est la théorie, car « attendre » ce genre de lien si vous vendez des chaussettes et que vous n’avez rien de plus intéressant à dire qu’elles sont en promo et en fil d’écosse, vous passerez du hochet au déambulateur avant d’avoir augmenté votre chiffre d’affaire. En pratique, il va falloir se retrousser les manches et faire du référencement organique, et si possible sur tous les fronts (v. plus loin). Pensez diversité, et évitez la suroptimisation (encore!). Exemple, fuyez comme la peste et le choléra les propositions « 1000 liens garantis » automatiques et à deux centimes. Le site serait renvoyé illico aux oubliettes et vous passeriez le reste de votre vie à les désavouer. Préférez les « bons liens », c’est à dire les liens de sites du même domaine, ou d’autorité (et encore mieux spécialisés). Un lien d’autorité par exemple c’est celui d’un site de service public, organisme, etc. ou de wikipedia par exemple. Votre valeur est reconnue. Peu de liens, mais des liens forts venant de sites choisis, d’influence, d’experts, etc. Évitez par exemple les annuaires généraliste ou ne gardez qu’une « short-list » méritante avec un pagerank intéressant et un bon trafic. Les tactiques pour obtenir des liens externes de qualité sont nombreuses, on ne pourra pas toutes les citer ici.
  9. Diversifiez votre présence au maximum. Vous devez être partout, et cela doit avoir l’air naturel. A savoir, non seulement sur des annuaires et sites spécialisés, blogs, forums, commentaires de blogs, réseaux sociaux, sous forme de textes, images, infographies, vidéos, présentations powerpoint, pdf, et autres sur les plate-formes documentaires, etc. Pour tous ces contenus externes, ne faites jamais de copier-coller (duplicate content), essayez toujours de créer des contenus différents, variez les formules, les liens sortants et leur optimisation, variez les approches, créez au besoin des choses très périphériques ou généralistes qui avec la méthode de l’entonnoir, finissent sur votre produit/service. Faites vivre une communauté sociale autour de votre marque, de vos produits, ayez des affiliés et des abonnés, des « followers », et obtenez des « like » et des « + » et assimilés. Faites-vous aimer et incitez au partage et au buzz. Une bonne idée qui décolle de manière virale vaut tous les sacrifices et les peines du monde.
  10. Enfin, faites vivre votre site. C’est une constante solide, google n’aime pas beaucoup les sites qui n’évoluent jamais. Tout comme un restaurant, changez votre carte, proposez de nouvelles choses, faites de l’incentive et relayez le tout au maximum, de préférence auprès d’une communauté sociale active et attachée. En matières d’actualités, une PME-PMI peut parler de ses nouvelles « corporate », mais aussi de générer des contenus « utiles » susceptibles d’être repris et partagés. D’autres préféreront faire de l’événementiel en fonction des saisons, de leur propre stratégie marketing, etc. Un contenu qui porte un lien vers votre site et est repris partout, cela compte pour vous amener du trafic, et c’est encore plus juteux si c’est du qualifié…

Au final, si le site est bien construit en suivant ces règles de base et suit un politique de diversification et d’équilibre dans sa politique de backlinks, il ne pourra que lui arriver du positif. Mais cela se travaille d’avoir l’air « naturel », ou d’optimiser sans que cela se voir trop. Google en effet poursuit son mouvement pour « proposer une meilleure expérience utilisateur » et donc fera en sorte de moins favoriser qu’avant les sites un peu trop bien optimisés ou se focalisant sur quelques techniques « de masse ». Partez avec cela en tête pour 2014, prenez patience, retroussez-vous les manches, et bon référencement!…