Le salon Big Data Expo s’est déroulé les 16 et 17 octobre 2013 à la Porte de Versailles à Paris et les professionnels se sont vigoureusement interrogés les uns les autre pour savoir vers quelles directions ce nouveau marché des Big Data s’orientait. En effet, avec le Big Data, viennent les gros volumes d’informations non structurées que l’on peut traiter très rapidement. Il devient alors possible pour une grande entreprise de suivre en temps réel l’évolution de son chiffre d’affaires par exemple. Ainsi, le Big Data s’invite au cœur de la stratégie des entreprises pour leur apporter des avantages compétitifs. Cela implique de nombreux bouleversements dans les méthodes de travail.
Tout d’abord, tout le monde s’est accordée sur le fait que l’information devenait décloisonnée, à savoir qu’elle n’appartient plus à tel ou tel service mais elle est mise dans un pot commun. Pour des raisons d’efficacité, il devient nécessaire de ne plus faire appel à des serveurs physiques mais à du cloud qui permet un stockage redondant de l’information avec une grande vitesse d’accessibilité. A ce niveau, on constate que le secteur est encore jeune, car il n’y a pas deux systèmes de cloud identiques. Tout est customisé aux besoins des entreprises. Il y a une grosse différence entre le cloud public pour des sites comme Facebook, Twitter, Hotmail et le cloud privé, qui donne des garanties d’accès et de vitesse d’accès à tout instant, avec des systèmes redondants qui évitent la moindre perte d’information. Certaines entreprises passent tout leur système d’information, y compris leurs ressources humaines, dans les systèmes cloud, alors que d’autres y vont de manière sélective. Pour s’y retrouver dans la forêt d’offres et de prix sur le cloud (au plus bas 0,05 € pour 1 Go stocké en cloud), les professionnels recommandent d’essayer les offres et de s’interroger sur au moins 3 points :
1. Où sont stockées mes données, à savoir la localisation physique des data centers ?
2. Comment accéder à mes données, à savoir quelles dispositions d’accès offrent le fournisseur ?
3. Quelles services et applications me sont proposés pour exploiter mes données ?
Sur cette infographie, on retrouve les acteurs majeurs présents sur le Big Data et le Cloud Computing. On peut constater que c’est un marché très concurrentiel et en général, les sociétés qui vont vers le Big Data font appel à plusieurs prestataires par prudence. Les fournisseurs ont une responsabilité sur le contenant et pas sur le contenu, mais il peut y avoir des conflits avec les systèmes juridiques des pays où se trouvent physiquement les data centers. Par exemple, aux Etats-Unis, la loi Patriot Act oblige les fournisseurs à donner aux autorités les données qu’ils hébergent, sans qu’ils puissent vraiment s’y opposer, d’où l’intérêt de connaitre la localisation des data centers des fournisseurs. Windows a communiqué le fait que depuis la mise en application du Patriot Act, les autorités américaines ont fait 13 demandes d’information. 7 ont été refusé par un juge et une seule fois Windows a été contraint de livrer les informations sans prévenir le client.
Actuellement, moins de 1% des dépenses IT sont consacrées au Big Data, mais ce nouveau secteur est fortement soutenu par le gouvernement américain. En effet, alors que les agences fédérales américaines émettaient 35 appels d’offres sur les Big Data en 2012, celles-ci avait déjà 75 appel d’offres sur le même sujet sur les 9 premiers mois de l’année 2013. Un appel d’offre d’une agence fédérale vaut généralement entre 35 et 80 millions de dollars. L’exploitation des métadonnées devient un enjeu majeur et les applications commencent à toucher la vie des citoyens. Les banques américaines par exemple ont mis en place une plateforme commune pour identifier les fraudes très rapidement et se transmettre les informations immédiatement. Ces avancées permettent aussi aux entreprises de réaliser qu’elles exploitaient encore assez mal les données en leur sein et les technologies liées au Big Data leur sont d’un grand recours, avant même de vouloir analyser ce qu’il se dit sur les réseaux sociaux.
Au niveau innovations technologiques, le modèle de développement communautaire Open Source suit son cours. L’environnement ou écosystème Hadoop fait toujours office de référence et d’ailleurs la version 2 de Hadoop était sortie dans la nuit du 16 au 17 octobre 2013 avec un nouveau système de fichier HDFS. La fondation Apache détient toujours la propriété intellectuelle de Hadoop mais son développement se fait à partir des ateliers entre experts aux 4 coins du monde. Le fait marquant sur le salon a surtout été l’évolution des bases de données relationnelles avec de nouveaux systèmes de stockage en colonne et de nouvelles visualisations graphiques. Dès lors, on commence à parler de notions comme le patrimoine informationnel et survient la délicate question du droit de regard de la CNIL sur ces bases de données relationnelles complexes. En effet, dès lors que l’exploitation de ces dernières peut aboutir à la suppression d’un droit à un citoyen, la CNIL doit être mise dans la boucle. Là encore, on découvre des choses et les gens du secteur se cherchent. Le secteur est loin d’être mûr mais les retombées en termes de valeur ajoutée sont gigantesques. Affaire à suivre donc !