L’explosion quantitative des données numériques créées, consommées et stockées quotidiennement offre de nombreuses opportunités de loisirs, industrielles, médicales… Mais, les entreprises et les États qui ne suivent pas le mouvement risquent de perdre en compétitivité et en souveraineté.
Les données font partie de notre vie quotidienne, que ce soit à l’école, au travail, durant nos loisirs ou nos activités sociales et privées. Nous en créons, consommons et échangeons toujours plus. Chaque jour, quelque 2,5 quintillions bytes de données sont générés (2,5 suivi de 18 zéros) .
Une personne en crée en moyenne 1,7 millions par seconde. Et une heure de Netflix en consomme 644 millions. Avec le développement des nouvelles technologies, d’Internet et des réseaux sociaux, le nombre de données numériques produites, échangées et stockées (textes, vidéos, photos…) s’est accru de manière exponentielle.
Au point qu’un ordinateur personnel n’est plus assez puissant pour les sauvegarder et les traiter. Au point aussi que le concept de données volumineuses ou de mégadonnées s’est imposé.
Parallèlement, les outils capables de collecter, de traiter, d’analyser et de stocker ces masses d’informations toujours plus volumineuses, plus rapidement et en temps réel, sont eux devenus plus performants.
Le terme « Big Data » aurait été popularisé dans les années 1990, par l’informaticien américain John Mashey, en référence aux bases de données trop grandes et complexes pour être étudiées avec les méthodes statistiques et des ordinateurs traditionnels.
Vélocité, variété, véracité
L’Office québécois de la langue française le définit comme « l’ensemble d’une très grande quantité de données, structurées ou non, se présentant sous différents formats et en provenance de sources multiples, qui sont collectées, stockées, traitées et analysées dans de courts délais, et qui sont impossibles à gérer avec des outils classiques de gestion de bases de données ou de gestion de l’information. ».
Mails, documents, bases de données, historiques des processus métiers des entreprises, informations et images des capteurs, caméras et sondes, contenus web (images, vidéos, sons, textes), transactions de commerce électronique, échanges sur les réseaux sociaux, objets connectés (étiquettes électroniques, compteurs intelligents, smartphones…), informations de géolocalisation…
Autant de données générées en grand nombre et utilisées chaque jour dans des domaines aussi variés que l’aéronautique, l’industrie, la finance, le secteur médical ou la recherche scientifique.
Outre leur volume (toujours croissant), ces données se caractérisent aussi par leur vélocité (vitesse de création, de collecte, de transmission et d’analyse), par leur variété (en termes de types, de formats et de structures), par leur valeur (profits générés grâce elles) et par leur véracité (à savoir leur validité, qualité, précision et fiabilité).
De par ces spécificités, les données requièrent donc des technologies et des infrastructures capables de les stocker (serveurs à distance, datacenters, cloud computing), d’accélérer leur traitement (algorithmes et blockchains), de les identifier, afin de détecter les éventuelles erreurs ou spams, de les trier et de les classifier (algorithmes d’apprentissage, intelligence artificielle…).
Grâce à des outils d’analyse et de modélisation, les chercheurs peuvent également travailler sur de grands nombres et échantillons de données ; les entreprises peuvent les utiliser à des fins d’aide à la décision et de planification ; tandis que les administrations et les gouvernements peuvent recourir à ces mêmes technologies, notamment pour réaliser des analyses prédictives, anticiper des risques et suivre en temps réel des phénomènes notamment climatiques.
Par ailleurs, la multitude d’informations publiées sur les réseaux sociaux (heures de connexion, âge et coordonnées, avis, commentaires, photos, vidéos), la navigation web (via les cookies), l’historique des transactions et des dépenses réalisées, sont autant d’informations, qui, une fois triées et structurées, peuvent fournir des indications très précises sur les comportements des consommateurs et sur les tendances du marché.
Risques de compétitivité et de souveraineté
Le « Big Data » représente donc un marché mondial en plein développement, qui devrait bientôt se mesurer en milliard de dollars. Et les entreprises et les États qui ne suivent pas le mouvement risquent de perdre en compétitivité et en souveraineté.
Aussi, afin de soutenir la recherche et son économie, le Luxembourg s’est pour sa part doté d’un des plus puissants superordinateurs d’Europe : MELUXINA.
Avec sa puissance de calcul (10 millions de milliards d’opérations par seconde), la machine peut traiter de gros volumes de données et réaliser des calculs complexes à grande vitesse dans des domaines tels que la modélisation et la simulation, l’analyse de grandes quantités de données et l’intelligence artificielle.
Hébergé à Bissen, MELUXINA permet entre autres la conception plus précise de pièces industrielles complexes, la réduction des délais de mise sur le marché de produits et la diminution du coût des matériaux.
Autant d’opportunités d’innovation et de compétitivité offertes aux start-up, PME et grandes entreprises du pays. Meluxina collabore aussi à des projets de médecine personnalisée et de santé numérique eHealth.
Spécialisé dans les maladies neurodégénératives de type Parkinson, le Luxembourg Centre for Systems Biomedicine (LCSB) basé à l’Université de Belval compte des informaticiens, des ingénieurs et des mathématiciens notamment spécialisés en biologie computationnelle, en bio-informatique et en science des données biomédicales.
Grâce à ces experts, il met à la disposition des chercheurs et médecins des plateformes hébergeant de gros volumes de données et ressources médicales facilement accessibles. Il propose aussi des services personnalisés, des ateliers de formation et un service de traitement des données et de dépannage.
Il fournit aussi des services cloud notamment de synchronisation, de partage et de collaboration de contenus volumineux.
Objectifs durables
Pour sa part, la start-up luxembourgeoise RSS Hydro est spécialisée dans la prévision des risques hydrologiques (inondations fluviales et pluviales) en milieu urbain. Notamment face à une montée rapide des eaux), dans des contextes climatiques et des environnements démographiques spécifiques.
Elle établit des modèles de simulation, afin d’évaluer la vulnérabilité des bâtiments et élabore ensuite des scénarii de mesures de protection.
Elle propose également aux communes, assureurs, opérateurs électriques et ONG des solutions et des outils de prévision et d’atténuation des risques d’inondation et de sècheresse, actuels et futurs, sous forme entre autres de cartographies prédictives numériques 3D et à haute résolution.
Le tout, grâce à des images satellitaires et à des milliers de données collectées par drones, puis traitées et analysées grâce à l’intelligence artificielle.
Une démarche « Big Data » qui s’inscrit ici dans un l’esprit des Objectifs de Développement Durable de l’ONU.
Recent Comments