Un logo bleu et blanc pour un outil de gestion des médias sociaux appelé Socialionals.

Big data

Partager
" Retour à l'index des glossaires

L'expression "big data" désigne les ensembles de données vastes et complexes qui dépassent la capacité de traitement des outils classiques de traitement des données. Apparu dans les années 1990, il englobe diverses catégories de données, telles que les données structurées, semi-structurées et non structurées. Avec l'expansion continue du domaine numérique, l'évolution du big data est évidente, son échelle s'étendant des téraoctets aux zettaoctets. La nécessité de trouver des méthodes innovantes pour extraire des informations précieuses de ces énormes ensembles de données aux multiples facettes est primordiale. Les cinq V - volume, vitesse, variété, véracité et valeur - définissent le big data. Leur croissance exponentielle pose des défis en matière de capture, de stockage, d'analyse, de confidentialité, de qualité et d'authenticité des données. Pourtant, grâce aux progrès technologiques, la capacité de stockage des big data devrait doubler tous les 40 mois. Le big data a des applications étendues dans divers secteurs, notamment la finance, la santé, l'éducation, les médias et l'assurance. L'utilisation du big data a révolutionné les procédures et les stratégies de prise de décision dans de nombreux secteurs, ce qui souligne son potentiel et sa valeur considérables.

Big data (Wikipedia)

Big data se réfère principalement à ensembles de données qui sont trop importants ou trop complexes pour être traités par les méthodes traditionnelles. traitement des données logiciel d'application. Les données comportant un grand nombre d'entrées (lignes) offrent une plus grande sécurité. puissance statistiquetandis que les données plus complexes (plus d'attributs ou de colonnes) peuvent conduire à un taux de taux de fausse découverte. Bien qu'il soit parfois utilisé de manière vague, en partie en raison de l'absence de définition formelle, la meilleure interprétation est qu'il s'agit d'un vaste ensemble d'informations qui ne peuvent être comprises lorsqu'elles sont utilisées en petites quantités seulement.

Croissance non linéaire de la capacité mondiale de stockage de l'information numérique et déclin du stockage analogique

Les défis liés à l'analyse des big data sont notamment les suivants la saisie des données, stockage des données, l'analyse des données, recherche, partage, transfert, visualisation, interrogation, mise à jour, confidentialité de l'informationet la source des données. À l'origine, le Big Data était associé à trois concepts clés : volume, variétéet vitesse. L'analyse des big data présente des défis en matière d'échantillonnage, ce qui explique que l'on n'ait pu auparavant se contenter d'observations et d'échantillonnages. D'où un quatrième concept, la véracité, se réfère à la qualité ou à la perspicacité des données. Sans un investissement suffisant dans l'expertise pour la véracité des big data, le volume et la variété des données peuvent engendrer des coûts et des risques qui dépassent la capacité d'une organisation à créer et à capturer des données. valeur des données massives (big data).

Utilisation actuelle du terme big data tend à se référer à l'utilisation de analyse prédictive, analyse du comportement des utilisateursou certaines autres méthodes d'analyse de données avancées qui permettent d'extraire des valeur des big data, et rarement à une taille particulière d'ensemble de données. "Il ne fait aucun doute que les quantités de données désormais disponibles sont effectivement importantes, mais ce n'est pas la caractéristique la plus pertinente de ce nouvel écosystème de données." L'analyse des ensembles de données permet de trouver de nouvelles corrélations pour "repérer les tendances commerciales, prévenir les maladies, lutter contre la criminalité, etc. Les scientifiques, les dirigeants d'entreprise, les praticiens de la médecine, les publicitaires et les les gouvernements comme il rencontre régulièrement des difficultés avec de grands ensembles de données dans des domaines tels que Recherches sur Internet, fintechles analyses de soins de santé, les systèmes d'information géographique, informatique urbaineet informatique de gestion. Les scientifiques se heurtent à des limites e-Science travail, y compris météorologie, génomique, connectomiqueLa recherche dans le domaine de l'environnement, de la biologie et des simulations physiques complexes.

La taille et le nombre des ensembles de données disponibles ont augmenté rapidement à mesure que les données sont collectées par des dispositifs tels que appareils mobilesdes informations peu coûteuses et nombreuses Internet des objets les dispositifs aériens (télédétection), l'équipement, les logiciels et les registres, camérasmicrophones, identification par radiofréquence (RFID) et réseaux de capteurs sans fil. La capacité technologique mondiale de stockage d'informations par habitant a grosso modo doublé tous les 40 mois depuis les années 1980 ; en 2012, la capacité technologique de stockage d'informations par habitant a doublé tous les 40 mois., tous les jours 2,5 exaoctets (2.17×260 octets) de données sont générés. Sur la base d'un IDC le volume global de données devrait croître de manière exponentielle, passant de 4,4 à 4,5 milliards d'euros. zettaoctets à 44 zettaoctets entre 2013 et 2020. D'ici 2025, IDC prévoit qu'il y aura 163 zettaoctets de données. Selon IDC, les dépenses mondiales en solutions de big data et de business analytics (BDA) devraient atteindre $215,7 milliards en 2021. Tandis que Statista le marché mondial des big data devrait atteindre $103 milliards d'euros d'ici 2027. En 2011, le McKinsey & Company Si les soins de santé américains utilisaient le big data de manière créative et efficace pour améliorer l'efficacité et la qualité, le secteur pourrait créer plus de $300 milliards de valeur chaque année. Dans les économies développées d'Europe, les administrateurs gouvernementaux pourraient économiser plus de 100 milliards d'euros ($149 milliards) rien qu'en améliorant l'efficacité opérationnelle grâce au big data. Et les utilisateurs de services rendus possibles par les données de localisation personnelle pourraient engranger $600 milliards de surplus pour le consommateur. L'une des questions qui se posent aux grandes entreprises est de savoir qui doit prendre en charge les initiatives en matière de big data qui concernent l'ensemble de l'organisation.

Systèmes de gestion de bases de données relationnelles et les logiciels statistiques de bureau utilisés pour visualiser les données ont souvent des difficultés à traiter et à analyser les big data. Le traitement et l'analyse des big data peuvent nécessiter des "logiciels massivement parallèles fonctionnant sur des dizaines, des centaines, voire des milliers de serveurs". Ce que l'on qualifie de "big data" varie en fonction des capacités de ceux qui les analysent et de leurs outils. En outre, les capacités croissantes font des big data une cible mouvante. "Pour certaines organisations, faire face à des centaines de gigaoctets Pour d'autres, il faut attendre des dizaines ou des centaines de téraoctets avant que la taille des données ne devienne un élément important à prendre en compte. Pour d'autres, il faudra peut-être attendre des dizaines ou des centaines de téraoctets avant que la taille des données ne devienne un élément important à prendre en compte".

" Retour à l'index des glossaires
fr_FRFrançais