Le big data – 60 secondes pour comprendre
>>>> Visualisez la vidéo <<<<
Le big data, littéralement « grosses données », ou mégadonnées (recommandé), parfois appelées données massives, désigne des ensembles de données devenus si volumineux qu’ils dépassent l’intuition et les capacités humaines d’analyse et même celles des outils informatiques classiques de gestion de base de données ou de l’information.
L’explosion quantitative (et souvent redondante) de la donnée numérique contraint à de nouvelles manières de voir et analyser le monde. De nouveaux ordres de grandeur concernent la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données. Les perspectives du traitement des big data sont énormes et en partie encore insoupçonnées ; on évoque souvent de nouvelles possibilités d’exploration de l’information diffusée par les médias, de connaissance et d’évaluation, d’analyse tendancielle et prospective (climatiques, environnementales ou encore sociopolitiques, etc.) et de gestion des risques (commerciaux, assuranciels, industriels, naturels) et de phénomènes religieux, culturels, politiques, mais aussi en termes de génomique ou métagénomique, pour la médecine (compréhension du fonctionnement du cerveau, épidémiologie, écoépidémiologie…), la météorologie et l’adaptation aux changements climatiques, la gestion de réseaux énergétiques complexes (via les smartgrids ou un futur « internet de l’énergie »), l’écologie (fonctionnement et dysfonctionnement des réseaux écologiques, des réseaux trophiques avec le GBIF par exemple), ou encore la sécurité et la lutte contre la criminalité. La multiplicité de ces applications laisse d’ailleurs déjà poindre un véritable écosystème économique impliquant, d’ores et déjà, les plus gros joueurs du secteur des technologies de l’information.
Certains supposent que le big data pourrait aider les entreprises à réduire leurs risques et faciliter la prise de décision, ou créer la différence grâce à l’analyse prédictive et une « expérience client » plus personnalisée et contextualisée.
Divers experts, grandes institutions (comme le MIT aux États-Unis, le Collège de France en Europe), administrations et spécialistes sur le terrain des technologies ou des usages considèrent le phénomène big data comme l’un des grands défis informatiques de la décennie 2010-2020 et en ont fait une de leurs nouvelles priorités de recherche et développement, qui pourrait notamment conduire à l’Intelligence artificielle en étant exploré par des réseaux de neurones artificiels autoapprenants
>>>> Visualisez la vidéo <<<<
Laisser un commentaire