Atchoum ! Une petite grippe ? Et hop, allons consulter quelques pages web pour vérifier si nos symptômes coïncident avec telle ou telle pathologie. Et hop, Google, à l’aide d’algorithmes, de gros serveurs, de vos petits doigts et des micro-organismes qui mettent en péril l’intégrité de votre corps, suit la propagation des petites bébêtes et de la grippe qui vous affectent un peu partout dans le monde. Car oui, certains termes de recherche sont des indicateurs efficaces de la propagation de cette dernière. Ça marche si bien qu’un outil est disponible en ligne : Google Flu Trends.

Ce n’est là que l’une des facettes des usages possibles de cette immense accumulation/circulation de données qui caractérisent notre présent. Présent tout récent, puisque non moins de 90 % des données informatiques existantes ont été produites au cours des deux dernières années. Le numérique représente aujourd’hui 98 % de la totalité des informations disponibles dans le monde. Certains ont donné un nom à ce phénomène : Big Data.

Tout ceci pose des problèmes de « vie privée », de sécurité des informations, mais ceci transforme radicalement aussi tout un pan de la recherche scientifique. L’épidémiologie avec Google Flu Trends, mais aussi la physique des particules, la génomique, l’astrophysique, tant de disciplines qui mobilisent des quantités toujours plus grandes de données. L'accélérateur européen de particules, LHC ( Large Hadron Collider ), produit chaque jour 40.000 Go de données. GenBank détient une base de données de plus de 150 milliards de nucléotides ( éléments de base de l’ADN ), ce qui représente plus de 950 millions de Go. Le Large Synoptic Survey Telescope, le plus puissant télescope en construction, devrait quant à lui générer chaque nuit plus de 30 Téraoctets d’images. Autant d’information à stocker, à traiter, autant de corrélations nouvelles que des machines de plus en plus puissantes s’évertuent à repérer : la machine remplacera-t-elle le scientifique ?