1,9 milliard de TeraByte en 2011 : Bienvenue dans l’air du Big Data

L’humanité affiche une gourmandise sans précédent dans sa création de données. 2011 est l’année de tous les records avec la création ou la duplication de 1,9 milliard de TeraByte soit 1.900.000.000.000.000.000.000 (1,9 x 10 puissance 21) octets !!! Le cabinet d’analyse IDC souligne que ce n’est qu’un début, il faut s’attendre à une augmentation de plus de 700% d’ici cinq ans avec à la clé une nouvelle vision du stockage, le Big DATA.

1,9 milliard de TeraBytes, c’est imposant ! Pour pouvoir se représenter un tel chiffre, il faut s’imaginer qu’il représente en gros l’ensemble de la capacité de stockage de l’information en 2007 !

Cette boulimie de données pose problème car il faut absolument pouvoir les stocker en garantissant leur gestion, leur organisation, leur administration à des prix toujours plus compétitifs.

Big Data : Des données non structurées créées en temps réel en provenance de sources très disparates.

Matt Oostveen, directeur de recherche chez IDC Australie annonce que nous entrons dans l’air du Big Data (« grosse donnée »). Le Big Data désigne des ensembles de données tellement importantes que l’usage de classiques bases de données pour les travailler devient impossible. Avec ces nouveaux ordres de grandeur, toute la chaine traditionnelle de capture, stockage, traitement, recherche, exploitation, analyse et visualisation doit être revue pour s’adapter.

Ces données Big Data ont des propriétés uniques par leur origine. Leur production par chaque internaute et le souhait de vouloir les partager leur donnent des propriétés propres (nature non structurée, une production en temps réel et en flots continus, identification par des tags, sources multiples Smartphone, capteurs, téléviseurs connectés, tablettes, PC fixes, PC portables…).

Big Data : L’un des plus grands défis de l’informatique d’aujourd’hui.

L’utilisation de base de données classique devient dès lors quasiment impossible. Le Big Data est un nouveau défi pour l’informatique surtout pour les 10 prochaines années. Il sera la source d’investissements majeurs donnant naissance au développement d’une approche différente du traitement, de l’analyse et de l’exploitation des données.

Cependant Silicon souligne que « face à l’augmentation exponentielle du volume des données stockées, le nombre des administrateurs du stockage n’augmente pas ! »De plus  «  dans les organisations, un nombre conséquent de processus liés à la gestion du stockage sont encore manuels. »

Pour Matt Oostveen, l’air du Big Data nécessite une utilisation plus intensive de la virtualisation et prochainement du Cloud Computing mais de nombres réponses sont encore à construire.

Jérôme Gianoli

Aime l'innovation, le hardware, la High Tech et le développement durable. Soucieux du respect de la vie privée.

Partager
Publié par
Jérôme Gianoli

Article récent

La ROG Strix B860-A Gaming WiFi se fait flasher

Les cartes mères LGA 1851 équipées du chipset Intel B860 commencent à apparaître. La ROG… Lire d'avantage

16/12/2024

GPU-Z v2.61 est disponible en téléchargement, quoi de neuf ?

L’utilitaire GPU-Z évolue en version 2.61. Le focus concerne la prise en charge de nouveaux… Lire d'avantage

16/12/2024

GeForce RTX 5070 Ti, VRAM augmentée et TDP plus élevé

Les premières informations sur la GeForce RTX 5070 Ti, prévue pour début 2025, indiquent des… Lire d'avantage

16/12/2024

SSD PCIe 5.0 x4 Platinum P51, SK hynix annonce du 14,7 Go/s !

Annoncé en mars dernier, le SK hynix Platinum P51 PCIe 5.0 est enfin lancé en… Lire d'avantage

16/12/2024

FA200, Acer dévoile un nouveau SSD PCIe 4.0 x4

Acer lève le voile sur sa gamme de SSD FA200 PCIe 4.0. Visant le milieu… Lire d'avantage

16/12/2024

Kioxia Exceria Plus G4 : Un SSD M.2 NVMe Gen 5 milieu de gamme prometteur

Kioxia a dévoilé l'Exceria Plus G4, un SSD M.2 NVMe qui promet des débits musclés… Lire d'avantage

16/12/2024