Big Data Boom

Jak pokazują przykłady problemy z eksplozją objętości danych nie wynikają z ich rozmiaru lub braku umiejętności ich analizy. Największym problemem jest brak dopasowanego oprogramowania. Możemy pomóc Twojemu biznesowi w tym temacie.

Systemy do obsługi i analizy dużej ilości danych

Na zachodzie mówi się, że mamy do czynienia z "Big Data Boom", czyli z eksplozją objętości danych. Zgodnie z doniesieniami IDC roczny przyrost ilości danych to przeszło 60%: Postęp produkcji nowych danych, a także konieczności ich analizy wzrasta wykładniczo: w 2012 roku ilość danych na świecie szacowano na 2,7ZB, w 2015 będzie to 8ZB. Zetabajt to miliard terabajtów.

Za przykład weźmy słynny zderzacz hadronów, jego komputery zmagają się rocznie z 25 petabajtami ( 1PB = 1000 TB) danych, które następnie podlegają analizie, zaś operacje wyjścia/wejścia szacuje się na około 300 GB /sekundę.
Aby dane mogły zostać zakwalifikowane jako duże, muszą spełniać co najmniej jeden z warunków: mieć dużą objętość, poruszać się bardzo szybko, albo składać się z wielu formatów. Wydawać by się mogło, że największym problemem jest rozmiar danych, albo brak umiejętności ich analizy; nic bardziej mylnego. IDC i DataXu sprawdziło, że największym problemem jest brak odpowiedniego oprogramowania, "uszytego na miarę" tak danych, jak i potrzeb ich analizy.

A jak możemy pomóc Tobie?

Posiadamy wieloletnie doświadczenie na międzynarodowym rynku usług IT, jak również w budowaniu systemów informatycznych, których zadaniem jest obsługa i jednoczesna analiza danych.

Osoba kontaktowa

Seweryn Makuch
Delivery Manager
Immobilienscout 24
Klaster IT
Genesys
jacada
Artificial Solutions
legodo
Altera
Atedos
TTTech
Centigrade