XXI wiek z czystym sumieniem można nazwać epoką informacji, ponieważ ilość cyfrowych danych, którą produkuje ludzkość jest zadziwiająca. W roku 1992 powstawało około 100 GB danych dziennie i wystarczyło zaledwie dwadzieścia jeden lat by, według szacunków IBM, osiągnąć liczbę 2,5 miliarda GB danych generowanych każdego dnia.[1]  W 2018 roku ta liczba zwiększyła się do około 4,5 miliarda GB. Mając na uwadze dynamicznie rozwijający się rynek urządzeń sieciowych oraz stale rosnący odsetek ludzi mających dostęp do Internetu można śmiało powiedzieć, że liczba będzie się stale zwiększać. Komponenty sieciowe są dziś montowane niemal wszędzie: poczynając od oczywistych rzeczy takich jak smartfony i  komputery kończąc na elementach wyposażenia domów takich jak „smart-kuchenki”, „smart-lodówki” czy „smart-zamki” (do drzwi) które tworzą tzw. Internet rzeczy [2] oraz dostarczają producentowi informacji o preferencjach konsumentów. Świat jest zalewany falami cyfrowych danych i by w nich nie utonąć istnieje stała potrzeba szukania coraz to efektywniejszych narzędzi do ich przetwarzania i szybkiego wydobywania odpowiedzi na pytania zadawane przez rynek.

W dzisiejszych czasach, niepodważalnie najcenniejszą wartość stanowi wiarygodna informacja. Analityka i czerpanie wiedzy ze zróżnicowanych źródeł  stają się fundamentem dla działania każdego współczesnego biznesu i mają wielkie znaczenie dla budowy konkurencyjności na rynku. Jednak w świecie przepełnionym cyfrowymi danymi, konwencjonalne techniki przetwarzania, analizowania oraz pozyskiwania informacji o kliencie stały się nieadekwatne do obecnych potrzeb. W ostatnich latach remedium na ten stan rzeczy stała się analiza danych Big Data. Słownikowo, jest to określenie stosowane dla takich zbiorów danych, które jednocześnie charakteryzują się dużą objętością, różnorodnością, strumieniowym napływem, zmiennością, złożonością, jak również wymagają zastosowania innowacyjnych technologii, narzędzi i metod informatycznych w celu wydobycia z nich nowej i użytecznej wiedzy.[3] Obrazowo można ją porównać do wielkiego silosa, do którego z różnych źródeł zlewane są ogromne ilości nieustrukturyzowanych, surowych danych. Następnie zostają one poddane analizie, przy pomocy odpowiednich narzędzi, która niejednokrotnie potrafi ujawnić zadziwiające informacje. Przykładowo w 2004 roku podczas gdy do wybrzeży USA zbliżał się huragan Frances, analitycy amerykańskiej sieci hipermarketów Walmart zauważyli, że oprócz przedmiotów pierwszej potrzeby, znacząco wzrósł popyt na truskawkowe wafle Pop Tarts.[4] Ta informacja została wykorzystana w 2011 roku przed nadejściem huraganu Catrina. Zwiększona ilość wafli dotarła do sklepów co zwiększyło zyski sieci, ponieważ powtórzył się trend sprzed siedmiu lat. Big Data ma jednak swoje minusy i jak pokazują statystyki nie może być traktowana jako lekarstwo na wszystkie problemy. Zgodnie z raportem Capgemini Big & Fast Data[5] jedynie 27% badanych przedsiębiorstw uznało wdrożone projekty Big Data za udane. Główną przyczyną tego stanu rzeczy wydaje się być fakt, że choć w Big Data dane z różnych źródeł spływają nieustannie, to są one poddawane analizie dopiero po zebraniu odpowiedniej ich ilości i dają informacje nieaktualne. Oczywiście wszystko zależy od wiedzy jaką się poszukuje jednak badanie historycznych danych jest jak praca w trybie offline i może dać wyniki jedynie odnoszące się do przeszłości.

Odpowiedzią na potrzebę szybkiej reakcji na zachowania i oczekiwania klientów, jest analizowanie różnego rodzaju danych strumieniowo, w czasie rzeczywistym. Taką możliwość daje analiza Fast Data. By najlepiej uchwycić różnicę pomiędzy tymi metodami posłużę się przykładem, który dobrze to zobrazuje.

Stacjonarne sklepy odzieżowe zbierają historyczne informacje dotyczące sprzedaży ciuchów i na podstawie ich analizy tworzą plan jakie produkty dodać w swojej ofercie w przyszłości. Odzieżowe sklepy internetowe na podstawie posiadanych informacji o użytkowniku, jego historii przeglądania sprzed kilku minut (np. sprawdzanie cen lotów do ciepłych krajów) same proponują spersonalizowane zestawy ubrań na wakacje, ponieważ system łączy te informacje.

Możliwości wykorzystania Fast Data zdają się być nieograniczone. Jednym z bardziej osobliwych przykładów jest system opracowany przez izraelski start-up WeissBeerger, który strumieniowo monitoruje ilość, gatunek i markę spożywanego piwa oraz konfrontuje te informacje z konkretnymi przedziałami czasowymi. Dodatkowo na bieżąco zlicza przychody, pozostałe kegi piwa, monitoruje ich temperaturę, pokazuje jaka jest popularność promocji na barze oraz dostarcza informacji jakie trendy aktualnie panują na rynku browarniczym.[6]

W efektywnej analizie chodzi o udzielanie w pełni prawidłowej odpowiedzi na zadane pytanie, przy czym im więcej upływa czasu od zebrania danych do udzielenia odpowiedzi, tym mniej jest ona wartościowa i przydatna. W dzisiejszym dynamicznie rozwijającym się świecie biznes nie ma wyboru i musi używać wszelkich najnowocześniejszych narzędzi w wyścigu po klienta. Parafrazując dewizę Legii Cudzoziemskiej: kto nie maszeruje ten ginie.

 

Autor: Michał Michalski

 

 

[1] https://www.ibm.com/blogs/insights-on-business/consumer-products/2-5-quintillion-bytes-of-data-created-every-day-how-does-cpg-retail-manage-it/

[2] Internet rzeczy to pojęcie odnoszące się do koncepcji gdzie materialne przedmioty są między sobą połączone za pomocą rozbudowanej sieci komputerowej, która umożliwia im gromadzenie, przetwarzanie i wymienianie danych. Praktycznym przykładem może być np. termostat, który na podstawie sygnału GPS samodzielnie obniża i podwyższa temperaturę domu w zależności czy właściciel z niego wyjeżdża czy wraca, co przekłada  się na oszczędności energii. Innym przykładem, w większej skali, może być system czujników i sensorów rejestrujących ruch w Los Angeles. Dane trafiają do systemu, który kontroluje 4,5 tys. świateł i decyduje, jak pokierować ruchem w mieście tak, by zredukować korki (https://www.forbes.pl/technologie/czym-jest-internet-rzeczy/egcvmr0)

[3] http://www.dbc.wroc.pl/Content/25191/Tabakow_Big_Data_definicje_wyzwania_i_technologie.pdf

[4]https://www.nytimes.com/2004/11/14/business/yourmoney/what-walmart-knows-about-customers-habits.html

[5] https://www.capgemini.com/resources/big-fast-data-the-rise-of-insight-driven-business/

[6] https://weissbeerger.com/

Kategorie: Aktualności

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.