Masz to. Patrzysz na ponad 32 mln km, które zostały przejechane przez pracowników i już wiesz - masz to. Sięgasz po telefon, dzwonisz do centrali i tylko przez moment słowa stają ci w gardle. - Nasi kierowcy mają przestać skręcać w lewo. - Co?! Piłeś dzisiaj? - słyszysz w odpowiedzi. Kilka lat później kurierzy dostarczają w tym samym czasie o 350 000 paczek więcej, zachowując niższą emisję CO2. Oto Data Science w praktyce.
Roboty wyprą ludzi w obszarze większości zawodów. Maszyny oraz inteligentne systemy doprowadzą do gigantycznej redukcji zatrudnienia. Urządzenia połączone Internetem Rzeczy wyeliminują człowieka z procesu komunikacji, w którym uczestniczył od 200 tys. lat. Staniemy się beneficjentami rozmów maszyn, które będą wytwarzać tony informacji podczas zarządzania lotniskami, kierowania ruchem drogowym, sugerowania produktów do zakupu czy monitorowania bezpieczeństwa twojego dziecka.
Zaawansowany technologicznie samochód elektryczny generuje dzisiaj 25 gigabajtów danych po zaledwie godzinie jazdy.
Maszyny podłączone do Internetu Rzeczy, a także człowiek korzystający z nowoczesnych smart-urządzeń, pozostawiają po sobie mnóstwo śladów. To cyfrowe widma naszych poczynań, które potem można wykorzystać z niesamowitą skutecznością. Dane powstałe w wyniku codziennego korzystania z produktów i usług są gromadzone, aby następnie zrobić coś, czego żadna maszyna nie dokona skuteczniej niż człowiek - wyciągnąć wnioski na przyszłość.
Powyższy przykład ze skręcaniem w lewo naprawdę miał miejsce. W 2011 roku kierowcom UPS zasugerowano, aby w miarę możliwości unikali skrętów w lewo. Muszą wtedy ustępować pierwszeństwa, dłużej stać na skrzyżowaniach oraz wykonywać więcej niebezpiecznych zakrętów. Zamiast tego powinni możliwie często skręcać w prawo, korzystając z pierwszeństwa przejazdu. Nawet jeżeli nieznacznie wydłużali w ten sposób trasę do punktu docelowego.
Głupota? Błahostka? Na pewno nie, gdy spojrzymy na otrzymane wyniki. Z perspektywy długoletnich działań firmy taka pozornie bezsensowna decyzja doprowadziła do zwiększenia szybkości dostaw paczek, zmniejszenia kosztów związanych z paliwem oraz obniżenia emisji CO2. Dzięki temu, że mądre głowy przed komputerami przeanalizowały ponad 32 mln km wykonanych przez kierowców UPS, a następnie wyciągnęły wnioski z gigantyczną korzyścią dla firmy.
Takich niesamowitych historii ulepszania produktów i usług na podstawie zebranych danych jest znacznie więcej.
Świetnym przykładem jest amerykańska sieć marketów WalMart. Lider sprzedaży w Stanach Zjednoczonych zaczął polegać na wnioskach pozyskanych z analizy tak zwanego Big Data już w 2004 roku. Wtedy do wybrzeża Stanów Zjednoczonych zbliżał się huragan Sandy, który wpłynął na decyzje zakupowe klientów z zagrożonego regionu. Amerykańscy konsumenci nie tylko wykazywali zwiększone zapotrzebowanie na artykuły pierwszej potrzeby, latarki oraz narzędzia do walki z awariami, ale również… truskawkowe wafle Pop Tarts. Firma nie mogła sprostać nieoczekiwanemu popytowi na ten produkt.
Pracownicy WalMarta nie rozumieli, co wafle mają do huraganu. Chyba do teraz tego nie wiedzą. Gdy jednak w 2012 roku Sandy znowu zaczęła zagrażać obywatelom USA, osoby zajmujące się analizą Big Data przypomniały o truskawkowych Pop Tarts. Żywność w większej niż zazwyczaj ilości dotarła do marketów i… również wyprzedała się na pniu. Pomimo odstępu ośmiu lat, sytuacja uległa powtórzeniu. Tym razem firma była na nią gotowa. Nie rozumiała jej. Nie potrafiła znaleźć racjonalnej argumentacji. Była jednak gotowa i zmaksymalizowała zysk, odpowiadając zwiększoną podażą na zwiększony popyt.
Innym razem nowo wprowadzone do sprzedaży ciasteczka cieszyły się umiarkowaną popularnością klientów, ale w kilkudziesięciu (na około 20 tys.) marketów nie sprzedawały się wcale. Nawet jedno opakowanie. Dla specjalistów od Big Data wydało się to na tyle ciekawe, że wzięli temat na tapetę. Pracownicy skontaktowali się z obsługą konkretnych WalMartów, po czym okazało się, że… produkt nie jest nawet wyłożony na półkach. Wszystko przez opakowanie bardzo podobne do konkurencyjnego produktu, który już znajdował się na regałach. Może nie ma w tym przesadnej filozofii, imponuje za to czas reakcji. W WalMart chwalą się, że dzięki analizie Big Data czas rozwiązania problemów został skrócony z około 2-3 tygodni do… 20 minut. Mowa o 20 tys. placówek nie tylko w Stanach Zjednoczonych, ale na całym świecie.
Z Big Data korzysta również Rolls-Royce, produkując potężne silniki do nowoczesnych samolotów.
Taki silnik generuje podczas lotu ponad 10 terabajtów danych. Chociaż niezwykle droga część samolotu podchodzi pod kategorię produktów inteligentnych, maszyna nie jest w stanie przeanalizować informacji, które sama stworzyła na podstawie własnego działania. Potrzebny jest do tego człowiek, który wyciąga wnioski z danych, dokonując potem masy poprawek i ulepszeń. Dzięki temu czas testowania nowych wersji produktu ulega radykalnemu skróceniu. Chociaż Rolls-Royce zasłania się tajemnicą firmową, pracownicy tego motoryzacyjnego giganta mówią o „znacznych” redukcjach kosztów, a także unikaniu pomyłek obciążających firmę na miliardy dolarów.
Dzięki Big Data firmy ubezpieczeniowe wiedzą, jak dobrze jeździ nowe pokolenie kierowców, w czasie rzeczywistym dostosowując ceny usług. Popularna sieć Target jest nawet w stanie przewidzieć, kiedy część żeńskich klientów zajdzie w ciążę i może spodziewać się dziecka. Co za tym idzie, firma jest w stanie przygotować spersonalizowaną ofertę ze zindywidualizowanymi promocjami. Mówi się, że Obama wygrał wybory właśnie ze względu na świetnych fachowców od Big Data. Wątek gigantycznych baz danych został również poruszony w serialu House of Cards, nieprzypadkowo odnosząc się do kampanii prezydenckiej.
Nowoczesne systemy medyczne są w stanie wykryć chorobę u noworodka na 24 godziny przed tym, nim pierwsze symptomy będą widoczne dla wykwalifikowanego lekarza. Wszystko za sprawą masy informacji „ściągniętych” z innych niemowlaków przez lata działania placówki. To dopiero początek medycznej rewolucji. Dzięki Big Data będziemy wiedzieli, co nam grozi, gdzie, w jakiej intensywności i z jakim procentem śmiertelności. Szczepionki na zabójcze choroby będą dostarczane w konkretne miejsca na tygodnie przed tym, nim wybuchnie tam epidemia. Czy też raczej bezskutecznie spróbuje wybuchnąć.
Big Data to nowy Święty Graal. To nowa ropa. Kto ma dostęp do danych, ten ma władzę, pieniądze i bezpieczną przyszłość.
Większość najważniejszych firm świata nie byłaby w tych miejscach, w których są teraz, gdyby nie dane o użytkownikach. Gdyby nie ufność w potęgę liczb. Gdyby nie wiara w pozornie idiotyczne wnioski, jak zakaz skrętu w lewo czy wysyłanie truskawkowych wafli w rejony zagrożone huraganem. Aby odnieść sukces podobny do UPS czy WalMarta nie wystarczy jednak samo posiadanie danych. Trzeba potrafić je analizować oraz wykorzystywać w praktyce.
Co innego generować dane, jak robią to roboty czy klienci marketów, co innego na podstawie tych danych wyciągać wnioski. Ktoś musi podejmować odpowiedzialne decyzje, które kosztują wielkie firmy dziesiątki milionów dolarów, ale zwracają tych dolarów miliardy. Jeżeli jednak dane zostaną przeanalizowane błędnie, błędna będzie także diagnoza. Leczenie okaże się gorsze od choroby. Dlatego tak ważne jest, aby posiadać fachowców zdolnych do pracy nad Big Data. Specjalistów, którzy wyciągną poprawne wnioski na podstawie dziesiątków milionów indywidualnych decyzji, działań, postaw i zachowań.
Nie ukrywam, chciałbym być taką osobą. Chciałbym być takim specjalistą od Big Data. Gdybym posiadał dzisiejszą wiedzę i mógł jeszcze raz pokierować swoimi losami, praca z danymi na pewno byłoby pośród zawodów, profesji oraz specjalizacji, które rekomendowałbym młodszemu ja z przeszłości. Lada moment dane wytwarzane przez dziennikarzy i tak zwanych media workerów wyprodukują roboty. Ba, częściowo już to robią. Jednak ktoś stale będzie musiał kontrolować i analizować te informacje. Dla takich osób pracy na pewno nie zabraknie.
Ile zarabia się w takiej branży? Początkujący analityk danych może liczyć na 50–75 tys. dol. w skali roku. Mowa o pensji na terenie Stanów Zjednoczonych. Zarobki doświadczonych analityków dochodzą do 110 tys. dol. rocznie, natomiast menedżerowie mogą dostać ponad dwukrotnie więcej. Pensje polskich ekspertów w tej dziedzinie także zdecydowanie wykraczają poza średnią, również biorąc pod uwagę jedynie branżę IT. Analitycy danych zarabiają od 12 do 18 tys. zł brutto, zaś deweloperzy danych od 12 do 16 tys. brutto.
Odpowiedzią na zapotrzebowanie analityków Big Data jest nowoczesna dziedzina Data Science.
Politechnika Warszawska doskonale rozumie przyszłość Data Science, już teraz organizując studia podyplomowe w tej dziedzinie. Kierunek „Przetwarzanie i analiza dużych zbiorów danych” ma wykształcić kompetencje do biznesowego decydowania w oparciu o dane oraz parametry. Taki student ma zdobyć umiejętność analizowania Big Data, a także opanować obsługę dedykowanych narzędzi - Apache Hadoop i Spark w ujęciu programistycznym (MapReduce), analitycznym (Pig i Hive) i administracyjnym, a także bazy NoSQL oraz elementy programowania współbieżnego. Z tego powodu od uczestników wymagana jest podstawowa znajomość języka Java oraz SQL.
Przeglądam program studiów Politechniki Warszawskiej i to jest prawdziwy konkret. To jest właśnie ta baza wiedzy, umiejętności oraz kwalifikacji, która w niedalekiej przyszłości oddzieli roboty od ich konstruktorów. Podczas gdy ja będę zaledwie bezimienną masą tworzącą Big Data, niezwykle wartościowi na rynku pracy będą ci, którzy z tym Big Data doskonale sobie poradzą. Analizując szczegółowy terminarz zajęciowy śmiem sądzić, że program PW będzie ku temu wystarczający. Opiekę merytoryczną nad programem studiów sprawuje 11-osobowa Rada Programowa, na którą składają się osoby z doświadczeniem zarówno naukowym, jak i mający wieloletni staż pracy w biznesie. Na tej podstawie mogę śmiało twierdzić, że program PW będzie łączył w sobie zalety podejścia dydaktycznego, naukowego, jak i opartego o praktykę biznesową.
Oczywiście poza studiami istnieją również specjalistyczne kursy, w których można wziąć udział.
Jednym z najpopularniejszych jest bootcamp Kodołamacza, organizowany przez działającą od ponad 9 lat spółkę Sages. Firma prowadzi szkolenia eksperckie dla podmiotów z branż informatycznej, finansowej, ubezpieczeniowej, czy telekomunikacyjnej. W ofercie dla indywidualnych klientów znajduje się 256-godzinny kurs analizy danych (w wersji weekendowej oraz tygodniowej), po którym uczestnik opanuje Pythona, SQL, Apache Spark oraz masę innych niezbędnych narzędzi, wystarczających do szybkiego rozpoczęcia pracy na stanowisku Junior Data Scientist.
Również w tym przypadku wymagania stawiane przed osobą aplikującą o uczestnictwo w kursie są bardzo konkretne. Aby dostać się do Kodołamacza, trzeba znać język angielski na poziomie średnio-zaawansowanym, mieć wpojone podstawy statystyki, a także potrafić programować w przynajmniej jednym języku. Do tego dochodzi rozmowa wstępna oraz testy predyspozycji potencjalnego uczestnika.
Sieć światłowodowa radząca sobie z terabajtami danych na sekundę. Internet Rzeczy. Smartfony. Smart zegarki. Smart pojazdy. Smart lodówki. Smart pralki. Smart telewizory. Smart domy i nawet smart miasta - wszystko to łączy się w jedną, bardzo spójną wizję przyszłości, w której rządzić będą dane. Przy takim natłoku inteligentnych urządzeń mnóstwo podmiotów będzie dysponowało bazami Big Data. Dlatego osoby wyposażone w klucze do tych zbiorów danych okażą się nieocenione.
Pomyślcie o tym, planując swoją przyszłość i myśląc o swojej karierze.
Jest zawód przyszłości odporny na rewolucję robotów