Ruszyliśmy z nowym projektem rekrutacyjnym, skierowanym do osób chcących rozpocząć swoją karierę w branży IT.
Oferujemy pracę przy ciekawych projektach, luźną atmosferę pracy i zarobki w zależności od stopnia doświadczenia.
Wymagania:
Skrupulatność
Chęć do rozwijania się
Kreatywność
Rozumienie dokumentacji technicznej
Mile Widziane:
SQL
CasperJS
Scenariusze testowe
HTML
JavaScript
Wszyscy kandydaci, którzy wezmą udział w rekrutacji na stanowisko testera w firmie iTechnologie Sp. z o.o. będę mieli możliwość zdobycia cennych nagród w konkursie.
Co zrobić aby wygrać nagrody?
Zarejestruj się w dniach 18.07.2017 r. – 8.08.2017 r.
W dniach 9.08.2017 r. – 16.08.2017 r. zaprosimy Cię do wykonania testu
Nagrody trafią do osób z najwyższymi wynikami!
Na zwycięzców czekają:
Miejsce 1 – Kupony PaySafeCard o sumarycznej wartości 200 zł!
Miejsce 2, 3 – Kupon PaySafeCard o wartości 100 zł!
Miejsca 4, 5, 6 – Nagroda książkowa!
To doskonała szansa na start w branży IT. Nie czekaj i zgłoś się już dziś! Być może to właśnie Ty okażesz się być najlepszym kandydatem.
Zainteresowany/Zainteresowana? Szczegółowe informacje oraz formularz rejestracyjny znajdziesz po adresem:
Dobiega końca projekt, który zaowocował otwarciem oddziału firmy iTechnologie w Częstochowie. Dzięki wielkiemu zaangażowaniu kadry naukowej Politechniki Częstochowskiej nawiązaliśmy współpracę z najzdolniejszymi studentami tej uczelni, którzy chcą poszerzyć swoją wiedzę i zyskać rynkowe doświadczenie.
Wraz z rozpoczęciem pracy nad projektem stworzyliśmy 10 nowych miejsc pracy, dając jednocześnie studentom możliwość zmierzenia się z największą w Europie hurtownią danych.
Projekt prowadzony jest z wykorzystaniem technologii SAS, dzięki czemu studenci pod okiem doświadczonych ekspertów poznają tajniki najbardziej popularnej technologii do przetwarzania danych. Ponadto mają oni niepowtarzalną okazję do poznania całej gamy innowacyjnych rozwiązań takich jak:
Po kilku miesiącach zakończyliśmy pracę nad pierwszą wersją naszego nowego projektu – oprogramowaniem służącym do wspierania procesu rekrutacyjnego pracowników. liteHR – to rozbudowane, wielofunkcyjne narzędzie, które przeniesie dotychczasowe sposoby rekrutacji na zupełnie inne tory.
Nowy sposób pozyskiwania kandydatów – Zintegruj swoją stronę z oprogramowaniem liteHR. Nasze API umożliwi użytkownikom rejestrację i rozwiązanie próbnego testu sprawdzającego ich umiejętności.
Automatyzacja procesów rekrutacyjnych – Podczas rekrutacji największym problem wciąż pozostaje czas. Skróć go! Dzięki naszemu oprogramowaniu możesz zarządzać całym procesem rekrutacji z poziomu panelu. Zapraszaj użytkowników do wykonania odpowiednich testów pojedynczym kliknięciem. Syntetyczny raport z przeprowadzonego testu otrzymasz zaraz po wykonaniu go przez kandydata.
Wsparcie ekspertów – Zatrudniając specjalistów potrzebujesz sposobu na sprawdzenie ich kompetencji. Wykorzystując nasze oprogramowanie masz dostęp do automatycznych testów, w których zawarta jest nasza wiedza i wieloletnie doświadczenie. W dodatku przydzielony zostanie Ci opiekun techniczny i merytoryczny.
Funkcjonalność liteHR
Stworzone przez nas oprogramowanie w znacznym stopniu pomoże usprawnić procesy rekrutacyjne. Narzędzie samo w sobie zawiera wiele elementów odpowiedzialnych za poszczególne funkcjonalności. Są to między innymi:
Backend (Panel rekrutera/ administratora)
Możliwość sprawnego zarządzania relacjami z kandydatami (ang. Customer Relationship Managment – CRM)
Szybka i wygodna wyszukiwarka kandydatów
Możliwość efektywnego zarządzania projektami
Interfejs aplikacji (API)
Frontend – doskonałe narzędzie do zbierania danych osobowych. Pozwala użytkownikom odwiedzającym wybraną stronę internetową zarejestrować się oraz sprawdzić swoje umiejętności w bezpłatnych testach kompetencji.
Automatyczne testy kompetencji SAS i SQL zawierające pytania zamknięte, otwarte i kodowe. W przypadku testowania kompetencji związanych z programowaniem czy pisaniem zapytań, konieczne jest sprawdzanie kodu napisanego przez kandydata. W przypadku standardowych procesów rekrutacyjnych, zajmują się tym wspomniani wcześniej eksperci. Nasze oprogramowanie umożliwia alternatywne podejście. Kandydat wpisuje kod w wybranej technologii, a oprogramowanie automatycznie sprawdza rezultaty jego działania. Efektem końcowym przeprowadzonego testu, jest syntetyczny raport wspomagający decyzję o zatrudnieniu.
Wedle przewidywań ekspertów zapotrzebowanie na analityków Big Data oraz administratorów baz danych będzie wzrastać, a co za tym idzie coraz więcej firm będzie musiało zdecydować się na rekrutację takich osób.
Jak wynika z danych Pracuj.pl, w pierwszym kwartale 2016 r. wyraźnie wzrosło zapotrzebowanie na specjalistów odpowiedzialnych za administrowanie danymi/storage. Według danych zawartych w najnowszej publikacji Pracuj.pl „Pracuj w IT”, obszar IT związany z tzw. Big Data jest jednym z sektorów, które rozwijają się bardzo dynamicznie. Ta dziedzina wymaga zdolności analitycznych, w szczególności optymalizowania działania programów. Jest już stosowana w wielu gałęziach biznesu, a branża IT dopiero zaczyna wykorzystywać prawdziwe możliwości technologii Big Data.
Źródło: http://www.pracuj-dla-mediow.pl/pr/320803/specjalista-it-poszukiwany-i-dobrze-wynagradzany
Jednak chętnych na takie stanowiska prawdopodobnie nie będzie brakować. Do niedawna rynek IT bezsprzecznie pozostawał rynkiem pracownika, jednak obecnie coraz częściej mamy do czynienia z sytuacją, w której liczba chętnych do podjęcia pracy jest większa niż liczba miejsc. Pozostaje pytanie jak wybrać najlepszych spośród wszystkich kandydatów.
Podsumowanie
Prawidłowo przeprowadzony proces rekrutacyjny pozwala nie tylko na pozyskanie dobrych specjalistów, ale i na budowanie wizerunku odpowiedzialnego pracodawcy, co znacznie ułatwia poszukiwanie pracowników w przyszłości. Jako wsparcie dla firm przeprowadzających procesy rekrutacyjne proponujemy nowoczesną, rozbudowaną platformę liteHR. Dzięki niej oszczędzisz sporo czasu, znajdziesz kandydatów spełniających twoje oczekiwania i przetestujesz ich kompetencje.
Nasza oferta to przede wszystkim:
Nielimitowana liczba testów
Nielimitowana liczba użytkowników – rekruterów
Wszystkie technologie testów + stale rosnąca baza testów
Dostęp do API
Dedykowany opiekun techniczny i merytoryczny! (ekspert SAS, Oracle itd w cenie!)
Branding narzędzia i kanałów komunikacji
Przygotowanie dwóch dedykowanych testów w cenie
Handholding przy dwóch pierwszych projektach rekrutacyjnych
W poprzednich dwóch artykułach, w których opisałem moje zmagania z rynkiem Forex zajmowałem się dokonywaniem wirtualnych inwestycji opartych na analizie technicznej. Przyszła kolej na analizę fundamentalną. Wpis dotyczyć będzie transakcji, które przeprowadziłem przy użyciu oprogramowania MT.ditor, umożliwiającego tworzenie rozbudowanych strategii inwestycyjnych.
Analiza Fundamentalna
Inwestorzy korzystając z analizy fundamentalnej biorą pod uwagę wszystkie dostępne informacje. W przypadku rynku walutowego polega to na obserwacji sytuacji makroekonomicznej w danym kraju oraz na świecie. Analiza zmian zachodzących w gospodarce pozwala określić w jaki sposób wpłyną one na popyt i podaż danej waluty, a co za tym idzie na wartość jej kursu.
Z punkty widzenia analizy fundamentalnej najważniejszymi czynnikami determinującymi zachowanie się kursów walut są publikowane dane ekonomiczne, polityka pieniężna banków centralnych, wypowiedzi osób mających duży wpływ na politykę pieniężną oraz nieoczekiwane wydarzenia, których oczywiście nie sposób przewidzieć.
Kluczową rolę w analizie fundamentalnej odgrywają wskaźniki makroekonomiczne, czyli właśnie publikowane dane. Wśród ważniejszych wskaźników wpływających na zachowanie się kursów walut znajdują się między innymi:
Produkt krajowy brutto (GDP)
Wskaźnik cen produktów i usług (Consumer Price Index, CPI)
Wskaźnik cen produkcji sprzedanej przemysłu (Production Price Index, PPI)
Wysokość stóp procentowych
Stopa bezrobocia (Unemployment Rate)
Oprogramowanie MT.ditor
Aplikacja, którą wykorzystałem w celu przeprowadzenia transakcji umożliwia budowanie własnych strategii inwestycyjnych. Całość połączona jest z platformą tradingową, a uruchomienie strategii sprawia, że działa ona na serwerze, czyli nawet gdy użytkownik jest offline. W zależności od potrzeb użytkownika aplikacja umożliwia standardowe funkcje takie jak otwieranie i zamykanie transakcji (Order i Close) oraz określenie wariantów, na podstawie których te funkcje są wykonywane ( np.: wartość kursu osiąga wartość mniejszą niż/większą niż wartość założona – Signal). Pozwala to na staranne zaplanowanie swoich działań w zależności od zachowania danego kursu.
W przypadku bardziej rozbudowanych strategii możliwe jest stworzenie wielu dróg, którymi będzie mogła podążać strategia. Dodatkowo program umożliwia dodawanie funkcji (węzłów) takich jak:
Macro – Węzeł warunkowy bazujący na danych makroekonomicznych
SMS – Możliwość wysłania wiadomości SMS do użytkownika
Money – Węzeł warunkowy bazujący na środkach dostępnych na koncie
Poniższy film pokazuje krok po kroku tworzenie strategii inwestycyjnej opartej na wykorzystaniu danych makroekonomicznych:
U.S. The Federal Budget Balance
Wybranym przeze mnie wskaźnikiem makroekonomicznym użytym w strategii był Bilans Budżetu Federalnego Stanów Zjednoczonych. Publikowane dane pokazują różnicę wartości między dochodami i wydatkami rządu federalnego w danym miesiącu. Dodatnia wartość wskaźnika oznacza nadwyżkę w budżecie, natomiast ujemna – deficyt.
Odczyt wyższy niż prognozowany powinien być odebrany jako pozytywny dla USD, natomiast niższy – negatywny. Opublikowana wartość wskaźnika wyniosła -113 miliardów dolarów, podczas gdy prognozowana wartość wynosiła -129,9 mld USD, można było zatem założyć, że wpłynie to pozytywnie na wartość USD, a co za tym idzie kurs EURUSD odnotuje spadek.
Opis strategii oraz przebieg transakcji
Poniższa grafika przedstawia stworzoną przeze mnie strategię. Zawierała ona elementy Macro, wyczekujące na publikacje danych dotyczących Budżetu Federalnego Stanów Zjednoczonych oraz odpowiednie elementy dokonujące transakcji.
Grafika nr.3 – Zastosowana strategia inwestycyjna
Krótko po opublikowaniu danych dotyczących budżetu federalnego otworzyła się transakcja sprzedaży. Jej szczegóły wyglądają następująco:
Typ transakcji:Sprzedaż Loty: 0.5 Czas otwarcia: 2016.08.10 20:00:26 Cena otwarcia: 1,11787 Czas zamknięcia: 2016.08.11 07:21:25 Cena zamknięcia: 1,11643 Końcowy zysk:144 pips (Pips – minimalna wartość zmiany notowań instrumentu)
Opisana transakcja była pierwszą, której dokonałem na podstawie analizy fundamentalnej. Mimo stosunkowo niewielkiego zysku cieszę się, że mój wirtualny bilans transakcji opartych na podstawie tego typu analizy od razu wyszedł na plus. Dodatkowo była to druga pod względem długości czasu trwania oraz druga pod względem wielkości zysku transakcja. Być może to znak by skupić się na większych interwałach czasowych ?
Wiele materiałów dostępnych w Internecie dotyczących wskaźników makroekonomicznych opisuje wpływ Bilansu Budżetu Federalnego Stanów Zjednoczonych na wartość waluty USD jako niski. Rzeczywiście, opublikowanie danych nie wywołało znaczących zmian, jednak kurs EURUSD powoli stracił na wartości (nawet po zakończeniu transakcji, prawdopodobnie bardziej doświadczony inwestor na moim miejscu nie zakończyłby transakcji tak szybko… ).
Co do użytego oprogramowania, MT.ditor zrobił na mnie ogromne wrażenie już na samym początku. Jest to prosty w obsłudze, intuicyjny program, pozwalający zaoszczędzić mnóstwo czasu poprzez wprowadzanie w życie starannie zaplanowanych decyzji krok po kroku. Myślę, że zarówno początkowi gracze – tacy jak ja, oraz doświadczeni traderzy z jego pomocą będą w stanie osiągać jeszcze lepsze wyniki.
W poprzednim wpisie, który pojawił się na naszej stronie opisałem możliwości jakie wynikają z wykorzystania sprzętu i oprogramowania dostępnego w Itechnologie, w celu prognozowania kursu walut na rynku Forex. W poniedziałek 25 lipca w godzinach 10:00 – 12:00 udało mi się przeprowadzić bardzo ciekawą prognozę, którą wykorzystałem do pomnożenia wirtualnych pieniędzy na moim darmowym koncie na jednej z platform tradingowych.
Wykładnik Hurst’a
Rzeczą, o której warto wspomnieć już na samym początku jest tak zwany „Wykładnik Hurst’a”. Nazwa wykładnika pochodzi od nazwiska Harolda Edwina Hurst’a, który na początku XX wieku pracował jako hydrolog w Egipcie, zajmując się miedzy innymi badaniami związanymi z rzeką Nilu. Zasłynął on między innymi dzięki zastosowaniu innowacyjnej, oraz jednocześnie bardzo prostej metody do oceny zjawiska pamięci oraz przyczynowości w szeregach czasowych. Obecnie metoda ta wykorzystywana jest do opisu zjawisk przyrodniczych oraz badania zachowania rynków finansowych. Więcej informacji na temat prac Harolda Edwina Hurst’a możecie znaleźć tutaj.
W oprogramowaniu, które wykorzystuję do prognozowania kursu EURUSD na rynku Forex wykładnik Hurst’a odgrywa bardzo ważną rolę. Na podstawie danych – poprzednich wartości kursu, oprogramowanie nieprzerwanie zajmuje się wyliczaniem wykładnika Hurst’a dla zadanego szeregu czasowego (przebiegu zmienności kursu). Na podstawie wartości tego wykładnika możliwe jest określenie właściwości badanego szeregu czasowego. Ze względu na jego wartość szeregi możemy podzielić na trzy grupy:
Szeregi, dla których 0 < H < 0,5 charakteryzują się tendencją do powracania do średniej, dokonują częstych zwrotów kierunku przemieszczenia. W odniesieniu do rynków kapitałowych możemy mówić tu o zjawisku osłabiania trendu.
Jeśli wartość wykładnika dla danego szeregu wynosi H = 0,5 mówimy, że jest to szereg całkowicie losowy.
W przypadku gdy wartość wykładnika dla danego szeregu zawiera się w przedziale 0,5 < H < 1 możliwe do zaobserwowania jest zjawisko wzmocnienia trendu. Takie szeregi posiadają również efekt długiej pamięci, czyli zależności danych w dłuższym okresie.
Przykładowo o godzinie 11:35 w poniedziałek 25 lipca, wykładnik Hurst’a przyjął następujące wartości:
Rys.1 – Wartość wykładnika Hurst’a w zależności od liczby wejść dla agregatów 5m oraz 15m. Źródło: aplikacja Heimdall
Na podstawie powyższych wykresów można dojść do wniosku, że następuje wzmocnienie trendu. Dodatkowo wykres przedstawiający zmianę wykładnika w czasie sugeruje, że będzie to stosunkowo silny trend.
Rys.2 – Zmiana wykładnika Hurst’a w czasie dla agregatów 1m oraz 5m. Źródło: aplikacja Heimdall
Prognoza
Podczas dokonywania prognozy przyjąłem następujące parametry:
Liczba wejść – 84
Liczba wzorców -208
Agregat – M15
Tryb zbioru walidacyjnego – Równomierny
Liczba prognozowanych wartości – 120
Liczba warstw – 3
Liczba neuronów – 4
Liczba wyjść – 1
Czas uruchomienia prognozy – 10:00
Otrzymana prognoza przedstawiała się następująco:
Rys.3 – Prognoza kursu EURUSD
Rzeczywisty Kurs
Otrzymaną prognozę wraz z rzeczywistym kursem EURUSD przedstawia poniższy wykres:
Rys.4 – Prognoza kursu EURUSD wraz z rzeczywistymi wartościami
Oczywiście wiadomo, że prognoza sprawdzać będzie się jedynie do pewnego momentu. Docelowo datę prognozy ustawiono na godzinę 11:45 zatem prognoza powinna sprawdzać się przez około 2 godziny. Tak też się stało. Następny wykres pokazuje wartości prognozy oraz rzeczywistego kursu w przedziale 10:00 – 15:30.
Rys.5 – Prognoza kursu EURUSD wraz z rzeczywistymi wartościami w zakresie poprawności prognozy
Widać na nim, że otrzymane odwzorowanie bardzo dobrze sprawdziło się przez pierwsze 2 godziny. Dodatkowo dokładnie o godzinie 12:00 wartość prognozy oraz kursu praktycznie pokryły się ( różnica wyniosła jedynie 0,000071 !). Następnie nastąpiło stopniowe oddalanie się od prognozowanych wartości.
Oferta Kupna
Widząc wysoką wartość współczynnika Hurst’a oraz prognozowane wartości kursu otrzymane na podstawie prognozy zdecydowałem się na zainwestowanie moich wirtualnych pieniędzy dostępnych na rachunku demo w platformie XTB. Szczegóły jednej z dwóch dokonanych transakcji wyglądają następująco:
Typ transakcji: Kupno Czas otwarcia: 2016.07.25 10:21:33 Cena otwarcia: 1,09792 Czas zamknięcia: 2016.07.25 11:33:48 Cena zamknięcia: 1,09853 Zysk: 61 Pips (Pips – minimalna wartość zmiany notowań instrumentu)
Dokonana prognoza okazała się bardzo dobra. Pierwsza transakcja, której dokonałem została przeze mnie zamknięta na krótko przed prognozowanym spadkiem kursu. Wartość wykładnika Hursta w tym czasie pozostawała wciąż wysoka co pozwalało przewidzieć, że silny trend wzrostowy wcale nie osłabł i możliwe jest uzyskanie znacznie większego przychodu. Z tego powodu zdecydowałem się zatrzymać drugą spośród transakcji dokonanych tego dnia. Jej szczegóły wyglądają następująco:
Typ transakcji: Kupno Czas otwarcia: 2016.07.25 10:03:50 Cena otwarcia: 1,09704 Czas zamknięcia: 2016.07.26 08:02:30 Cena zamknięcia: 1,10112 Zysk: 408 Pips
Jak się później okazało wartość kursu po godzinie 12:00 zaczęła faktycznie spadać, jednak później znów stabilnie wzrastać, aż do dnia kolejnego, co pozwoliło na uzyskanie dużo lepszych wyników.
Jak widać informacje uzyskiwane dzięki prognozom oraz wykładnikowi Hursta w znaczący sposób wspomagają decyzje finansowe podejmowane na rynku Forex. Mam nadzieję, że już wkrótce uda mi się wykonać więcej poprawnych i wartych uwagi prognoz, którymi będę mógł się z wami podzielić.
Od niedawna mam przyjemność bycia stażystą w firmie iTechnologie Sp. z o.o. Co prawda mam już na swoim koncie dwa artykuły, które dotychczas pojawiły się na naszej stronie w kategorii „News Blog”, jednak ten wpis będzie zdecydowanie różnił się od poprzednich. W jaki sposób ? Będzie to swego rodzaju opis tego, czym zajmowałem się podczas kilku poprzednich dni. Otóż minęło już trochę czasu odkąd rozpocząłem mój staż. W tym okresie udało mi się poznać dokładnie specyfikę firmy, jej główne działania, realizowane projekty oraz ludzi, z którymi mam przyjemność współpracować. Oprócz tego otrzymałem również możliwość wykorzystania zaawansowanego sprzętu i oprogramowania jakim dysponuje iTechnologie. Mowa tutaj o komputerze, z dwoma wbudowanymi kartami graficznymi NVIDIA HP TESLA C2075, które połączone są ze sobą.
Sprzęt tego typu umożliwia wykonywanie akcelerowanych obliczeń na układach GPU poprzez wykorzystanie procesorów graficznych, wspólnie z jednostką CPU. Zapewne większość z nas zdaje sobie sprawę z tego czym różni się to od standardowego sposobu dokonywania obliczeń w układzie CPU, jednak mimo wszystko postaram się to zobrazować. W tym celu posłużę się ciekawym filmem, na który natknąłem się w sieci.
Algorytmy sieci neuronowej a Forex
Wykorzystanie układów GPU umożliwia przetwarzanie ogromnych zbiorów danych i równoległe uruchamianie setek algorytmów sieci neuronowych. Obecnie sieci neuronowe znajdują zastosowanie w wielu dziedzinach życia. Wykorzystuje się je między innymi do monitorowania ruchu drogowego, rozpoznawania obrazów i mowy, przetwarzania mowy, przeprowadzania eksperymentów naukowych oraz do przewidywania zachowania rynków finansowych. Jednym z zadań, którymi zajmuje się podczas stażu jest właśnie próba prognozowania kursu euro do dolara amerykańskiego z wykorzystaniem algorytmów sieci neuronowej. Tak oto właśnie rozpocząłem swoją przygodę z rynkiem Forex (ang. Foreign Exchange).
Opis zastosowanego modelu
W przeprowadzonych przeze mnie symulacjach wykorzystałem sieć typu Perceptron, która została zaimplementowana w aplikacji Itechnologie (Heimdall) i wykorzystuje wspomnianą wcześniej architekturę Tesla.
Dla każdej z prognoz możliwe jest dobranie unikalnego zestawu parametrów. W ten sposób możemy określić strukturę sieci, którą będziemy wykorzystywać. Określić możemy między innymi:
Liczbę warstw sieci
Liczbę neuronów znajdujących się w każdej warstwie
Liczbę wyjść
Liczbę prognozowanych wartości
Od wyboru powyższych elementów zależeć będzie jakość prognozy oraz szybkość jej generowania. Zwiększenie liczby warstw neuronów z wiadomych względów wydłuża czas oczekiwania na prognozę, jednak może skutkować lepszym odwzorowaniem. Możliwe jest również wybranie trybu zbioru walidacyjnego (zbioru testowego) na podstawie którego sieć testować będzie otrzymane wyniki, oraz liczby wejść i wzorców sieci, które związane są z wykładnikiem Hursta. Na ten temat wypowiem się jednak później.
Ogólną (uproszczoną) zasadą działania modelu przedstawić można następująco: na podstawie poprzednich wartości danego kursu sieć określa prognozę kursu poprzez określenie jego kolejnych wartości, oddalonych od siebie o szerokość badanych przedziałów.
Sukces ?
Okazało się, że już po wykonaniu kilku przykładowych prognoz pozytywnie się zaskoczyłem. Po wyborze odpowiednich parametrów i przetestowaniu kilku schematów udało mi się przy pomocy opisywanego narzędzia określić z dokładnością do kilkunastu pipsów kolejne wartości kursu EURUSD w przedziałach do 15 – 20 minut w kilku prognozach spośród wszystkich kilkunastu dokonanych. Dodatkowo zdecydowana większość prognoz pokazała wyraźny trend spadkowy w dłuższych przedziałach czasowych, który później okazał się prawidłowy. Wydaje mi się, że jak na zupełnego nowicjusza w tym zakresie jest to całkiem dobry wynik. Myślę, że opisana tutaj aplikacja to świetne narzędzie nie tylko dla początkujących graczy, ale również dla tych, którzy grają już bardzo długo. Korzystanie z aplikacji daje możliwość porównywania swoich przypuszczeń co do przyszłych wartości kursu, z prognozami wyliczonymi na podstawie zaawansowanych algorytmów. Już wkrótce opublikuję więcej informacji na temat otrzymanych prognoz i związanych z nimi przemyśleń.
Obecnie bardzo dużo mówi się o technologii Big Data. Jest to związane z ciągłym zwiększaniem się ilości otaczających nas informacji. Najnowsze badania pokazują, że tempo wytwarzania danych rośnie wykładniczo. Według oceny ekspertów IBM 90 % danych, które obecnie posiadamy została wygenerowana w ciągu ostatnich dwóch lat. Przewidują oni, że na przestrzeni kilku następnych lat ilość danych jakie będziemy posiadać może zwiększyć się nawet o kilkadziesiąt razy.
Czy Big Data = „Dużo Danych” ?
W pewnym sensie na pewno tak. Mówiąc „Big Data” mamy na myśli głównie duże zbiory danych, których rozmiar sięga terabajtów lub nawet petabajtów ( np.: dane generowane przez miliony klientów Telekomów) ale również mniejsze zbiory: gigabajty, megabajty. To co przede wszystkim charakteryzuje zbiory danych, których analizowanie wymaga zastosowania technologii Big Data to ich zmienność i różnorodność. Dane w takich zbiorach uzyskiwane są w formie nieustrukturyzowanej (np. pliki PDF, pliki CSV, tabele relacyjne, itp.), a co najważniejsze i najbardziej problematyczne – pochodzą z wielu źródeł. Niemożliwe jest więc analizowanie ich w tradycyjny sposób.
W Polsce wciąż analizuję się mało
Obecnie co czwarta firma z Europy Środkowej korzysta z rozwiązań do analizy wielkich zbiorów danych. W badaniu firmy Intel przeprowadzonym w Polsce, Czechach, na Węgrzech i Słowacji dotyczącym wykorzystania tego typu technologii wypadamy najsłabiej. Jak pokazuje badanie jedynie 18 % polskich przedsiębiorstw wykorzystuje analizę Big Data, podczas gdy w Czechach oraz na Słowacji wartości te wynoszą odpowiednio 33,1 oraz 30,7 %.
Źródło: www.intel.pl – dane dotyczące wykorzystania technologii Big Data pochodzące z 4 kwartału 2015 roku.
Obecnie wbrew pozorom z technologii „Big Data” w naszym kraju w większości korzystają małe i średnie firmy. Spośród dużych spółek tylko nieliczne decydują się na wykorzystanie tej technologii.
Co jest przyczyną ?
Przede wszystkim wiele firm wciąż nie posiada odpowiednich możliwości do wykorzystania tego typu technologii. Zastosowanie Big Data wymaga umiejętności sprawnej integracji wielu źródeł danych – kluczowe jest posiadanie bardzo rozległej wiedzy technologicznej i sprawne poruszanie się po różnych dziedzinach informatyki. Ponadto wykonanie prac w modelu Big Data wymaga kosztownego sprzętu. Wiele polskich firm po prostu nie posiada odpowiednich zasobów finansowych aby go nabyć, a rozwiązania chmurowe, dostępne cenowo, w powszechnym odbiorze nadal sprawiają wrażenie mniej bezpiecznych. W szczególności dotyczy to podmiotów, które przetwarzają wrażliwe dane finansowe, osobowe, np. Banki, Ubezpieczyciele, itp.
Kim jest analityk Big Data ?
Przyszli kandydaci na stanowiska analityków Big Data będą musieli sprostać niemałym wymaganiom, jakie narzucać będzie im rynek pracy. Przeglądając oferty pracy związane z technologią Big Data widać, że wśród najbardziej pożądanych umiejętności na takich stanowiskach znajduje się między innymi:
posiadanie szerokiej wiedzy z zakresu IT
umiejętność pracy z wykorzystaniem protokołów sieciowych
znajomość systemów Linux/Unix
znajomość technologii Hadoop lub pochodnych
umiejętności pracy z dużymi bazami danych oraz znajomość SQL, NoSql
doświadczenie w programowaniu w językach takich jak C++, Python, Java
Według nas przyszłych analityków Big Data porównać będzie można do ludzi renesansu. Do ich obowiązków należeć będzie między innymi łączenie się z bazami danych, pisanie kodu umożliwiającego wyciąganie i przetwarzanie informacji oraz automatyzacja tego kodu w zależności od konkretnego problemu. Przydatna okaże się znajomość takich języków programowania jak Python czy JavaScript. Analityk Big Data potrzebować będzie szerokiej wiedzy z zakresu obejmującego systemy Unix/Linux, łączenie przez protokoły sieciowe ssh, ftp itp. Konieczne okażą się umiejętności łączenia się przez zdalny pulpit oraz zdolność pracy z wykorzystaniem wirtualnych sieci prywatnych ( VPN ).
Przyszłość analityków Big Data w Polsce
Widząc korzyści jakie przynosi odpowiednie wykorzystanie technologii Big Data wiele polskich firm deklaruje chęć przyszłego wdrożenia jej w swoich firmach. Najprawdopodobniej znajdzie ona szerokie zastosowanie w bankowości i finansach, energetyce, telekomunikacji a nawet w sektorze publicznym. Obserwujemy zwiększenie zapotrzebowania na specjalistów Big Data co w przyszłości może pozytywnie wpłynąć na poziom zarobków tej grupy.