Zakres obowiązków:
- Analiza wymagań biznesowych i przekładanie ich na specyfikacje techniczne.
- Projektowanie i optymalizacja procesów przetwarzania danych.
- Współpraca z programistami, architektami i klientami biznesowymi.
- Tworzenie raportów i analiz z wykorzystaniem technologii Python i PySpark.
- Udział w projektach z zakresu Big Data i Machine Learning.
Wymagania podstawowe:
- Wykształcenie: wyższe techniczne, preferowane kierunki: informatyka, matematyka, analiza danych, ekonometria lub pokrewne.
- Doświadczenie zawodowe: minimum kilkuletnie doświadczenie w roli analityka systemowego lub na stanowisku zbliżonym (np. data analyst, data engineer).
- Umiejętności techniczne:
- Praktyczna znajomość Python – zaawansowana znajomość, w tym bibliotek takich jak pandas, numpy, czy scikit-learn.
- Praktyczna znajomość PySpark – umiejętność przetwarzania i analizy dużych zbiorów danych z wykorzystaniem Spark.
- Znajomość baz danych: Postgres lub Oracle (zapytania, optymalizacja)
- Doświadczenie z narzędziami: systemy kontroli wersji (np. Git).
- Znajomość systemów Decerto: Higson będzie dodatkowym atutem
- Znajomość narzędzi chmurowych np. Red Hat OpenShift będzie dodatkowym atutem
- Znajomość narzędzi ETL będzie dodatkowym atutem.
- Umiejętności analityczne:
- Analiza wymagań biznesowych i systemowych.
- Tworzenie modeli analitycznych i algorytmów przetwarzania danych.
- Dokumentowanie procesów, w tym tworzenie diagramów przepływu danych.
Wymagania dodatkowe:
- Znajomość metodologii: Agile/Scrum (praca w zespołach projektowych).
- Tworzenie dokumentacji zgodnej z UML/BPMN.
- Umiejętność pracy w zespole interdyscyplinarnym.
- Komunikatywność – tłumaczenie złożonych aspektów technicznych na język biznesowy.
- Proaktywne podejście do rozwiązywania problemów.