- Projektowanie, implementacja i rozwój rozwiązań opartych na modelach językowych (LLM).
- Tworzenie i wdrażanie agentów AI obsługujących zapytania w języku naturalnym z wykorzystaniem architektur
- Integracja modeli AI z systemami klientów – zarówno istniejącymi, jak i nowo projektowanymi.
- Projektowanie, konfiguracja i optymalizacja środowisk do uruchamiania lokalnych modeli LLM w infrastrukturze klientów (DataCenter).
- Współpraca z zespołami BDM i SALES przy wdrażaniu i skalowaniu rozwiązań AI
- Tworzenie i aktualizacja dokumentacji technicznej oraz standardów integracyjnych i architektonicznych.
- Prowadzenie warsztatów, konsultacji i prezentacji dla zespołów wewnętrznych oraz klientów.
- Wsparcie merytoryczne w przetargach i projektach przedsprzedażowych: analiza potrzeb, rekomendacje rozwiązań, tworzenie koncepcji architektury.
W realizacji zdań
pomoże ci
- Wykształcenie wyższe techniczne (informatyka, automatyka, matematyka, fizyka lub pokrewne).
- Doświadczenie w pracy z modelami LLM (np. GPT, LLaMA, Claude, Gemini, BERT, Bielik).
- Umiejętność pracy z podejściem RAG (Retrieval-Augmented Generation).
- Znajomość projektowania API REST oraz baz danych SQL (PostgreSQL) i NoSQL (MongoDB).
- Doświadczenie w projektowaniu systemów AI, optymalizacji NLP i integracji z wirtualizacją.
- Swobodne poruszanie się w środowiskach Kubernetes
- Praktyczna znajomość środowisk wirtualizacji (VMware vSphere, Hyper-V, Proxmox).
- Dobra organizacja pracy i samodzielność techniczna.
- Język angielski – minimum na poziomie B2.
Mile widziane:
- Doświadczenie z bibliotekami ML: TensorFlow, PyTorch.
- Znajomość Visual Studio i środowisk .NET.
- Zainteresowanie tematami Explainable AI oraz etyką AI.
- Certyfikaty z obszaru AI lub chmurowe - mile widziane
Jesteśmy firmą technologiczną, która łączy doświadczenie w architekturze systemów IT z nowoczesnymi rozwiązaniami sztucznej inteligencji. Tworzymy rozwiązania oparte na modelach językowych (LLM), wdrażamy agentów AI oraz integrujemy nowoczesne technologie z systemami naszych klientów. Szukamy osoby, która połączy kompetencje architekta AI z doświadczeniem w pracy z systemami wirtualizacji.
Szczególnie interesuje nas praca z własnymi modelami LLM hostowanymi w DataCenetr w GPU Cloud – rozwiązania te budujemy i skalujemy w oparciu o lokalną infrastrukturę naszych klientów oraz platformy wirtualizacyjne i kontenerowe , Kubernetes).
Jeśli masz solidne doświadczenie w pracy z AI, potrafisz projektować i wdrażać środowiska AI– dołącz do nas.