Data Engineer (40799)

« zurück
Celá ČR
12/2025 (12m+)
Vertrag über CP
90%
3 000 EUR
Diese Position ist derzeit nicht verfügbar

Hledám kandidáta na pozici Data Engineer. Pokud máte hluboké znalosti Snowflake, SAP integrací a metod CDC, můžete být klíčovým článkem tohoto projektu. Vaším úkolem bude navrhnout a implementovat efektivní datové kanály z SAP a dalších zdrojů do Snowflake, pracovat s polostrukturovanými daty (JSON, Parquet, Avro) a zajišťovat real-time i dávkové zpracování. Požaduji znalost Qlik QCDI, SAP Extractorů a moderních integračních nástrojů. 

🚀 Projekt
- plánování, monitorování a odstraňování problémů s QCDI pipeline.
- tvorba efektivních, škálovatelných a automatizovaných datových kanálů ze SAP (a dalších zdrojů) do Snowflake
- ukládání a zpracování polostrukturovaných dat (JSON, Parquet, Avro)
- integrace datových zdrojů SAP se Snowflake pomocí osvědčených postupů

🎯 Skills
- s
ilné zkušenosti s architekturou Snowflake (sklady, databáze, schémata, tabulky, fáze atd.)
- znalost Snowflake SQL (dotazování, transformace, ladění výkonu).
- zkušenosti s konektory a integracemi Snowflake (např. Snowflake SAP Connector, Qlik QCDI)
- znalost Snowpipe, Streams & Tasks pro příjem dat v reálném čase a dávkové zpracování
- pochopení cestování v čase, klonování a zabezpečení proti selhání pro obnovu dat a manipulaci CDC
- zkušenosti s ukládáním a zpracováním polostrukturovaných dat (JSON, Parquet, Avro)
- odbornost na integraci CDC a SAP
- praktické zkušenosti s metodami Change Data Capture (CDC) pro replikaci dat v reálném čase
- pochopení tabulek SAP Extractors, CDS Views a ODP (Operational Data Provisioning) pro extrakci dat
- zkušenosti s integrací datových zdrojů SAP se Snowflake pomocí osvědčených postupů
- dobrá znalost Qlik QCDI (Qlik Cloud Data Integration) pro vývoj ETL/ELT pipeline
- schopnost vytvářet efektivní, škálovatelné a automatizované datové kanály ze SAP (a dalších zdrojů) do Snowflake
- odbornost v plánování, monitorování a odstraňování problémů s QCDI pipeline

💡 Nice to have
- d
obrá znalost datového modelování (Star Schema, Snowflake Schema, Data Vault)
- zkušenosti s nástroji pro orchestraci (např. Airflow, dbt nebo podobné)
- hodila by se znalost cloudových platforem (AWS, Azure, GCP) a souvisejících služeb
- znalost rozhraní API a rámců integrace dat pro připojení externích zdrojů
- schopnost odstraňovat problémová místa ve výkonu a optimalizovat datové toky
- slné schopnosti řešit problémy a zkušenosti s prací v agilním prostředí.

Ähnliche Positionen