100% リモートまたはワルシャワ/クラクフ - 正社員契約
Databricks Engineer
スキル:
27 000 - 34 000 PLN monthly (B2B)
(または他の通貨での同等額)
ハロー・ワールド!
我々はThe Codest – International Tech Software Company with tech hubs in Poland delivering global IT solutions and projects. Our core values lie in “Customers and People First” approach that prioritises the needs of our customers and a collaborative environment for our employees, enabling us to deliver exceptional products and services.
私たちの専門分野は以下の通りです。 ウェブ開発、クラウドエンジニアリング、DevOps、品質。 デロイトの権威あるTop25アワードで受賞した自社製品Yieldbirdの開発に長年携わった後、私たちは、ITデリバリー・パフォーマンスの向上を通じて、ハイテク企業がインパクトのある製品を構築し、ITチームをスケールさせることを支援するというミッションにたどり着きました。製品開発の課題に対する豊富な経験を通じて、私たちはデジタル製品の構築とITチームの拡張のエキスパートとなりました。
しかし、私たちの旅はここで終わりません。目標を持ち、新たな機会を求めている方は、ぜひ私たちのチームに加わってください!あなたを待っているのは、あらゆるステップであなたの成長を促す、充実した協力的な環境です。
現在、私たちは探しています:
DATABRICKS DATA ENGINEER
📈 あなたの責任:
Here, you will have an opportunity to contribute to a banking app for one of the leading financial groups in Japan. The platform is equipped with bank modules and data management features and it is customer-facing as well. We are seeking an experienced Databricks Engineer to design, build, and manage scalable data solutions and pipelines using Databricks. You’ll work closely with cross-functional teams to ensure data is reliable, accessible, and efficient to power analytics and business intelligence initiatives.
- Experience with Medallion Architecture (Bronze, Silver, Gold) for lakehouses using optimized performance patterns
- Build strong data quality frameworks with automated testing and monitoring
- 実施 Delta Lake features such as time travel, vacuum operations, and Z-ordering
- Develop and maintain complex ETL/ELT pipelines processing large-scale datasets daily
- Design and implement CI/CD workflows for data pipelines using Databricks Asset Bundles or equivalent tools
- 作成 real-time and batch data processing solutions with Structured Streaming and Delta Live Tables
- Optimize Spark jobs for cost efficiency and performance, leveraging cluster auto-scaling and resource management
- Develop custom integrations with Databricks APIs and external systems
- Design scalable data architectures using Unity Catalog, Delta Lake, and Apache Spark
- Establish data mesh architectures with governance and lineage tracking
主な要件:
- 6+ years of experience in data engineering, with a strong track record of designing and deploying production-grade data pipelines and ETL/ELT workflows
- Proficiency in Python, PySpark, and SQL
- Extensive hands-on experience with AWS services such as Glue, Lambda, Redshift, and S3
- Solid background in data governance and management tools, including platforms like Unity Catalog and AWS Sagemaker Unified Studio
- Proven experience in data migration initiatives and modernizing legacy systems
- Communicative English language skills (the project is in an international team)
➕ 持っていて良かった:
- Databricks Certified Professional Data Engineer (or equivalent certification)
- Excellent communication and teamwork skills
- Strong analytical thinking and problem-solving ability
- Experience with containerization and orchestration tools (e.g., Docker, Kubernetes) is considered an advantage
📜 私たちの約束(私たちに期待できること):
- 27000-34000 PLN on B2B contract
- 100%リモートワーク(ただし、クラクフとワルシャワにオフィスがあるので、時々そこで会えれば嬉しい😉)。
- ギフトカード、医療サービス、スポーツなど、福利厚生プラットフォーム「ワークスマイル」で利用できる300PLN。
- 当社のB2B契約には、IP BOXのサポートを受けることができる条項が含まれています。
- 統合イベント、教育機会、その他もろもろ...。
- あなたのキャリアを次のレベルに引き上げるまたとないチャンスです。あなたのアイデアをお聞かせください!
📌 採用プロセス:
- リクルーターとオンラインで30分間の選考電話
- 45min-1h technical call with one of our engineers
- 1h call with the team leader
- オファー
ご質問、ご意見は?採用チームまでお気軽にお問い合わせください: