1. 負責 Hadoop、Spark 相關數據湖 open source 維運以及優化。
2. 數據分析、應用之相關程式(Python)開發。
3. 負責 Airflow 維運。
4. ETL 數據清洗與數據模型程式維運與開發。
5. 資料庫規劃、設計及 SQL 程式開發。
6. Tableau Server 維運&優化。
7. 統整數據格式與維護數據字典,導入數據治理。
1. 資訊工程、資訊管理、財稅金融相關科系畢或具備程式開發工作經驗。
2. 有 Python 等程式語言經驗者。
3. 良好的表達能力,例:有獨立負責和跟進項目的經驗。
4. 基於工作性質,需要具備學習能力並能夠發現問題及解決問題。
第一次面試可以遠端進行,第二關需要 Onsite
1. 熟悉Hadoop、Spark、Hive、Kafka(Kafka Connectors)等技術
2. 具自主開發測試大數據平台如Apache Iceberg、 Delta Lake、Hudi等
3. 熟悉java (大數據平台維運、非必要)
【本職缺歡迎身心障礙者投遞履歷】
【休憩與保障型福利】
【經濟型福利】
【服務型福利】
【康樂型福利】
【發展型福利】
【集團共享型福利】