浅析数据ETL自动化部署方法及实现
数据从来源端经过抽取、转换、加载至目的端的过程称为ETL.在三网融合和5G移动业务广泛开展,运营支撑系统数据库数据量日益增大及数据个性化需求增多的背景下,海量数据自动化处理及可视化实现成为迫切的需求.本文介绍了当下主流数据ETL的过程节点与技术方案,并经过多种方案的综合对比,最终选取Python+Kettle+Streamlit模块技术方案的开发应用.该方案解决了数据ETL依赖人工及时效性不高的问题,减少了数据开发人员重复编写大量SQL及数据脚本工作量,节省了大量运营维护时间,实现数据结果集直观展示.
数据ETL、SQL、数据库、Python、Kettle、Streamlit、模块
29
TP393.09;TN929.5;TP277
2022-05-05(万方平台首次上网日期,不代表论文的发表时间)
共3页
70-72