1. 主要负责设计并实现ETL框架,后端数据处理。
2. 设计并实现分布式数据采集框架,从不同数据源采集数据。
3. 设计并实现数据抽取。利用spark大数据工具,汇总处理不同数据,生成不同的Metric信息,入库到不同数据仓库(数据湖)中,做好数据隔离与权责管理。
4. 设计并实现任务监控系统,数据监控系统以及设备管理系统,类似BI Dashboard。
# 另类数据平台
利用大数据技术做另类数据投资,实现数据中台,汇集供应商数据,以及各类自身定制化数据,帮助分析师及时获取二级市场相关企业运营数据,以及各类负面新闻数据,实时或定期生成数据报表;监控相关企业的运营状况,出现异常及时发出信号;监控市场资金流动方向,帮助企业及时获取投资决策信息。
可兼职时间
可兼职地点
0条评论 雇主评价