UOSP 客诉工单自动化处理系统 (起名,突出自动化)
项目描述: 开发自动化脚本替代人工操作,实现银联内部 UOSP 系统中客诉工单的定时查询、筛选(按状态、日期范围)、导出文件自动下载,显著提升数据拉取效率与准确性。 (说明痛点:人工操作费时易错)
技术栈: Selenium (模拟浏览器操作) | Requests (API 调用/文件下载) | OCR (可选,用于验证码识别) | MySQL (记录任务状态) | Python (自动化脚本)。
个人职责与成果:
自动化流程设计: 设计并实现端到端自动化流程,模拟登录、查询条件设置、结果导出、文件下载等关键步骤。
Selenium 脚本开发: 使用 Selenium 精确操控 Web 元素,稳定处理复杂页面交互和动态加载。
数据处理与存储: 解析下载的工单数据文件,将关键信息结构化存储到 MySQL 数据库。
效率提升: 将原本需要 30+ 分钟的手工操作缩短至 5 分钟内自动完成,每周节省约 4 人时工作量,并消除人为操作错误。 (核心量化成果:时间节省、人力节省、错误消除)
任务调度与监控: 实现脚本的定时任务调度和基础运行状态监控。
新闻公告数据智能抓取与分析平台
项目描述: 设计并开发自动化系统,从指定行政区划公告网站精准抓取 2020 年至今的各类公告(统计公报、预决算、月度/季度数据等),实现标题、链接、日期的自动化提取、分类与结构化存储,为数据分析提供高质量数据源。 (清晰说明项目目标)
技术栈: Scrapy (分布式爬虫框架) | Requests/Selenium (复杂页面抓取) | Redis (请求调度、去重) | MySQL (数据持久化) | XPath/正则表达式 (精准数据提取)。
个人职责与成果:
数据源分析与规则制定: 深入分析目标网站结构及反爬策略,设计 URL 规律识别与拼接算法,成功覆盖 95% 以上的目标网站分页逻辑。 (量化覆盖率)
核心爬虫开发: 基于 Scrapy 框架开发分布式爬虫,设计高效调度器与下载中间件,稳定支持日均 50 万+ 条数据的并发抓取。 (量化处理能力)
精准数据提取: 针对不同栏目设计差异化关键词筛选规则(如预决算标题过滤逻辑)和 XPath/正则表达式,确保目标数据的抓取准确率 > 98%。 (量化准确率)
数据存储与优化: 利用 PyMySQL 实现高效数据批处理入库,设计合理数据库索引,提升数据写入速度 3 倍。 (量化写入速度)
系统健壮性保障: 实现异常处理与自动重试机制,集成代理 IP 池应对反爬,系统稳定运行时长 > 99%。 (量化稳定性)
可兼职时间
可兼职地点
0条评论 雇主评价