博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
自制数据挖掘工具分析北京房价 (二) 数据清洗
阅读量:4957 次
发布时间:2019-06-12

本文共 2158 字,大约阅读时间需要 7 分钟。

 

         上一节我们通过爬虫工具爬取了近七万条二手房数据,那么这一节就对这些数据进行预处理,也就是所谓的ETL(Extract-Transform-Load)

 

    一.ETL工具的必要性

          数据分析的前提是数据清洗。不论如何高大上的算法,遇到错误数据,一个异常抛出来,绝对尸横遍野。而你不能指望核心算法为你处理错误或者短缺的数据。所以,数据清洗(ETL)就变得必不可少了。 如果数据分析是炒菜阶段,那么清洗就是洗菜,绝对是非常重要的一环。  

          而实际上,ETL工具可以很简单,也可以很复杂。简单到只需要把字符串转换为数字或者提供正则表达式。而复杂的ETL需要建立完整的错误日志机制,智能处理,自动汇总,还要做成工作流,脚本等复杂的形式。我决定做一个折中,提供最需要和差不多够用的功能。如果真有对ETL特别强烈而复杂的需求,那就只能借助专业的ETL工具了。

    二.ETL插件

在本系统中,ETL以插件的形式存在,可供系统进行调用。这些ETL工具包括了常见的场景:

  • 正则表达式提取
  • 数据类型转换,包括时间格式等
  • 随机数和范围数生成
  • 数据分割,排序和筛选
  • 噪声生成
  • 字符串转数字编号
  • 脚本数据
  • 高级的模块 如 分词,文本情感分析等

同时所有的模块都可以支持二次扩展。可为了新的场景增加新的模块。 模块分为两类:

  • 无监督工具:不需要之前的数据,直接生成新数据,如噪声产生器
  • 有监督工具:需根据之前的数据生成,如正则提取

这些ETL插件可以形成一个处理队列,以队列的形式依次处理数据,形成职责链。这样就能应对绝大多数的ETL需求。

    三. 使用介绍

下面,我们就以北京房价样例数据为例,进行ETL清洗。这些数据爬虫来自于网络,具体的爬取过程可参考前一节内容。

1. 数据导入和观察

首先在数据管理器上点击“导入”按钮,导入XML数据文件,如下图所示:

之后可以普通列表的形式,查看这些数据:

会发现这些数据非常有规律。我们可制定如下方案:

  1.   筛选出正常的数据,因为有些数据是残缺的,比如“面积”一栏是空的。
  2.   其价格是XXXXX元/平米,为了进行统计,需要通过正则进行提取
  3.   “属性3” 楼层数,可通过/ ,进行分割,取第二个项就好,最后一项是板楼或塔楼
  4.   在“属性3”中,可通过正则匹配提取年份
  5.   可在“坐标”一项中,通过分割,方便地提取编号,地理位置,所在小区和其他信息。
  6.    其他…

           2.编写数据筛选脚本

             首先进行数据筛选,将“数据筛选”插件拖入算法框中:

        同时进行配置,为了方便,我们仅提取前1000条数据作为分析目标。

 

         最重要的是,编写筛选的自定义函数脚本。与C#的语法相同:

      

        点击开始处理,即可筛选出满足条件的前1000条数据。

     3.进行ETL配置:

          与上一步类似,将“数据生成与预处理”模块拖到算法管理器中。

         将该模块的数据源,选为“全部”:

        

         点击命令列,可对ETL所需的插件进行配置:

      集合编辑器中,列举了系统加载的所有ETL插件,我们首先将价格提取出来:

    

     选择原始列名,填入新列名,如果不勾选“添加到新列”,则原始数据就会被覆盖。同时填写正则表达式 \d+ ,用于提取价格中的房价。同时,将目标类型选择为INT,转换完成后,数据的类型就会变为INT

     类似的,可提取建设年份。

      由于转换后,建设年份为STRING类型,可再添加一个字符串转时间的工具,方便转换为DateTime,直接将原有的数据覆盖就好。

    

     接下来提取地理坐标: 观察这些坐标,同样可以使用正则匹配,此处从略。

     接下来是所在的片区,它位于“坐标”这一属性中。使用正则匹配并不方便,因此采用数列分割的方法,即通过字符对该属性进行分割,提取出固定位置的项。通过观察, 可通过符号,进行分割,正好位于第4项

  

   类似的,可以提取小区名称,与所在行政区的唯一区别在于匹配编号,要填2

   最终完成的ETL流程如下图所示:

    这些ETL插件会顺次执行。如果一个插件的结果依赖于前一个插件,则一定要排在依赖插件的后边

    之后点击开始处理,ETL流程即可启动,所有的错误日志都会保存到一个专门的数据集中,用于再次分析和处理。这次处理没有错误,系统提示ETL流程成功结束,下面就是经过ETL后得到的新列

 

   为了保险起见,我们将这次加载的所有设置保存为一个任务,名字为”ETL清洗任务”,如果遇到同样的数据,可以进行相同的任务,而无需进行再次配置。

    可以在生成的系统配置文件中,看到此次任务所保存的XML文件:

 

        三.总结

          本节主要介绍了如何使用该工具进行ETL清洗,下一节我们将正式进入数据分析的流程。敬请期待。

转载于:https://www.cnblogs.com/buptzym/p/3946254.html

你可能感兴趣的文章
孤荷凌寒自学python第五十八天成功使用python来连接上远端MongoDb数据库
查看>>
求一个字符串中最长回文子串的长度(承接上一个题目)
查看>>
简单权限管理系统原理浅析
查看>>
springIOC第一个课堂案例的实现
查看>>
求输入成绩的平均分
查看>>
ORACLE 数据库概述
查看>>
php PDO (转载)
查看>>
保险折扣统计
查看>>
贝叶斯
查看>>
wordpress自动截取文章摘要代码
查看>>
[置顶] 一名优秀的程序设计师是如何管理知识的?
查看>>
关于使用“状态模式”做工作流概要。
查看>>
谈谈:程序集加载和反射
查看>>
mysql主从复制(超简单)
查看>>
scanf和gets
查看>>
highcharts 图表实例
查看>>
定时器使用
查看>>
LeetCode Median of Two Sorted Arrays
查看>>
【知识强化】第二章 线性表 2.2 线性表的顺序表示
查看>>
19.30内置登录处理
查看>>