【MapReduce】招聘数据清洗

网友投稿 351 2022-08-25

【MapReduce】招聘数据清洗

文章目录

​​招聘数据清洗​​

​​1.数据集​​​​2.清洗目标​​​​3.思路​​​​4.代码执行​​

​​♦ Mapper阶段​​​​♦ Reducer阶段​​​​♦ Driver阶段​​​​♦ 结果输出​​

​​5. 坑​​

​​one​​​​two​​

招聘数据清洗

1.数据集

如上图所示,有一份招聘信息数据集,以下是本人人为创造出的清洗条件:

包含有两条含有空值的数据两条重复的数据集

​​返回顶部​​

2.清洗目标

去除数据的首行字段记录对含有空值的记录进行去除对记录进行去重对薪资进行处理,将其结果展示为最高薪资与最低薪资的均值

3.思路

去除数据的首行字段记录 ---- ​​字符串比较开头,选择性忽略​​**对含有空值的记录进行去除 ----​​isEmpty()​​ **对记录进行去重 ---- ​​利用Reduce阶段Key的特性​​对薪资进行处理,将其结果展示为最高薪资与最低薪资的均值 ---- ​​字符串截取,类型转换计算​​

4.代码执行

♦ Mapper阶段

package 招聘数据清洗;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.NullWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;public class Map extends Mapper { Text k = new Text(); @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { /* 前几行数据 positionName,salary,workYear,city,companyShortName,companySize,district,financeStage,industryField,thirdType,resumeProcessDay,resumeProcessRate Senior Data Analyst,15k-30k,3-5年,北京,AppAnnie,150-500人,东城区,D轮及以上,移动互联网,数据分析,1,100 数据分析师,15k-20k*2,3-5年,北京,北京合生活网络科技有限公司,150-500人,朝阳区,不需要融资,消费生活,数据分析,2,61 。。。。。。 数据分析师,14k-25k,1-3年,北京,花生米富,150-500人,朝阳区,B轮,"移动互联网,金融",数据分析,2,100 */ // 1.首先不读取包含有字段名的一列 if (value.toString().startsWith("\uFEFFpositionName")) return; // 2.获取一行数据,拆分 // 3.注意在字段值中含有分隔符的不予以拆分 String[] fields = value.toString().split(",(?=(?:[^\"]*\"[^\"]*\")*[^\"]*$)", -1); // 4.判断是否有空值 --- 去空 if (valid(fields)) { // 5.处理薪资 // 15k-20k*2 if (fields[1].contains("*")) { // 拆分获取最大、最小值 String[] salary = fields[1].split("\\*"); // todo 15k-20k -- 2 System.out.println(salary[1]); String[] salarys = salary[0].split("-"); // todo 15k 20k int max = Integer.parseInt(salarys[1].trim().substring(0, salarys[1].length() - 1)) * Integer.parseInt(salary[1]); int min = Integer.parseInt(salarys[0].trim().substring(0, salarys[0].length() - 1)); fields[1] = (max + min) / 2 + "k"; } else { // 15k-20k // 拆分获取最大、最小值 String[] salary = fields[1].split("-"); int max = Integer.parseInt(salary[1].trim().substring(0, salary[1].length() - 1)); int min = Integer.parseInt(salary[0].trim().substring(0, salary[0].length() - 1)); fields[1] = (max + min) / 2 + "k"; } // 6.获取完整数据 StringBuffer sb = new StringBuffer(); for (int i = 0; i < fields.length; i++) { sb.append(fields[i]).append("\t"); } k.set(sb.toString()); // 6.将完整数据写出 context.write(k, NullWritable.get()); } } // 4.判断是否是空值 boolean valid(String[] fields) { boolean flag = true; for (String item : fields) { if (item.trim().isEmpty()) { flag = false; break; } } return flag; }}

​​返回顶部​​

♦ Reducer阶段

package 招聘数据清洗;import org.apache.hadoop.io.NullWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;public class Reduce extends Reducer { @Override protected void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException { // 直接写出 context.write(key,NullWritable.get()); }}

​​返回顶部​​

♦ Driver阶段

package 招聘数据清洗;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.NullWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;public class Driver { public static void main(String[] args) { try { // 获取job Configuration conf = new Configuration(); Job job = Job.getInstance(conf); // 配置 job.setMapperClass(Map.class); job.setReducerClass(Reduce.class); job.setJarByClass(Driver.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(NullWritable.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(NullWritable.class); // 配置文件输入输出路径 Path in = new Path("G:\\Projects\\IdeaProject-C\\MapReduce\\src\\main\\java\\招聘数据清洗\\data\\zhaopin.txt"); Path out = new Path("G:\\Projects\\IdeaProject-C\\MapReduce\\src\\main\\java\\招聘数据清洗\\output"); FileInputFormat.setInputPaths(job,in); FileOutputFormat.setOutputPath(job,out); FileSystem fs = FileSystem.get(conf); if (fs.exists(out)){ fs.delete(out,true); } // 提交job System.exit(job.waitForCompletion(true) ? 0:1); } catch (Exception e){ e.printStackTrace(); } }}

​​返回顶部​​

♦ 结果输出

结果如下图所示,最终输出记录96条。原始数据100条(​​1条字段,2条包含空值记录,1条重复记录​​)。

​​返回顶部​​

5. 坑

one

//1.首先不读取包含有字段名的一列if (value.toString().startsWith("\uFEFFpositionName")) return;

这个地方,存在一个文档编码格式的问题,查了一下叫BOM。BOM(byte-order mark),即字节顺序标记,它是插入到以UTF-8、UTF16或UTF-32编码Unicode文件开头的特殊标记,用来识别Unicode文件的编码类型。对于UTF-8来说,BOM并不是必须的,因为BOM是用来标记多字节编码文件的编码类型和字节顺序(big-endian或little- endian)。而UTF-8中,每个字符的编码有多少位是通过第一个字节来表述的,而且没有big-endian和little-endian的区分。

UTF-8 不需要 BOM,尽管 Unicode 标准允许在 UTF-8 中使用 BOM。所以不含 BOM 的 UTF-8 才是标准形式,在 UTF-8 文件中放置 BOM 主要是微软的习惯(顺便提一下:把带有 BOM 的小端序 UTF-16 称作「Unicode」而又不详细说明,这也是微软的习惯)。

BOM是为 UTF-16 和 UTF-32 准备的,用于标记字节序(byte order)。微软在 UTF-8 中使用 BOM 是因为这样可以把 UTF-8 和 ASCII 等编码明确区分开,否则用Excel打开CSV文件有可能是乱码的。但这样的文件在 Windows 之外的操作系统里会带来问题。「UTF-8」和「带 BOM 的 UTF-8」的区别就是有没有 BOM。即文件开头有没有 U+FEFF。

​​参见:java utf-8带bom格式内容(带"\uFEFF")转换成utf-8格式​​

two

/* 前几行数据 positionName,salary,workYear,city,companyShortName,companySize,district,financeStage,industryField,thirdType,resumeProcessDay,resumeProcessRate Senior Data Analyst,15k-30k,3-5年,北京,AppAnnie,150-500人,东城区,D轮及以上,移动互联网,数据分析,1,100 数据分析师,15k-20k*2,3-5年,北京,北京合生活网络科技有限公司,150-500人,朝阳区,不需要融资,消费生活,数据分析,2,61 。。。。。。 数据分析师,14k-25k,1-3年,北京,花生米富,150-500人,朝阳区,B轮,"移动互联网,金融",数据分析,2,100 *///1.首先不读取包含有字段名的一列if (value.toString().startsWith("\uFEFFpositionName")) return;// 2.获取一行数据,拆分// 3.注意在字段值中含有分隔符的不予以拆分String[] fields = value.toString().split(",(?=(?:[^\"]*\"[^\"]*\")*[^\"]*$)", -1);

​​数据分析师,14k-25k,1-3年,北京,花生米富,150-500人,朝阳区,B轮,"移动互联网,金融",数据分析,2,100​​​这个地方也是个大坑,在切分数据记录的时候,一般就会人为按照 ​​","​​ 进行,但是留心,本数据集中的​​industryField​​字段值使用 ​​" "​​ 括起来的,并且中间的分隔符也是 ​​" ,"​​,这样一来,如果分割的时候直接写 ​​" ,"​​,后面就会出现​​fields​​的​​length​​大小问题。所以此处需要使用正则表达式进行截取的规范。

​​返回顶部​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:【2020大数据应用赛样卷试题】Spark分析处理
下一篇:兔宝宝X《余生请多指教》,以营销传播精准拥抱年轻群体!
相关文章

 发表评论

暂时没有评论,来抢沙发吧~