最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

使用Hive的正则解析器RegexSerDe分析Nginx日志

来源:动视网 责编:小采 时间:2020-11-09 15:11:05
文档

使用Hive的正则解析器RegexSerDe分析Nginx日志

使用Hive的正则解析器RegexSerDe分析Nginx日志:使用Hive的正则解析器RegexSerDe分析Nginx日志 1、环境: Hadoop-2.6.0 + apache-hive-1.2.0-bin 2、使用Hive分析nginx日志,网站的访问日志部分内容为: cat /home/hadoop/hivetestdata/nginx.txt192.168.1.128
推荐度:
导读使用Hive的正则解析器RegexSerDe分析Nginx日志:使用Hive的正则解析器RegexSerDe分析Nginx日志 1、环境: Hadoop-2.6.0 + apache-hive-1.2.0-bin 2、使用Hive分析nginx日志,网站的访问日志部分内容为: cat /home/hadoop/hivetestdata/nginx.txt192.168.1.128


使用Hive的正则解析器RegexSerDe分析Nginx日志

1、环境:

Hadoop-2.6.0 + apache-hive-1.2.0-bin

2、使用Hive分析nginx日志,网站的访问日志部分内容为:

cat /home/hadoop/hivetestdata/nginx.txt
192.168.1.128 - - [09/Jan/2015:12:38:08 +0800] "GET /avatar/helloworld.png HTTP/1.1" 200 1521 "http://write.blog.linuxidc.net/postlist" "Mozilla/5.0 (Windows NT 6.1; WOW) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.131 Safari/537.36"
183.60.212.153 - - [19/Feb/2015:10:23:29 +0800] "GET /o2o/media.html?menu=3 HTTP/1.1" 200 16691 "-" "Mozilla/5.0 (compatible; baiduuSpider; +)"

这条日志里面有九列,每列之间是用空格分割的,
每列的含义分别是客户端访问IP、用户标识、用户、访问时间、请求页面、请求状态、返回文件的大小、跳转来源、浏览器UA。


我们使用Hive中的正则表达式匹配这九列:
([^ ]*) ([^ ]*) ([^ ]*) (.∗) (\".*?\") (-|[0-9]*) (-|[0-9]*) (\".*?\") (\".*?\")
于此同时我们可以在Hive中指定解析文件的序列化和反序列化解析器(SerDe),并且在Hive中内置了一个org.apache.hadoop.hive.serde2.RegexSerDe正则解析器,,我们可以直接使用它。

3、建表语句
CREATE TABLE logs
(
host STRING,
identity STRING,
username STRING,
time STRING,
request STRING,
status STRING,
size STRING,
referer STRING,
agent STRING
)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.RegexSerDe'
WITH SERDEPROPERTIES (
"input.regex" = "([^ ]*) ([^ ]*) ([^ ]*) (\\[.*\\]) (\".*?\") (-|[0-9]*) (-|[0-9]*) (\".*?\") (\".*?\")",
"output.format.string" = "%1$s %2$s %3$s %4$s %5$s %6$s %7$s %8$s %9$s"
)
STORED AS TEXTFILE;

4、加载数据:
load data local inpath '/home/hadoop/hivetestdata/nginx.txt' into table logs;

查询每小时的访问量超过100的IP地址:
select substring(time, 2, 14) datetime ,host, count(*) as count
from logs
group by substring(time, 2, 14), host
having count > 100

sort by datetime, count;

Hive编程指南 PDF 中文高清版

基于Hadoop集群的Hive安装

Hive内表和外表的区别

Hadoop + Hive + Map +reduce 集群安装部署

Hive本地模式安装

Hive学习之WordCount单词统计

Hive运行架构及配置部署

Hive 的详细介绍:请点这里
Hive 的下载地址:请点这里

本文永久更新链接地址:

文档

使用Hive的正则解析器RegexSerDe分析Nginx日志

使用Hive的正则解析器RegexSerDe分析Nginx日志:使用Hive的正则解析器RegexSerDe分析Nginx日志 1、环境: Hadoop-2.6.0 + apache-hive-1.2.0-bin 2、使用Hive分析nginx日志,网站的访问日志部分内容为: cat /home/hadoop/hivetestdata/nginx.txt192.168.1.128
推荐度:
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top