hive去重性能比较

hive sql去重有很多种写法,需要注意性能。下面的比较没有很大参考意义,因为被去重的字段并没有重复值。

select count(distinct deliver_id) from dwd.dwd_evt_c_jd_deliver_hour where dt=20210525
29m, 11s
select count(deliver_id) from dwd.dwd_evt_c_jd_deliver_hour where dt=20210525
29m, 3s
select count( deliver_id) from 
(
select deliver_id 
from dwd.dwd_evt_c_jd_deliver_hour 
where dt=20210525
group by deliver_id) a
2h,46m,12s

-- 在支持窗口函数的 sql 中使用
select count(case when rn=1 then deliver_id else null end) task_num
from (select deliver_id
	      , row_number() over (partition by deliver_id order by deliver_time) rn
	  from dwd.dwd_evt_c_jd_deliver_hour 
	  where dt=20210525) tmp;
2h,36m,9s

注意:这里去重的字段deliver_id是没有重复值的,所以group by会和distinct差不多;这两天系统查询明细变慢,本来想看下去重效率问题,结果发现确实是系统变慢了很多。

jupyter notebook 输出太多无法打开

昨天处理一个文本文件,因为是逐行处理,即使没有Print也默认会有输出,结果今天早上一看崩了,ipynb也无法打开。解决方法:

pip install nbstripout

nbstripout filename.ipynb

显示所有列

pd.set_option(‘display.max_columns’, None)
pd.set_option(‘display.max_columns’, 5) #最多显示五列
# 显示所有行
pd.set_option(‘display.max_rows’, None)
这里限制下行数,以免ipynb文件太大打不开