中级练习[6]:Hive SQL订单配送与用户社交行为分析

目录

[1. 即时订单比例](#1. 即时订单比例)

[1.1 题目需求](#1.1 题目需求)

[1.2 代码实现](#1.2 代码实现)

[2. 向用户推荐朋友收藏的商品](#2. 向用户推荐朋友收藏的商品)

[2.1 题目需求](#2.1 题目需求)

[2.2 代码实现](#2.2 代码实现)

[3. 查询所有用户的连续登录两天及以上的日期区间](#3. 查询所有用户的连续登录两天及以上的日期区间)

[3.1 题目需求](#3.1 题目需求)

[3.2 代码实现](#3.2 代码实现)


1. 即时订单比例

1.1 题目需求

从配送信息表(delivery_info)中求出每个用户的首单(用户的第一个订单)中即时订单的比例,并保留两位小数,以小数形式显示。即时订单是指期望配送日期和下单日期相同的订单,而计划订单是指期望配送日期和下单日期不同的订单。

期望结果如下:

percentage
0.5
1.2 代码实现
sql 复制代码
hive>
select
    round(sum(if(order_date=custom_date,1,0))/count(*),2) percentage
from
(
    select
        delivery_id,
        user_id,
        order_date,
        custom_date,
        row_number() over (partition by user_id order by order_date) rn
    from delivery_info
)t1
where rn=1;

2. 向用户推荐朋友收藏的商品

2.1 题目需求

从好友关系表(friendship_info)和收藏表(favor_info)中查询出应向哪位用户推荐哪些商品。推荐的商品应该是用户的朋友已收藏但用户自己尚未收藏的商品。

1)部分结果展示

user_id sku_id
101 2
101 4
101 7
101 9
101 8
101 11
101 1

2)完整结果

user_id sku_id
101 2
101 4
101 7
... ...
2.2 代码实现
sql 复制代码
hive>
select
    distinct t1.user_id,
    friend_favor.sku_id
from
(
    select
        user1_id user_id,
        user2_id friend_id
    from friendship_info
    union
    select
        user2_id,
        user1_id
    from friendship_info
)t1
left join favor_info friend_favor
on t1.friend_id=friend_favor.user_id
left join favor_info user_favor
on t1.user_id=user_favor.user_id
and friend_favor.sku_id=user_favor.sku_id
where user_favor.sku_id is null;

3. 查询所有用户的连续登录两天及以上的日期区间

3.1 题目需求

从登录明细表(user_login_detail)中查询出所有用户的连续登录两天及以上的日期区间,以登录时间(login_ts)为准。

期望结果如下:

user_id start_date end_date
101 2021-09-27 2021-09-30
102 2021-10-01 2021-10-02
106 2021-10-04 2021-10-05
107 2021-10-05 2021-10-06
3.2 代码实现
sql 复制代码
hive>
select user_id,
       min(login_date) start_date,
       max(login_date) end_date
from (
         select user_id,
                login_date,
                date_sub(login_date, rn) flag
         from (
                  select user_id,
                         login_date,
                         row_number() over (partition by user_id order by login_date) rn
                  from (
                           select user_id,
                                  date_format(login_ts, 'yyyy-MM-dd') login_date
                           from user_login_detail
                           group by user_id, date_format(login_ts, 'yyyy-MM-dd')
                       ) t1
              ) t2
     ) t3
group by user_id, flag
having count(*) >= 2
相关推荐
码上淘金6 分钟前
Apache Flink架构深度解析:任务调度、算子数据同步与TaskSlot资源管理机制
大数据·架构·flink
fruge24 分钟前
git上传 项目 把node_modules也上传至仓库了,在文件.gitignore 中忽略node_modules 依然不行
大数据·git·elasticsearch
python资深爱好者1 小时前
什么容错性以及Spark Streaming如何保证容错性
大数据·分布式·spark
ChinaRainbowSea1 小时前
1. Linux下 MySQL 的详细安装与使用
linux·数据库·sql·mysql·adb
B站计算机毕业设计超人2 小时前
计算机毕业设计hadoop+spark旅游景点推荐 旅游推荐系统 旅游可视化 旅游爬虫 景区客流量预测 旅游大数据 大数据毕业设计
大数据·hadoop·爬虫·深度学习·机器学习·数据可视化·推荐算法
qiquandongkh2 小时前
2025年股指期货和股指期权合约交割的通知!
大数据·金融·区块链
Ray.19983 小时前
优化 Flink 消费 Kafka 数据的速度:实战指南
大数据·flink·kafka
D愿你归来仍是少年4 小时前
Python解析 Flink Job 依赖的checkpoint 路径
大数据·python·flink
RainbowSea4 小时前
4. MySQL 逻辑架构说明
数据库·sql·mysql
说私域4 小时前
利用开源AI智能名片2+1链动模式S2B2C商城小程序构建企业私域流量池的策略与实践
大数据·人工智能·小程序·开源