SQL_牛客网_SQL264_求每个登陆日期的次日留存率

牛客每个人最近的登录日期(五)

牛客每天有很多人登录,请你统计一下牛客每个日期新用户的次日留存率。

有一个登录(login)记录表,简况如下:

id user_id client_id date

1 2 1 2020-10-12

2 3 2 2020-10-12

3 1 2 2020-10-12

4 2 2 2020-10-13

5 1 2 2020-10-13

6 3 1 2020-10-14

7 4 1 2020-10-14

8 4 1 2020-10-15

第1行表示user_id为2的用户在2020-10-12使用了客户端id为1的设备登录了牛客网,因为是第1次登录,所以是新用户

......

第4行表示user_id为2的用户在2020-10-13使用了客户端id为2的设备登录了牛客网,因为是第2次登录,所以是老用户

......

最后1行表示user_id为4的用户在2020-10-15使用了客户端id为1的设备登录了牛客网,因为是第2次登录,所以是老用户

请你写出一个sql语句查询每个日期新用户的次日留存率,结果保留小数点后面3位数(3位之后的四舍五入),并且查询结果按照日期升序排序,上面的例子查询结果如下:

date p

2020-10-12 0.667

2020-10-13 0.000

2020-10-14 1.000

2020-10-15 0.000

查询结果表明:

2020-10-12登录了3个(user_id为2,3,1)新用户,2020-10-13,只有2个(id为2,1)登录,故2020-10-12新用户次日留存率为2/3=0.667;

2020-10-13没有新用户登录,输出0.000;

2020-10-14登录了1个(user_id为4)新用户,2020-10-15,user_id为4的用户登录,故2020-10-14新用户次日留存率为1/1=1.000;

2020-10-15没有新用户登录,输出0.000;

(注意:sqlite里查找某一天的后一天的用法是:date(yyyy-mm-dd, '+1 day'),sqlite里1/2得到的不是0.5,得到的是0,只有1*1.0/2才会得到0.5)

题目解法

1.构建新用户临时表B

2.判断原表中是否存在与新用户临时表B,datediff()计算日期差值为1的记录,如果有则为新用户次日留存。

复制代码
with t1 as (
    select user_id, min(date) min_date
    from login
    group by user_id
)
select 
    date,
    round(if(P,P,0),3) P 
from(
    select l1.date 'date', round(sum(if((l1.user_id,l1.date) in (select * from t1) and l2.user_id,1,0))/sum(if((l1.user_id,l1.date) in (select * from t1),1,0)),3) P
    from login l1 left join login l2
        on l1.user_id=l2.user_id and datediff(l2.date,l1.date)=1
    group by l1.date
    order by l1.date
)t2
相关推荐
沧海寄馀生12 分钟前
Apache Hadoop生态组件部署分享-Kafka
大数据·hadoop·分布式·kafka·apache
B站计算机毕业设计之家17 分钟前
大数据项目:基于python电商平台用户行为数据分析可视化系统 电商订单数据分析 Django框架 Echarts可视化 大数据技术(建议收藏)
大数据·python·机器学习·数据分析·django·电商·用户分析
测试人社区—667928 分钟前
GPT-4开启“软件工程3.0“新时代:测试工程师的智能化转型指南
大数据
数据猿31 分钟前
【“致敬十年”系列】专访中国商联数据委会长邹东生:以“最小化场景闭环”实现AI真价值
大数据·人工智能
web3.088899935 分钟前
唯品会商品详情 API 数据解析
大数据
B站计算机毕业设计之家44 分钟前
大数据:基于python唯品会商品数据可视化分析系统 Flask框架 requests爬虫 Echarts可视化 数据清洗 大数据技术(源码+文档)✅
大数据·爬虫·python·信息可视化·spark·flask·唯品会
沧海寄馀生1 小时前
Apache Hadoop生态组件部署分享-Spark
大数据·hadoop·分布式·spark·apache
专注数据的痴汉1 小时前
「数据获取」中华人民共和国乡镇行政区划简册(2010-2017)(2011-2012缺失)
大数据·人工智能·信息可视化
专注数据的痴汉1 小时前
「数据获取」中国河流水系 2000 至 2022 年变化矢量数据集
大数据·人工智能·信息可视化
数据皮皮侠1 小时前
中国气候政策不确定性数据(2000-2022)
大数据·数据库·人工智能·信息可视化·微信开放平台