【更新】中国省级产业集聚测算数据及协调集聚指数数据(2000-2022年)

一、测算方式 :参考C刊《统计研究》唐建荣(2021)老师的做法,采用区位熵来衡量产业集聚水平,区位熵可以消除区域规模的差异因素,能真实反应地理要素的空间分布

计算公式如下

产业集聚水平=(各省份工业增加值/工业增加值总额)/(各省份生产总值/生产总值总额)

二、资料范围:省级数据,包括原始数据和最终结果,数据来源于《中国统计年鉴》和国家统计局

三、参考文献:唐建荣,郭士康.产业集聚、人口规模与环境污染[J].统计与决策,2021,37(24):46-51

四、包含指标

|----|----|----|----|-----------|-------------|------------|------------|--------|
| id | 省份 | 年份 | 代码 | 工业增加值(亿元) | 工业增加值总额(亿元) | 地区生产总值(亿元) | 生产总值总额(亿元) | 产业集聚水平 |

五、样例数据

六、下载链接:

参考文献:https://download.csdn.net/download/samLi0620/90025560

整理好的数据集-xlsx格式:https://download.csdn.net/download/samLi0620/90025561

相关推荐
乙卯年QAQ2 小时前
【Elasticsearch】Elasticsearch的查询
大数据·elasticsearch·搜索引擎
XianxinMao4 小时前
科技巨头AI投资引领未来增长
大数据·人工智能·科技
言之。4 小时前
【Spark速通】
大数据·分布式·spark
WHYBIGDATA7 小时前
Hive安装教程
大数据·hive·hadoop
乙卯年QAQ7 小时前
【Hadoop】Hadoop 概述
大数据·hadoop·分布式
天选之子1237 小时前
spark运行流程
大数据·分布式·spark
李匠20247 小时前
大数据学习之Kafka消息队列、Spark分布式计算框架一
大数据·学习·kafka
黄雪超9 小时前
深入MapReduce——从MRv1到Yarn
大数据·hadoop·mapreduce
Neil Parker16 小时前
搭建Spark分布式集群
大数据·分布式·spark
请为小H留灯16 小时前
Python 数据清洗与处理常用方法全解析
大数据·python·jupyter·pandas