都说"为一杯奶茶愿意赴一座城",曾经不知有多少年轻人为了一口茶颜悦色不惜跨越千里来到长沙打卡,而如今也有不少年轻人被传说中的"奶茶界的海底捞"所吸引,千里迢迢来到安徽只为尝一口卡旺卡奶茶。要说起来这卡旺卡奶茶,尽管这个地方茶饮品牌没有茶颜悦色那么出名,但也同样是本地消费者心头白月光般的存在,简直就是安徽消费者的最爱, 作为一家地方茶饮品牌,卡旺卡的门店仅在安徽省营业,尽管门店数量不算多但却格外受安徽省消费者偏爱,曾经甚至创下了一天最多卖出三万杯的佳绩。而卡旺卡之所以这么受欢迎,除了口味好喝外最令人津津乐道的就是它好到离谱的服务了,所以才能被称为"茶饮界海底捞"。
安徽省作为本土茶饮品牌卡旺卡的起源地与核心市场,其门店网络覆盖呈现鲜明的区域深耕特征。自2008年首店于合肥开业以来,卡旺卡凭借"日常、刚好"的产品理念与"朋友式服务"的品牌文化,逐步构建了覆盖全省的直营体系。截至2024年,其门店已扩展至安徽省内17个地市,包括合肥、芜湖、蚌埠、淮南等城市,总数超过260家,其中仅合肥一地便占据150余家门店,形成了"总部辐射全省、重点城市多点渗透"的布局模式。这种密集布点策略不仅体现了品牌对本地消费需求的精准把握,更通过直营模式保障了服务品质的一致性,使其在激烈竞争中稳居区域市场头部地位。近年,卡旺卡以年均30%的增速持续扩张,显示出从区域性品牌向全国市场延伸的野心。本篇文章我们就从其门店数据获取和分布特征为区域茶饮品牌发展路径提供实证参考。
第一步: 需要在高德地图开放平台上注册账号,并且申请web服务的AK密钥。注册账号登陆后点击右上角的控制台 ->应用管理 -> 创建应用 -> 添加新key,注意选择web 服务,就得到了一个可以使用web服务的key密钥;

**第二步:**通过调用高德地图开放平台的POI关键字搜索与行政区域查询API结合的方式,获取关键字对应的POI数据;
先讲一下方法思路,一共四个步骤;
方法思路
- 脚本会先获取查找的城市(安徽省)下所有的区县;
- 对于每个区县,脚本都会向地图助手发送请求,寻找所有与关键词(卡旺卡)相关的地点;
- 坐标转换------高德坐标系(GCJ-02) to WGS84;
- 数据被另存为,excel或者csv;
脚本逻辑:
首先,脚本初始化时定义了全局配置参数,包括高德地图API密钥AMAP_WEB_KEY 、要查询的城市列表CITIES (例如安徽省)、搜索的关键字列表KEYWORDS (如卡旺卡),以及输出文件格式DATA_FILE_FORMAT。这些参数决定了脚本的行为,比如要查询的城市和关键字,以及最终生成的数据文件格式是Excel还是CSV。
主程序入口从if name == 'main':
开始执行,它遍历每个城市和关键字组合,并调用get_data函数 处理每一个组合。在get_data函数中,首先尝试通过调用get_areas函数 获取城市的行政区划代码(如区县代码)。此过程依赖于get_distrinctNoCache函数 ,该函数使用高德地图的行政区划API来获取指定城市的区县信息。如果成功获取到区县代码,则将其拆分为单独的区县代码列表,并对每个区县代码分别调用getpois函数以分区域获取POI数据。
getpois函数 负责分页获取特定区域内的POI数据。它通过循环调用getpoi_page函数 逐页请求数据,直到没有更多数据为止。每次请求后,利用hand函数 解析返回的JSON数据,提取有效的POI信息并添加到结果列表中。getpoi_page函数构建API请求URL,发送HTTP请求,并检查API响应的状态确保数据有效。为了避免触发API调用频率限制,这里还加入了0.5秒的延迟。
一旦所有POI数据被收集完毕,get_data函数 将根据DATA_FILE_FORMAT 选择保存为Excel或CSV格式。对于Excel格式,会调用write_to_excel函数 ;而对于CSV格式,则调用write_to_csv函数 。在这两个函数中,在保存之前会对每个POI的经纬度进行坐标转换,使用gcj02towgs84函数将GCJ02坐标(火星坐标系)转换为WGS84坐标,确保输出数据符合国际标准。
完整代码#运行环境Python 3.11
python
from urllib.parse import quote
from urllib import request
import json
import os
import xlwt
import pandas as pd
import time
import math
# 配置参数
AMAP_WEB_KEY = '你的key'
KEYWORDS = ['卡旺卡']
CITIES = ['安徽省']
# 输出数据文件格式, 1为默认xls格式,2为csv格式
DATA_FILE_FORMAT = 1
POI_SEARCH_URL = "http://restapi.amap.com/v3/place/text"
OFFSET = 25 # 每页结果数量
# GCJ02(火星坐标系)转WGS84
x_pi = 3.14159265358979324 * 3000.0 / 180.0
pi = 3.1415926535897932384626 # π
a = 6378245.0 # 长半轴
ee = 0.00669342162296594323 # 扁率
def gcj02towgs84(lng, lat):
"""
GCJ02(火星坐标系)转WGS84
:param lng: 火星坐标系的经度
:param lat: 火星坐标系纬度
:return: WGS84 经度, 纬度
"""
if out_of_china(lng, lat):
return lng, lat
dlat = transformlat(lng - 105.0, lat - 35.0)
dlng = transformlng(lng - 105.0, lat - 35.0)
radlat = lat / 180.0 * pi
magic = math.sin(radlat)
magic = 1 - ee * magic * magic
sqrtmagic = math.sqrt(magic)
dlat = (dlat * 180.0) / ((a * (1 - ee)) / (magic * sqrtmagic) * pi)
dlng = (dlng * 180.0) / (a / sqrtmagic * math.cos(radlat) * pi)
mglat = lat + dlat
mglng = lng + dlng
return [lng * 2 - mglng, lat * 2 - mglat]
def transformlat(lng, lat):
"""
计算纬度偏移量
:param lng: 经度
:param lat: 纬度
:return: 纬度偏移量
"""
ret = -100.0 + 2.0 * lng + 3.0 * lat + 0.2 * lat * lat + 0.1 * lng * lat + 0.2 * math.sqrt(math.fabs(lng))
ret += (20.0 * math.sin(6.0 * lng * pi) + 20.0 * math.sin(2.0 * lng * pi)) * 2.0 / 3.0
ret += (20.0 * math.sin(lat * pi) + 40.0 * math.sin(lat / 3.0 * pi)) * 2.0 / 3.0
ret += (160.0 * math.sin(lat / 12.0 * pi) + 320 * math.sin(lat * pi / 30.0)) * 2.0 / 3.0
return ret
def transformlng(lng, lat):
"""
计算经度偏移量
:param lng: 经度
:param lat: 纬度
:return: 经度偏移量
"""
ret = 300.0 + lng + 2.0 * lat + 0.1 * lng * lng + 0.1 * lng * lat + 0.1 * math.sqrt(math.fabs(lng))
ret += (20.0 * math.sin(6.0 * lng * pi) + 20.0 * math.sin(2.0 * lng * pi)) * 2.0 / 3.0
ret += (20.0 * math.sin(lng * pi) + 40.0 * math.sin(lng / 3.0 * pi)) * 2.0 / 3.0
ret += (150.0 * math.sin(lng / 12.0 * pi) + 300.0 * math.sin(lng / 30.0 * pi)) * 2.0 / 3.0
return ret
def out_of_china(lng, lat):
"""
判断是否在国内,不在国内不做偏移
:param lng: 经度
:param lat: 纬度
:return: 是否在国内
"""
if lng < 72.004 or lng > 137.8347:
return True
if lat < 0.8293 or lat > 55.8271:
return True
return False
# 根据城市名称和分类关键字获取POI数据
def getpois(cityname, keywords):
i = 1
poilist = []
while True: # 使用while循环不断分页获取数据
result = getpoi_page(cityname, keywords, i)
result = json.loads(result) # 将字符串转换为json
# 检查是否包含'count'字段
if 'count' not in result or result['count'] == '0':
break
hand(poilist, result)
# 如果当前页的数据量小于OFFSET,则说明没有更多数据
if len(result.get('pois', [])) < OFFSET:
break
i += 1
return poilist
# 数据写入Excel
def write_to_excel(poilist, cityname, classfield):
book = xlwt.Workbook(encoding='utf-8', style_compression=0)
sheet = book.add_sheet(classfield, cell_overwrite_ok=True)
# 第一行(列标题)
headers = ['lon', 'lat', 'name', 'address', 'pname', 'cityname', 'business_area', 'type']
for col, header in enumerate(headers):
sheet.write(0, col, header)
for i, poi in enumerate(poilist):
location = poi.get('location')
name = poi.get('name')
address = poi.get('address')
pname = poi.get('pname')
cityname = poi.get('cityname')
business_area = poi.get('business_area', '')
type = poi.get('type')
lng, lat = str(location).split(",")
# 转换为WGS84坐标
wgs84_lng, wgs84_lat = gcj02towgs84(float(lng), float(lat))
# 每一行写入
sheet.write(i + 1, 0, wgs84_lng)
sheet.write(i + 1, 1, wgs84_lat)
sheet.write(i + 1, 2, name)
sheet.write(i + 1, 3, address)
sheet.write(i + 1, 4, pname)
sheet.write(i + 1, 5, cityname)
sheet.write(i + 1, 6, business_area)
sheet.write(i + 1, 7, type)
# 保存Excel文件
os.makedirs('data', exist_ok=True)
book.save(os.path.join('data', f'poi-{cityname}-{classfield}.xls'))
# 数据写入CSV文件
def write_to_csv(poilist, cityname, classfield):
data_csv = {
'lon': [],
'lat': [],
'name': [],
'address': [],
'pname': [],
'cityname': [],
'business_area': [],
'type': []
}
for poi in poilist:
location = poi.get('location')
name = poi.get('name')
address = poi.get('address')
pname = poi.get('pname')
cityname = poi.get('cityname')
business_area = poi.get('business_area', '')
type = poi.get('type')
lng, lat = str(location).split(",")
# 转换为WGS84坐标
wgs84_lng, wgs84_lat = gcj02towgs84(float(lng), float(lat))
data_csv['lon'].append(wgs84_lng)
data_csv['lat'].append(wgs84_lat)
data_csv['name'].append(name)
data_csv['address'].append(address)
data_csv['pname'].append(pname)
data_csv['cityname'].append(cityname)
data_csv['business_area'].append(business_area)
data_csv['type'].append(type)
df = pd.DataFrame(data_csv)
folder_name = f'poi-{cityname}-{classfield}'
folder_name_full = os.path.join('data', folder_name)
os.makedirs(folder_name_full, exist_ok=True)
file_name = f'poi-{cityname}-{classfield}.csv'
file_path = os.path.join(folder_name_full, file_name)
df.to_csv(file_path, index=False, encoding='utf_8_sig')
return folder_name_full, file_name
# 将返回的POI数据装入集合返回
def hand(poilist, result):
if 'pois' in result:
pois = result['pois']
for poi in pois:
if 'location' in poi and 'name' in poi:
poilist.append(poi)
else:
print("无效的 POI 数据:", poi)
else:
print("结果中未找到 POI。")
# 单页获取POIs
def getpoi_page(cityname, keywords, page):
req_url = f"{POI_SEARCH_URL}?key={AMAP_WEB_KEY}&extensions=all&keywords={quote(keywords)}&city={quote(cityname)}&citylimit=true&offset={OFFSET}&page={page}&output=json"
print('============请求url:' + req_url)
try:
time.sleep(0.5) # 添加延迟避免触发API限制
with request.urlopen(req_url) as f:
data = f.read().decode('utf-8')
result = json.loads(data)
# 检查API状态
if result.get('status') != '1':
print(f"API 返回错误: {result.get('info', '未知错误')}")
return json.dumps({"count": "0", "pois": []})
return data
except Exception as e:
print(f"从高德 API 获取数据时发生错误: {e}")
return json.dumps({"count": "0", "pois": []})
def get_areas(code):
print('获取城市的所有区域:code: ' + str(code).strip())
data = get_distrinctNoCache(code)
print('get_distrinct result:' + data)
data = json.loads(data)
districts = data['districts'][0]['districts']
# 判断是否是直辖市
if code.startswith(('重庆', '上海', '北京', '天津')):
districts = data['districts'][0]['districts'][0]['districts']
area = ",".join(district['adcode'] for district in districts)
print(area)
return area.strip(',')
def get_data(city, keyword):
isNeedAreas = True
area = get_areas(city) if isNeedAreas else None
all_pois = []
if area:
area_list = area.split(",")
for area in area_list:
pois_area = getpois(area, keyword)
print(f'当前城区:{area}, 分类:{keyword}, 总的有{len(pois_area)}条数据')
all_pois.extend(pois_area)
print("所有城区的数据汇总,总数为:" + str(len(all_pois)))
else:
pois_area = getpois(city, keyword)
if DATA_FILE_FORMAT == 2:
# 写入CSV
file_folder, file_name = write_to_csv(all_pois, city, keyword)
return
return write_to_excel(all_pois, city, keyword)
def get_distrinctNoCache(code):
url = f"https://restapi.amap.com/v3/config/district?subdistrict=2&extensions=all&key={AMAP_WEB_KEY}"
req_url = url + "&keywords=" + quote(code)
print(req_url)
try:
with request.urlopen(req_url) as f:
data = f.read().decode('utf-8')
print(code, data)
return data
except Exception as e:
print(f"获取城市行政区划时发生错误: {e}")
return json.dumps({"districts": []})
if __name__ == '__main__':
for ct in CITIES:
for type in KEYWORDS:
get_data(ct, type)
获取到的数据标签如下,address(详细地址)、cityname(所在城市)、pro(门店标签)、pname(所在省 )、name(门店名称)business area(所在商圈)、lon,lat(坐标信息);

tips:1、需要获取其他城市或者关键词可以修改KEYWORDS 和CITIES字段,也可以调整行政区层级,比如检索"合肥市";2、个人开发者的关键词搜索的日配额100(次/日),需要注意额度的使用,如果有企业开发者账号,或者通过购买额度的方式除外;

接下来,我们进行看图说话:
首先,我们可以观察到其具有明显的地域集中性和策略性布局 。合肥市作为安徽省的省会城市 ,拥有最多的卡旺卡门店,显示出该品牌对核心城市的高度重视。这些门店不仅集中在市中心区域 ,还扩展到了周边的区县,表明了卡旺卡致力于覆盖更广泛的消费群体。
其次,除了合肥市之外,卡旺卡也在芜湖、蚌埠、安庆等重要城市 设立了多家门店,显示出品牌向省内其他主要经济中心扩张的趋势。这种布局方式有助于卡旺卡进一步巩固其在安徽市场的地位,并利用这些城市的经济活力和人口优势来促进业务增长。
值得注意的是,尽管皖南地区的高铁网络较为发达,有利于交通和物流,但卡旺卡门店的分布并不完全受限于交通便利性。相反,品牌的选址更多考虑了当地的人口密度、消费能力和商业氛围 等因素。例如,在一些旅游热点地区,我们也看到了卡旺卡门店的存在,这反映了品牌对不同市场需求的敏锐洞察力。
此外,卡旺卡在皖北地区的布局相对较少,这也与该区域经济发展水平和人口密度低于皖南有关。不过,随着品牌的发展和市场拓展,未来在这一区域增加门店数量也是有可能的。
文章仅用于分享个人学习成果与个人存档之用,分享知识,如有侵权,请联系作者进行删除。所有信息均基于作者的个人理解和经验,不代表任何官方立场或权威解读。