【temu】分析拼多多跨境电商Temu数据分析数据采集

Temu是拼多多旗下跨境电商平台,于2022年9月1日在美国、加拿大、新加坡、中国台湾、中国香港等市场上线。本文作者从销售额、销量、产品分布等方面,对Temu产品进行了分析,一起来看一下吧。

py 复制代码
item_get获得商品详情

item_review获得商品评论列表

item_search按关键字搜索商品

请求地址: http://wechat:17610352720.cn

数据采集

采集的字段包括:商品名、商品id、原价、现价、一级分类、二级分类、店铺id、销量等;

上图是监控的temu数据中月销售额Top10的产品

数据用途:

  • 量化分析
  • 投资分析
  • 跨境电商选品分析
  • 练手学习

上图为temu单品销量Top10,由于销量最大显示10万+,所以该统计意义不大。

py 复制代码
def send_request(url):
    proxy = ProxyClient.random_ip()
    session = requests.Session()
    proxies = {
        "http": f"http://{proxy}",
        "https": f"http://{proxy}"
    }
    cookies = {
        'region': '211',
        'language': 'en',
        'currency': 'USD',
        'timezone': 'Asia%2FShanghai',
        'shipping_city': '211%2C211000000022022',
    }
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/112.0',
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,*/*;q=0.8',
        'Accept-Language': 'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
    }
    response = session.get(
        url,
        headers=headers,
        proxies=proxies,
        cookies=cookies,
        # params=params,
        timeout=10,
        allow_redirects=False
    )
    # html = response.text
    raw_data1 = re.findall(r"window\.rawData\s*=\s*(\{.+?\});", response.text, re.DOTALL)
    raw_data = json.loads(raw_data1[0])
    print(raw_data)

联系

全量数据 定制开发

感谢观看~

相关推荐
共享家95275 小时前
搭建 AI 聊天机器人:”我的人生我做主“
前端·javascript·css·python·pycharm·html·状态模式
辰宇信息咨询6 小时前
3D自动光学检测(AOI)市场调研报告-发展趋势、机遇及竞争分析
大数据·数据分析
Hgfdsaqwr6 小时前
Python在2024年的主要趋势与发展方向
jvm·数据库·python
一晌小贪欢6 小时前
Python 测试利器:使用 pytest 高效编写和管理单元测试
python·单元测试·pytest·python3·python测试
小文数模6 小时前
2026年美赛数学建模C题完整参考论文(含模型和代码)
python·数学建模·matlab
Halo_tjn6 小时前
基于封装的专项 知识点
java·前端·python·算法
龙腾AI白云7 小时前
基于Transformer的人工智能模型搭建与fine-tuning
人工智能·数据挖掘
Hgfdsaqwr7 小时前
掌握Python魔法方法(Magic Methods)
jvm·数据库·python
weixin_395448917 小时前
export_onnx.py_0130
pytorch·python·深度学习
s1hiyu7 小时前
使用Scrapy框架构建分布式爬虫
jvm·数据库·python