MongoDB +Dataframe+excel透视表

读取MongoDB中的表

复制代码
from pymongo import MongoClient
import pandas as pd
client = MongoClient('IP地址', 27017)

db = client['AOI']
collection = db['表名'] #替换为实际的名称
document = collection.find({'time':{'$gte':'2023-08-15 15:26:06'}})#筛选数据
df = pd.DataFrame(list(document))#转换为python常用的dataframe
# df = df[(df["time"] >= '2023-08-15 15:26:06')]
df["marks"] = df["marks"].astype('str')
df = df[df["marks"].str.contains("name")] #筛选数据
df = df.loc[:, ['_id', 'id', 'marks', 'time']] #选择想要的列
df.to_csv('path.csv', index=False)

Dataframe合并:

  1. 横向合并(增加列数)(跟据共同列来合并,如果有不同列则添加列)

(数据库的某些表数据太多无法保存到本地,直接merge取交集)

on=['串号']: 根据共同列进行合并,一定要保证有相同列名,不然会报错。

how='inner':取交集

复制代码
df1 = pd.read_csv('D:\df1.csv', encoding='gbk')
df2 = pd.read_csv('D:\df2.csv', encoding='gbk')
df_merge = pd.merge(df1, df2, on=['串号'], how='inner')
df_merge.to_csv('D:\df3.csv')
  1. 纵向合并(增加行数)

    merge_df = pd.concat([df1, df2], ignore_index=True)
    merge_df.to_csv('D:\df_merge.csv', index=False)

Dataframe去重:(我发现老是去重失败,不知道为啥)

复制代码
df = pd.read_csv('D:\AOI\df_merge_expert.csv', encoding='gbk')
df.drop_duplicates(keep='first', inplace=True)
df.to_csv('D:\AOI\df_merge_expert1.csv', index=False)
相关推荐
王道长服务器 | 亚马逊云18 分钟前
帝国CMS + AWS:老牌内容系统的新生之路
服务器·网络·数据库·云计算·aws
李慕婉学姐1 小时前
Springboot的民宿管理系统的设计与实现29rhm9uh(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。
数据库·spring boot·后端
LB21122 小时前
Redis黑马点评 Feed流
数据库·redis·缓存
喝杯牛奶丶3 小时前
MySQL隔离级别:大厂为何偏爱RC?
java·数据库·mysql·面试
一 乐3 小时前
二手车销售|汽车销售|基于SprinBoot+vue的二手车交易系统(源码+数据库+文档)
java·前端·数据库·vue.js·后端·汽车
Databend3 小时前
BendSQL v0.30.3 Web UI 功能介绍
数据库
gAlAxy...4 小时前
Spring 从 0 → 1 保姆级笔记:IOC、DI、多配置、Bean 生命周期一次讲透
数据库·sqlserver
苦学编程的谢4 小时前
Redis_5_单线程模型
数据库·redis·缓存
xuejianxinokok4 小时前
可能被忽略的 pgvector 各种坑
数据库·后端
拾忆,想起5 小时前
TCP粘包拆包全解析:数据流中的“藕断丝连”与“一刀两断”
java·网络·数据库·网络协议·tcp/ip·哈希算法