时间序列分析【python代码实现】

时间序列分析是一种用于建模和分析时间上连续观测的统计方法。 它涉及研究数据在时间维度上的模式、趋势和周期性。常见的时间序列分析包括时间序列的平稳性检验、自相关性和部分自相关性分析、时间序列模型的建立和预测等。

下面是一个使用Python实现时间序列分析的示例:

python 复制代码
# 导入所需的库
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import statsmodels.api as sm

# 读取时间序列数据
data = pd.read_csv('time_series_data.csv', parse_dates=['date'], index_col='date')

# 绘制时间序列折线图
plt.figure(figsize=(10, 6))
plt.plot(data)
plt.xlabel('Date')
plt.ylabel('Value')
plt.title('Time Series Data')
plt.show()

# 检验时间序列的平稳性
result = sm.tsa.adfuller(data['value'])
print('ADF Statistic:', result[0])
print('p-value:', result[1])

# 分解时间序列
decomposition = sm.tsa.seasonal_decompose(data['value'], model='additive')
trend = decomposition.trend
seasonal = decomposition.seasonal
residual = decomposition.resid

# 绘制分解后的时间序列
plt.figure(figsize=(12, 8))
plt.subplot(411)
plt.plot(data, label='Original')
plt.legend(loc='best')
plt.subplot(412)
plt.plot(trend, label='Trend')
plt.legend(loc='best')
plt.subplot(413)
plt.plot(seasonal, label='Seasonality')
plt.legend(loc='best')
plt.subplot(414)
plt.plot(residual, label='Residuals')
plt.legend(loc='best')
plt.tight_layout()
plt.show()

# 计算自相关性和部分自相关性
sm.graphics.tsa.plot_acf(data['value'])
plt.show()

sm.graphics.tsa.plot_pacf(data['value'])
plt.show()

# 建立时间序列模型(ARIMA)
model = sm.tsa.ARIMA(data['value'], order=(1, 0, 1))
model_fit = model.fit(disp=0)

# 模型预测
forecast = model_fit.forecast(steps=10)[0]
print('Forecasted Values:', forecast)

在这个示例中,我们首先导入所需的库,然后使用pd.read_csv函数读取时间序列数据,其中日期列被解析为日期对象,并设置为索引列。接下来,我们使用plt.plot函数绘制了时间序列数据的折线图。

然后,我们使用sm.tsa.adfuller函数对时间序列数据进行平稳性检验。该函数返回ADF统计量和p值,用于判断时间序列数据的平稳性。

接下来,我们使用sm.tsa.seasonal_decompose函数对时间序列进行分解,得到趋势、季节性和残差。然后,使用plt.subplotplt.plot函数绘制了分解后的时间序列图。

之后,我们使用sm.graphics.tsa.plot_acfsm.graphics.tsa.plot_pacf函数计算并绘制了时间序列数据的自相关性和部分自相关性图。

最后,我们使用sm.tsa.ARIMA函数建立ARIMA模型,并使用fit方法拟合模型。然后,我们使用forecast方法对未来的10个时间步进行预测,并打印出预测值。

请注意,在运行代码之前需要安装statsmodels、pandas和matplotlib等库,并将时间序列数据保存为CSV文件(文件名为'time_series_data.csv')。

一个使用更复杂的时间序列分析算法的例子是通过使用长短期记忆网络(Long Short-Term Memory, LSTM)进行时间序列预测。LSTM是一种适用于处理具有长期依赖关系的序列数据的深度学习模型。
下面是一个使用Python和Keras库实现LSTM进行时间序列预测的示例:

python 复制代码
# 导入所需的库
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.preprocessing import MinMaxScaler
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import LSTM, Dense

# 读取时间序列数据
data = pd.read_csv('time_series_data.csv', parse_dates=['date'], index_col='date')

# 将数据归一化到0-1的范围
scaler = MinMaxScaler()
scaled_data = scaler.fit_transform(data)

# 划分训练集和测试集
train_size = int(len(scaled_data) * 0.8)
train_data = scaled_data[:train_size]
test_data = scaled_data[train_size:]

# 准备训练数据
def prepare_data(data, lookback):
    X, Y = [], []
    for i in range(len(data) - lookback - 1):
        X.append(data[i:(i + lookback), 0])
        Y.append(data[i + lookback, 0])
    return np.array(X), np.array(Y)

lookback = 10
train_X, train_Y = prepare_data(train_data, lookback)
test_X, test_Y = prepare_data(test_data, lookback)

# 转换数据为LSTM所需的输入格式 [样本数, 时间步长, 特征数]
train_X = np.reshape(train_X, (train_X.shape[0], train_X.shape[1], 1))
test_X = np.reshape(test_X, (test_X.shape[0], test_X.shape[1], 1))

# 构建LSTM模型
model = Sequential()
model.add(LSTM(50, input_shape=(lookback, 1)))
model.add(Dense(1))
model.compile(loss='mean_squared_error', optimizer='adam')

# 训练模型
model.fit(train_X, train_Y, epochs=100, batch_size=16, verbose=2)

# 在测试集上进行预测
test_predict = model.predict(test_X)

# 将预测数据进行逆归一化
test_predict = scaler.inverse_transform(test_predict)
test_Y = scaler.inverse_transform([test_Y])

# 绘制预测结果和实际值的对比图
plt.figure(figsize=(12, 6))
plt.plot(test_Y.flatten(), label='True')
plt.plot(test_predict.flatten(), label='Prediction')
plt.xlabel('Time')
plt.ylabel('Value')
plt.title('Time Series Prediction using LSTM')
plt.legend()
plt.show()

在示例中,我们首先导入所需的库。然后使用pd.read_csv函数读取时间序列数据,并使用MinMaxScaler将数据归一化到0-1的范围。接下来,我们将数据集划分为训练集和测试集。

然后,我们定义了一个prepare_data函数,用于将时间序列数据转换为LSTM所需的输入格式。然后,我们使用该函数准备训练数据。

接下来,我们将训练数据转换为LSTM所需的输入格式,并使用Sequential函数构建了一个含有一个LSTM层和一个全连接层的模型。然后,我们使用compile方法编译模型,并使用fit方法在训练集上训练模型。

在模型训练完毕后,我们使用训练好的模型对测试集进行预测。然后,我们使用inverse_transform函数将预测结果和实际值逆归一化。最后,我们使用plt.plot函数绘制了预测结果和实际值的对比图。

请注意,在运行代码之前需要安装Keras、scikit-learn、pandas和matplotlib等库,并将时间序列数据保存为CSV文件(文件名为'time_series_data.csv')。

如果你想更深入地了解人工智能的其他方面,比如机器学习、深度学习、自然语言处理等等,也可以点击这个链接,我按照如下图所示的学习路线为大家整理了100多G的学习资源,基本涵盖了人工智能学习的所有内容,包括了目前人工智能领域最新顶会论文合集和丰富详细的项目实战资料,可以帮助你入门和进阶。

人工智能交流群(大量资料)

相关推荐
闲人编程7 分钟前
自动化文件管理:分类、重命名和备份
python·microsoft·分类·自动化·备份·重命名·自动化文件分类
青云交35 分钟前
Java 大视界 -- Java 大数据在智能农业温室环境调控与作物生长模型构建中的应用
java·机器学习·传感器技术·数据处理·作物生长模型·智能农业·温室环境调控
Jonathan Star1 小时前
用Python轻松提取视频音频并去除静音片段
开发语言·python·音视频
浣熊-论文指导1 小时前
聚类与Transformer融合的六大创新方向
论文阅读·深度学习·机器学习·transformer·聚类
AKAMAI1 小时前
Fermyon推出全球最快边缘计算平台:WebAssembly先驱携手Akamai云驱动无服务器技术新浪潮
人工智能·云计算·边缘计算
云雾J视界2 小时前
TMS320C6000 VLIW架构并行编程实战:加速AI边缘计算推理性能
人工智能·架构·边缘计算·dsp·vliw·tms320c6000
想ai抽2 小时前
基于AI Agent的数据资产自动化治理实验
人工智能·langchain·embedding
刘火锅2 小时前
Java 17 环境下 EasyPoi 反射访问异常分析与解决方案(ExcelImportUtil.importExcelMore)
java·开发语言·python
小马过河R3 小时前
AIGC视频生成之Deepseek、百度妙笔组合实战小案例
人工智能·深度学习·计算机视觉·百度·aigc
june-Dai Yi3 小时前
免费的大语言模型API接口
人工智能·语言模型·自然语言处理·chatgpt·api接口