😄用AI生成「中文字幕」靠谱吗?

1、引言

上节《音视频转文字不求人,OpenAI Whisper来帮您》教了大家用Whipser来生成音视频的字幕,有胖友在评论区提到:

如果我没理解错的话,你们的朋友 想要的是:

直接生成中文字幕,以便进行电影剧情的解读。

不过,我很抱歉的通知您,不太靠谱🐶, 但也不是不能用,本节我们就来探索用AI下生成中文字幕的过程吧。

2、buzz无脑提取字幕 + Google翻译

chidiwilliams/buzz 直接选中电影,Language(语言) 选中 Japanese(日语) ,然后点击Run() 开始生成:

漫长的等待,2小时40分钟的视频,使用tiny模型,足足花了将近25分钟(当然,不排除是我电脑垃圾🤕)打开生成的字幕文件(txt),全选Copy到谷歌翻译看下翻译效果:

😨 这都什么鬼东西啊???我简单介绍下片头:

河北老乡的前男友打电话给她问好,说自己现在日本,工作提前结束,想约她明天见个面。

感觉有可能是tiny模型不行,分别试试 Smal l、MediumLarge ,在此之前要 截取视频 ,不然跑一天都可能提取不完,简单点直接裁视频的前10分钟作为样本,这部分对话比较多一些。直接用 ffmpeg命令 截取视频片段:

bash 复制代码
 ffmpeg -i "xxx.mp4" -t 00:10:00 -c copy short.mp4

接着依次选择三个不同的模型进行字幕生成,在漫长等待过程中,我们整下活,看能否提高生成中文字幕的准确率。

3、ffmpeg 提取音频

Whisper 在生成字幕时肯定有做ffmpeg转换,把视频转换为音频再进行识别,这里我们自己来转一下,可以直接命令行:

bash 复制代码
ffmpeg -i short.mp4 -vn -af "pan=1c|c0=c1" -ac 1 -f wav -acodec pcm_s16le short.wav

也可以Python 调 ffmepg-python 库来调:

python 复制代码
def fetch_audio_from_video(video_path, audio_path):
    ffmpeg.input(filename=video_path).output(audio_path, af="pan=1c|c0=c1", ac="1", acodec='pcm_s16le', f='wav').run()

简单介绍下上面的参数:

  • -i:输入的视频文件
  • -vn:不处理视频流,只保留音频
  • -af "pan=1c|c0=c1" : 音频过滤器,1个声道,第0声道复制第1声道,实现单声道化(就是只取第二个声道,人声一般在右声道)
  • -ac 1:输出单声道音频
  • -f wav:输出为wav格式
  • -acodec pcm_s16le:使用pcm_s16le编码,6位采样深度的无损编码

上面做的事情就是,提取单声道的wav音频,提取的速度非常快啊:

接着搞下人生分离,就是去掉背景音乐啥的,用Spleeter库来做~

4、Spleeter 提取人声

Spleeter 是 Deezer 源分离库,带有用 Python 编写并使用 TensorFlow 的预训练模型。简单点说:可以用它来分离音频文件中的伴奏和人声。使用方法很简单,pip装下库:

bash 复制代码
pip install spleeter

接着 Github仓库 下载预测模型

下载后本地创建一个 ****spleeter 文件夹,在里面再创建一个 pretrained_models 文件夹,把下载的压缩包解压到里面,结构如下:

打开命令行,cd到 spleeter 目录下,键入下述命令:

bash 复制代码
spleeter separate -p spleeter:2stems E:\Code\short.wav -o E:\

这里要注意,输入/输出文件的 路径不能包含中文!!!不然会报错:Error: Missing argument 'FILES...'.

打开生成文件目录,可以看到伴奏和人声,打开听了下人声,伴奏(背景音乐)确实去掉了~

5、Hugging Face 翻译文本

前面切换不同模型进行字幕提取,终于执行完毕了:

依次打开结果验证,直接CV到百度翻译,依旧稀烂:

想试试百度这个AI翻译,结果只支持中英互译,搜了下AI离线翻译,结果发现了 Hugging Face,赫尔辛基大学开源免费的多语言翻译模型 (目前1440个):

在这里找了下,没找到 日转中 的模型,只找到 日转英 ,那就只能转两遍了,先 日转英英转中 ,只需要下载红框里的这7个文件(附:《不同语言及英文简称对照表》):

放到两个指定的本地文件夹中:

接着pip装下包:

bash 复制代码
pip install transformers[sentencepiece]
pip install torch
pip install sacremoses

接着通过加载本地模型来实现翻译功能:

python 复制代码
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
from transformers import pipeline

if __name__ == '__main__':
	ja_en_model_path = r"E:\Code\Hugging Face\ja-en"
    ja_en_tokenizer = AutoTokenizer.from_pretrained(ja_en_model_path)
    ja_en_model = AutoModelForSeq2SeqLM.from_pretrained(ja_en_model_path)
    pipeline = pipeline("translation", model=jap_en_model, tokenizer=jap_en_tokenizer)
    result = pipeline(read_file_text_content("short.txt"))
    print(result[0]['translation_text'])

运行后报错:

原因:输入文本过长,超过了模型支持的最大长度512个token,序列过长导致index出错,解法就是对输入的文本进行分割。修改后的代码:

python 复制代码
if __name__ == '__main__':
    ja_en_model_path = r"E:\Code\HuggingFace\ja-en"
    ja_en_tokenizer = AutoTokenizer.from_pretrained(ja_en_model_path)
    ja_en_model = AutoModelForSeq2SeqLM.from_pretrained(ja_en_model_path)
    ja_en_pipeline = pipeline("translation", model=ja_en_model, tokenizer=ja_en_tokenizer)
    translation_content = read_file_text_content("short.txt")
    content_length = len(translation_content)
    range_index = 0
    range_count = math.ceil(content_length / 512)
    while True:
        if range_index == range_count:
            break
        result = ja_en_pipeline(translation_content[512 * range_index: 512 * (range_index + 1)])
        print(result[0]['translation_text'])
        range_index += 1

运行后控制台输出日转英:

接着把英转中的代码也安排上:

python 复制代码
en_cn_model_path = r"E:\Code\HuggingFace\en-zh"
en_cn_tokenizer = AutoTokenizer.from_pretrained(en_cn_model_path)
en_cn_model = AutoModelForSeq2SeqLM.from_pretrained(en_cn_model_path)
en_cn_pipeline = pipeline("translation", model=en_cn_model, tokenizer=en_cn_tokenizer)

en_result = ja_en_pipeline(translation_content[512 * range_index: 512 * (range_index + 1)])
zh_result = en_cn_pipeline(en_result[0]['translation_text'])
print(zh_result[0]['translation_text'])

再次运行看看输出结果:

😲em...这翻译结果不太对啊,而且等挺久的,试试改成逐行翻译:

python 复制代码
translation_content_list = read_list_from_file("short.txt")
for translation_content in translation_content_list:
    en_result = ja_en_pipeline(translation_content)
    zh_result = en_cn_pipeline(en_result[0]['translation_text'])
    print("{} === {}".format(en_result[0]['translation_text'], zh_result[0]['translation_text']))

运行看看输出结果:

😑 比对下原字幕,直接把我整无语了,这让我想起一个中国的成语:以讹传讹 ,指的是:本来就不正确的话又错误地传出去,越传越错

解决方法的话两个:找更适合的模型 或者 自己训练模型 ,这垃圾电脑,自己训练肯定是不可能的。只能再搜搜模型了,搜索片刻,终于找到两个日文转中文的模型:larryvrh/mt5-translation-ja_zhneverLife/nllb-200-distilled-600M-ja-zh

😰 4.92G的模型让我望而却步,好在 Hugging Face 支持 测试模型 ,输入要翻译的日文,然后点击 Compute 就会加载模型,然后进行调用测试:

大模型就是叼,确实准确很多,不过跟我的垃圾主机无缘😭,但这种通过API调用别人模型的方式可以有~

6、OpenAI 翻译文本

通过API调别人训练好的模型来获取翻译结果 ,好处:不用自己折腾,不需要硬件资源,可以搞并发。坏处:当然是得 花钱 🤡。

快速校验翻译效果的方法肯定是直接问 ChatGPT,直接写个简单的prompt:

你是一个专业的翻译工作者,请将下面这段日文的段落翻译成中文:xxx

翻译结果如下:

卧槽,🐮牛逼,和原字幕匹配度至少有七成,如果有openai token的话,可以用python代码调用下:

python 复制代码
def translate_by_openai(content):
    openai.api_key = "sk-xxx"
    response = openai.Completion.create(
        engine="text-davinci-003",
        prompt="你是一个专业的翻译工作者,请将下面这段日文的段落翻译成中文:{}".format(content),
        temperature=1,
        max_tokens=2000,
        frequency_penalty=0,
        presence_penalty=0
    )
    print(response["choices"][0]["text"].strip())

运行结果和ChatGPT的大同小异:

又试了下 Claude ,翻译结果稍微差一点,文心一言 的话(🤣笑死):

在视频播放的时候挂载字幕的话,需要 srt 文件 (Whisper有生成),用vs之类的代码编辑器打开此文件:

全选复制,接着换个prompt:

你是一个专业的翻译工作者,请将下面这段日文的歌词文件翻译成中文,要保留时间和序号:xxx

因为内容比较长,途中需要点几次 Continue generating

生成结果(后面还给我瞎编了一些🤣):

挂载下字幕看看(白色字我们生成的字幕):

验证过程,也发现了Whisper生成的时间戳不太准确的问题:

这个可以问题可以用上节提到的库 jianfch/stable-ts 来改善,关于生成中文字幕的探索就记录到这啦🐍~

7、总结

🤡 简单总结下 用AI生成霓虹爱情片的「中文字幕」 的技术要点:

  • ffmpeg 提取单声道wav音频
  • Spleeter 提取人声
  • OpenAI 将字幕翻译成中文

用到的prompt

  • 你是一个专业的翻译工作者,请将下面这段日文的段落翻译成中文:xxx
  • 你是一个专业的翻译工作者,请将下面这段日文的歌词文件翻译成中文,要保留时间和序号:xxx
相关推荐
檀越剑指大厂9 分钟前
【Python系列】 Base64 编码:使用`base64`模块
开发语言·python
sp_fyf_202415 分钟前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-11-05
人工智能·深度学习·神经网络·算法·机器学习·语言模型·数据挖掘
小火炉Q19 分钟前
02 python基础 python解释器安装
人工智能·python·神经网络·机器学习·网络安全·自然语言处理
钰见梵星26 分钟前
深度学习优化算法
人工智能·深度学习·算法
Liknana32 分钟前
动态渲染页面爬取
python
凤枭香40 分钟前
Python Scikit-learn简介
开发语言·python·机器学习·scikit-learn
人生!?43 分钟前
爬虫实战:采集知乎XXX话题数据
爬虫·python
dundunmm43 分钟前
论文阅读:SIMBA: single-cell embedding along with features
论文阅读·人工智能·数据挖掘·embedding·生物信息·多组学细胞数据·单组学
xhyu611 小时前
【论文笔记】LLaVA-KD: A Framework of Distilling Multimodal Large Language Models
论文阅读·人工智能·语言模型
数据岛1 小时前
sklearn中常用数据集简介
人工智能·python·sklearn