|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
% j6 j6 G7 h! H
. p- T( w+ J# r* s借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
# z9 e( |/ } h& ^, i% _, m效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
; k/ C' }2 y6 p7 X4 z----------------------------------------4 L$ A: R; U* \! |
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。$ V( Y! t6 J. K, I
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
( l9 {3 t( {/ q' U----------------------------------------
, V. W0 s: S: I( t2 u2 A/ Rhttps://github.com/guillaumekln/faster-whisper6 }* I) D- \% y" Y9 ` P
安装如下:7 Z/ ~% H" T2 A3 A
1, Windows 10( F* v4 c+ f' J6 z0 U3 s" k
2, Python 3.10.11! x1 E/ D% V* ^% P% Z
3, CUDA 12.1* q# W# K5 @1 ?1 ^" s* d: ?$ U
4, 在python 3 中安装0 S. o" w% q( b: r/ i
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
# f3 a% x: w6 ?4 W; ?这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。/ Y6 A2 O" P- d" r& L! v9 o
5,pip install -U openai-whisper9 q( \, a' a# O1 M* z! [* K
这是向whisper 致敬,可以不装2 B* S! O+ ?8 K! J: N: R# V3 |
6,pip install faster-whisper7 j% G( y; l) D0 A6 D2 |+ Q( R/ X
----------------------------------------3 r% [7 A4 A/ L/ O9 O
whisper 我用的命令行,faster-whisper 我用的是python。
5 `+ a, l7 G3 g; n下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
# n* C# C* Z$ B4 _( S
- R, m# k! J+ C& ^7 f' v& x----------------------------------------
) @6 Y& i& z+ }: m1 z6 h) W. }3 n; }/ o* F+ |$ T
from faster_whisper import WhisperModel
( t3 _5 {, K. Q7 e" H6 } M! X# {, t# ~. f: F) i
model_size = "small"/ s$ _4 p2 d8 `2 X: J8 P4 j
- F6 w# r9 B# o) J( lmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
4 l) S9 m1 m# e/ F( ?: z& T9 {: Q9 o& g# R
segments, info = model.transcribe(! }0 R' h% E4 e3 D
sourceFileName, 0 B n8 y3 ^, O" @: m# Z$ i8 C1 J& k
beam_size=5, ' ]9 L1 j2 J( o4 k
language="en",
0 O! \6 J$ l, ]) h5 f task="transcribe",
3 G0 C! v/ M7 ]5 Q6 P word_timestamps=True, 9 W+ Z( j7 N" K: q+ U# ]8 @& ]
initial_prompt = "Hello, welcome to my lecture.")/ [) @9 m( z) y' Z! @$ k
$ ]$ X8 r$ E) D7 s9 Efor segment in segments:9 j5 S# u& F; _5 m
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))2 p& F# f1 s0 m$ e/ b2 z
: r: R" \# [2 J& e" e' N6 `: d8 o for word in segment.words:
9 s+ Q/ G) N9 m! w* p# ~+ G, j& v$ ` 3 v1 F6 m: |/ ~' o& b+ Z U% V
----------------------------------------& a7 l \/ c. d2 G+ v
/ z, w. R' w$ d代码说明:" @8 p% Q- C5 F
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。6 ]* C. f2 X# _! r
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
J4 q4 ~ h4 z S2,segment 本身是很粗糙的,做字幕勉强能用。
! k* \2 i, T+ E6 b# Z3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
) I. {) B" w& c: K2 ~( u0 J7 y4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
2 T: D4 n' F! E |5 d( i2 B% z比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
5 ?( l, l' d+ E4 ?3 ?1 q- g5,model.transcribe 中参数说明:, u" [/ h' U; L) Q
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
4 Y( {) \5 @ q其中
/ T5 V# Z* c: c: R: I word_timestamps=True,
! h5 t# b, F0 k保证了你能拿到 word,否则是拿不到的
# h4 B9 ?( |+ b Y: p$ }5 ?3 Y2 u initial_prompt = "Hello, welcome to my lecture.")- }. e# @ l6 Q- ~) T! {, l% o& V# Z
保证能尽可能准确的断句 punctuation,但是不是决定性的。: z3 ?* c/ ^. k/ _6 Q/ h$ \
其他参数可参考源文件:6 V; w. D A7 y) Q
https://github.com/guillaumekln/ ... isper/transcribe.py% \3 X1 w# d u/ h
152 def transcribe(" V4 C8 T( K/ [7 ?3 P+ W! \( k6 b2 ?
从源文件你可以看到是支持中文的句号断句的。- v2 t( I; g- K/ n" K2 E1 b
k' [" n, v2 k
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。# W0 }1 ~" Z7 h- Q5 r5 i" }
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
9 r: e: i. O2 K6 R, K2 v8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。 l+ y7 J9 S6 C: O1 o' ]0 N& Q
+ S' w8 w& O3 r* E) @ ) O; P, T) M. b- N
9 F1 n$ q' j; f |
评分
-
查看全部评分
|