|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
# N* y( \, }" a9 w8 {6 A
$ W. W: Y0 E7 Z借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
/ M' p4 m% W/ d5 i, k效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。; a1 V. P8 o0 ]5 h. s
----------------------------------------
2 S z1 ?5 b9 R显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。+ T; f- a- A; d; b
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。& Y3 N$ R. ?2 B! Q! d# J& ^
----------------------------------------
8 c. `. B- |5 Chttps://github.com/guillaumekln/faster-whisper
) D5 j2 ^% {! c& d安装如下:+ M2 R, Z, ]0 `, A. l
1, Windows 10
& G+ a3 `1 A9 }3 S1 R9 f* `5 U2, Python 3.10.11
5 {" G, L1 v0 E9 ^& F8 S3, CUDA 12.1* U5 b9 S: n% ?- r. f9 t5 d' E
4, 在python 3 中安装$ b8 a! H& b5 N7 D
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117/ }: l2 ^# f" |, u) \' g" f2 E+ [
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
; b: ^1 w- C: E: K9 L- E5,pip install -U openai-whisper
" _/ ]% v" D: J! S: O; p7 e这是向whisper 致敬,可以不装7 q* C+ P# S& }2 R, X
6,pip install faster-whisper
3 _2 _* }/ M/ e7 s; N) J----------------------------------------
2 {/ V$ u* o. C5 Wwhisper 我用的命令行,faster-whisper 我用的是python。
3 `' W1 D3 L9 t8 O" E. p下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:# O2 Z3 S( ~( a* _
! v R$ P7 Y3 r- u2 s, o) C; n----------------------------------------
/ \' T* |/ d8 C8 O1 A8 S0 k
1 c9 v% U8 B3 m, p2 m9 _ p* _, ofrom faster_whisper import WhisperModel
' S/ G) F* W1 T/ O( F' P `/ h0 L
model_size = "small" {) O* V! f4 r% w, L' k: P- l1 E
7 P$ {5 E5 s4 v7 umodel = WhisperModel(model_size, device="cuda", compute_type="int8")# s; t$ J0 S$ D0 _; ?$ G5 ]
: z' F% m; S$ v I4 y, B
segments, info = model.transcribe(2 V4 J' W( h5 D" F
sourceFileName,
6 G! u# P) Y. K beam_size=5, ; u) m& w5 J+ O2 v4 y! @- q4 F+ m
language="en",
4 A9 K8 u V& w) j$ }' s L task="transcribe", . u$ ]: c( p, c- l, p0 f
word_timestamps=True, 9 ^! S0 ?+ J* x; a0 h9 g7 U* }( ]
initial_prompt = "Hello, welcome to my lecture.")
( m9 q" n) i% t! X
( j v1 v& G1 H+ }- Mfor segment in segments:; f! R& j, o" G( J. m0 {& `
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))6 ]! g" k8 w1 c* \1 x
* E1 S" E' u0 w" }( X
for word in segment.words: P5 O% W5 C! M4 w2 ?
5 J* V( S" h( z* V----------------------------------------
5 ?2 {. v. i. E
: ?- i; G( [- ?) A" |$ |代码说明:
+ s* v5 }8 R. r4 e M1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。5 T. [+ m/ b9 C& E0 Z
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
2 u v z) |# P' ]6 q* q9 O2,segment 本身是很粗糙的,做字幕勉强能用。
& K! A5 m& _. m; s3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。2 ^9 h6 H$ Y! S8 P9 ?% D6 {
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中' ]% s, A4 p/ W4 H( C) _3 A
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。; Q, X! u6 N# n) `" t) C
5,model.transcribe 中参数说明:
) ?4 _! E' s5 h你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数: o" F$ K9 G$ x' W8 Y, R7 n
其中
' p* @7 N$ |# t ^# c0 q" g word_timestamps=True, 5 C& J! g7 ^; v. O
保证了你能拿到 word,否则是拿不到的1 Q- G8 {9 V; s1 P
initial_prompt = "Hello, welcome to my lecture.")
. N& V" O# F7 b: K+ e9 o. N1 U保证能尽可能准确的断句 punctuation,但是不是决定性的。' T& M5 k, i( P
其他参数可参考源文件:2 G; d9 m% P; ~4 L' z
https://github.com/guillaumekln/ ... isper/transcribe.py" G7 K- P+ c0 V) v% L6 @ `8 Z R
152 def transcribe(
' \4 x1 Y( }9 U9 g* c从源文件你可以看到是支持中文的句号断句的。0 u9 U! t: u# p: I& _7 b1 ]
" A& D u- H2 O/ r' @7 G
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
" p* q9 V) _" Y/ E! C# g. Y7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。; n. H; @5 o) w k
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。2 Q8 } B; j* v; o: f
$ {% k) G9 q( B G5 N% n8 A
3 [6 A9 o) x3 j t4 T s
& w! J" Z! k- H" k2 k
|
评分
-
查看全部评分
|