|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 * _- m# H) Q) ]8 q
1 J. a2 @* H1 L8 J借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。1 W0 U# O! I- C1 V) c
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。6 ^0 }$ I: Z, i! [
----------------------------------------
0 F' Z7 w/ d* E" }1 z$ b9 A显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。. n$ V/ R2 ?, G& x
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
5 J, G F) P* F+ z. p. o' a----------------------------------------
& b0 f9 r3 d Nhttps://github.com/guillaumekln/faster-whisper1 x2 n. U d) z& S" s4 s9 \, L
安装如下:0 `: N0 j1 H3 ?$ w/ {: P
1, Windows 10( v# N, d4 O7 I5 H5 m. k
2, Python 3.10.11
* U) v: P/ j& n- k3, CUDA 12.12 l' m5 l1 H& ~5 f. ~
4, 在python 3 中安装
" C8 L& ^" @' O& s7 t: Bpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
# D( w r/ U+ }$ j这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
$ z6 k! |5 ~) H( X5,pip install -U openai-whisper) h" J" }: E) v
这是向whisper 致敬,可以不装7 O! X: f3 A: Y; t
6,pip install faster-whisper
L* ]: e3 P) f* p----------------------------------------
/ g0 }" e' g+ bwhisper 我用的命令行,faster-whisper 我用的是python。" P4 \; s9 z5 A% {& X9 g
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
, \9 h! j3 T+ s! E3 R b3 k
3 U1 z4 ?' ?" ?8 \ r----------------------------------------
' I4 p' w/ k8 ~/ @& V0 ~7 u1 \# k$ v P) J3 [9 s G( `# P; J
from faster_whisper import WhisperModel" ?" Y6 L% Z0 V2 R/ w& M
8 @2 p4 {1 d, u2 A# L) N' C" Vmodel_size = "small"
, S) l6 }6 X% N' M) A- D, a
2 a& d( o' o( k: bmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
" k/ @, i7 _& ~0 \0 S8 R
9 O% B* A" J$ g' J) Isegments, info = model.transcribe(& I, y9 x- J. ~) x* j3 W" I* J) S
sourceFileName,
" A) v4 O! l0 K7 m! d) H2 j beam_size=5, # Z( W m. q( }5 e H/ p
language="en", # [# w, E2 S- l2 p5 y
task="transcribe",
* e+ B# Y7 q# T1 K word_timestamps=True, ! Z1 }2 H0 a9 d" L7 i6 @
initial_prompt = "Hello, welcome to my lecture.")% o; ]8 r4 v# u E$ H+ m
0 T1 T1 v% o$ g) U- G* V* x
for segment in segments:: V- h# W: g1 e: B) m$ ^
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
" s8 e) L8 b+ f3 J& T6 J2 \! c4 M8 R3 X; e; l
for word in segment.words:
5 K/ Z0 n9 L+ y% I" n# f4 i $ u/ X K3 }3 Z: ~4 }' W0 q' [
----------------------------------------
7 W$ @7 L! K- i, j% @* g( h0 p8 k- |# H2 c" S; m% h+ K& i7 h2 \
代码说明:7 i1 L% g) g" o6 L1 l. q
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。+ \+ P8 _$ v2 z! x2 o* a
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
% L5 s9 N- R7 _, o1 g! ]9 A8 h2,segment 本身是很粗糙的,做字幕勉强能用。2 A; ~8 O# N9 a
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。( z# g. w7 e* ?) p0 _; o
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
; a g* T# N' j, q( N比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。/ x" S; C: r$ C4 p5 T, p0 o5 C
5,model.transcribe 中参数说明:
' h. @/ H4 z# d: j2 l* D6 e你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
; ?0 U( A4 h" l5 T' m5 Q7 h$ J* J其中
+ ]& f' N4 z1 O. @- L word_timestamps=True, . m9 T5 F7 p8 F, W2 @
保证了你能拿到 word,否则是拿不到的
( F8 m4 x2 V7 K initial_prompt = "Hello, welcome to my lecture.")
3 Y" @0 D) f, x6 ^! ~保证能尽可能准确的断句 punctuation,但是不是决定性的。
9 W( p& N7 G7 _+ R. _1 q1 W其他参数可参考源文件:
& W- X: B$ O- }' q( O% A/ r! n: ehttps://github.com/guillaumekln/ ... isper/transcribe.py" l9 w3 Z5 v8 C) v& h, k: O
152 def transcribe(
8 F+ h2 f# I5 g: g从源文件你可以看到是支持中文的句号断句的。
1 M* F7 h) O. c, |! K4 Y& G7 w: A; @' m9 `
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
Q; ~ y+ G9 Q% v4 z7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。: v2 _ E( t& V6 n% T3 `$ N
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。' \. Q7 n/ M X1 U( w* d; l
9 Y' K0 q p) d6 J3 y s9 ]
2 \$ y0 l; d+ ~8 Y/ N- _- d" q
3 A' M. Y q o6 W1 Y |
评分
-
查看全部评分
|