|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
0 }' M1 ~7 {" z: c4 o; K" w j) s0 H5 Q! y
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。( `- Q# G% `7 E% y0 r' W K, W
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
( x f2 L2 N c----------------------------------------% k7 t2 K: ?3 E @7 E
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
5 B. q% X3 N) Q9 ~1 b! [1 l1 a* c" M在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
$ Y! W1 i0 |2 z7 q----------------------------------------
% _7 q0 i9 B7 m+ k9 `https://github.com/guillaumekln/faster-whisper- J1 u) ]8 T- M
安装如下:
( m% E# ?9 X) M ~8 \; Y6 D( `1, Windows 102 {0 b: ^( K; F
2, Python 3.10.113 k) n* \& O% `$ P! C' {" O. Y5 m5 P
3, CUDA 12.1
5 v) \3 j/ g$ W! M1 s4 m0 {# d4, 在python 3 中安装) ~% O! F z* w" _% n, _
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117+ _: y' {! D% ~% p$ N. l$ _
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
( r2 E( m4 z: }" L) \0 Q4 q5,pip install -U openai-whisper) ^# G6 H! {- g; t3 ~
这是向whisper 致敬,可以不装
. m) l" f; _& B, h( ~) M; K6,pip install faster-whisper$ t: _- z' Z9 U- N
----------------------------------------
! X, ?$ }! t" D* O" swhisper 我用的命令行,faster-whisper 我用的是python。
$ g' c4 o T6 `! r下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:9 M+ c* R2 o5 n/ s# I1 k M5 v+ x
0 P" X* K) s3 p+ X0 N. l" v! i
----------------------------------------7 t1 Z. c0 U8 ~! r: F1 o% l. f9 f
/ I1 h/ A3 J, N* Z( [0 cfrom faster_whisper import WhisperModel
$ p$ ]0 O: q7 W' B) w7 v6 W. m% t. D. a
model_size = "small"5 k9 X z- m* B7 ?) F; ~/ O+ n, T# q
0 q q& L- b0 \. q0 K- D( k. D. i
model = WhisperModel(model_size, device="cuda", compute_type="int8") l Z9 b1 b8 B- X
. z" [1 p6 t3 K0 psegments, info = model.transcribe(+ @! H$ \' }. }7 N, G
sourceFileName, 6 @4 A( d' k6 j; `# h% O
beam_size=5,
+ D [. @6 @& Y+ n5 U6 u+ S2 g language="en", ) \3 n% X' Z' m" B" ^6 _' w: z
task="transcribe",
7 M: K! A0 x7 X word_timestamps=True,
+ _, v. f- X0 x& e. e4 q initial_prompt = "Hello, welcome to my lecture.") g1 o2 N& f# E5 x* |1 @: k' p
: c U+ t4 Y* h( g# Z
for segment in segments:! V; Q" i8 ], S: |& _" G
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
/ I' ?# O: S) W) y( }
4 A. V3 R9 B: k; h8 o7 j7 u for word in segment.words:8 ]+ q( ]1 p! N- b% @+ p
- Z3 m3 g* A/ y, t. S, o7 ?
----------------------------------------
6 ^7 U7 I. E( }0 `/ O2 I
/ c8 m* S* l. m代码说明:* q# G6 T M& o
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
1 ]/ D# i4 l, }! K+ \( }* W. o但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。+ J D2 l! c1 \$ `, N
2,segment 本身是很粗糙的,做字幕勉强能用。
( e; _, w3 t; y4 C: o8 y3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
! G! P+ m) W4 h v! _4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
3 C- [/ G( p0 U" @5 R% l7 A比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
1 G [, W. J% ?! L, s/ l- a5,model.transcribe 中参数说明:& G% H5 D& j4 k4 m4 p8 L3 s+ V
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
; x9 n0 g3 ]+ T其中9 p8 z n$ S" Z( j) u
word_timestamps=True,
, q0 \% [7 P) q0 J& E( D. z保证了你能拿到 word,否则是拿不到的( q. s* Z% w0 C x c# H
initial_prompt = "Hello, welcome to my lecture.")% }( O* j9 {" w$ o! S( o) v, z
保证能尽可能准确的断句 punctuation,但是不是决定性的。
" w6 J; V; s* r- L6 s1 G' U其他参数可参考源文件:
- G7 C; S) s; Ahttps://github.com/guillaumekln/ ... isper/transcribe.py) }( a2 S$ G7 s1 |& \- @
152 def transcribe(2 ~( ]" ^; `- b
从源文件你可以看到是支持中文的句号断句的。" m' f( t5 a# b/ h! s2 v
7 y Y7 p3 \! J9 G1 {- x4 p- r
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。% Z E. j z4 X V# O H; L
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
2 _# @" g$ V4 q3 l) [& L# r8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
" ], r) D) R/ n7 f! N1 p9 F: X& a5 q3 Y$ ~7 F/ g* A
" |, m9 P, [+ u, \7 F7 R) B4 y4 c: t
* H, X8 I) J7 G# L
|
评分
-
查看全部评分
|