|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
7 K9 _# e7 ?6 J n6 p V6 _4 [6 B w. `. v) E
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
" j# E6 a, t; j$ v( }( F0 K效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。) ^6 O" Z# u5 |
----------------------------------------8 @5 `( w. m, z" |0 x7 w
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
: _7 v( C5 v) e% @在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。 ^* [- [3 u' W4 x
----------------------------------------
, {" O, q, ^) \1 K2 khttps://github.com/guillaumekln/faster-whisper1 {* c% o3 [. t
安装如下:8 `% d: G( _; H9 H0 z% C
1, Windows 10
6 e5 s2 y; B2 ~0 i2, Python 3.10.11
$ F6 X6 u: e5 ^3 N3, CUDA 12.1
% p1 V1 j/ U: O) I4, 在python 3 中安装
8 ~5 `' g) K0 r( apip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117' F6 k$ f1 I: G2 q, C
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
( U3 h8 E' t* E% H5,pip install -U openai-whisper
- B: z- `1 }5 w K这是向whisper 致敬,可以不装
" x8 H% ?9 A. X: g# [6,pip install faster-whisper0 x, {* S' Q& A2 |9 M0 V
----------------------------------------2 N1 O' X# |! N; S6 S: S9 R0 }
whisper 我用的命令行,faster-whisper 我用的是python。& V2 F7 v7 S$ R: J9 @, A' S$ Z
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:" C7 j/ |' D7 h0 c* ^5 m1 s0 C
% a# Q& y \: o" Q& F2 |& u
----------------------------------------
0 X) F% G# z) K1 _! _% X2 D; T
( u Z& Q& j7 S" V' ffrom faster_whisper import WhisperModel
k7 V2 P1 t6 i0 G
( _0 J( R" @' v4 Fmodel_size = "small"
* ^0 P- C3 {% u- |* B
( R& X& o b" dmodel = WhisperModel(model_size, device="cuda", compute_type="int8")) f5 }- i: Z8 M
. e3 J1 m' J0 }' S) p" _segments, info = model.transcribe(
' s% @! v$ o% m$ p" y/ w sourceFileName,
* P- D) t/ W/ u beam_size=5, . F( y/ q0 ?) q! y: n4 H
language="en", , s3 v4 o: a+ E- `
task="transcribe", : ^- x2 e6 g5 o7 A+ q
word_timestamps=True,
9 ?9 E; S$ @6 v& H: d initial_prompt = "Hello, welcome to my lecture.")8 W" W/ D4 Q: D
. b1 r1 e8 m% b: G6 Efor segment in segments:' `5 m* u) n; R; c! T! z% o4 r/ N2 B
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
" c; j2 E2 m; [
9 [ I$ a( l e: l5 R9 p for word in segment.words:
; ?: k. j% Y! \
% m) _0 q- Y7 ^' E0 C+ Q----------------------------------------) ]; q5 o: ~0 u
0 j' u+ w7 c. R, @# o% [4 Q
代码说明:1 r: q. K5 `2 r2 E
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。! F& I. `. c# h0 K3 k
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。, x7 S F! q4 A$ |. K0 ?
2,segment 本身是很粗糙的,做字幕勉强能用。
( W2 s. E& E: O+ e1 P: e3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
$ `% A% @% P, Y ]7 X! T2 [4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中 }) s! o2 R' c* G" O. Q
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。; V: ^* S. W" n8 k* O# L+ B
5,model.transcribe 中参数说明:
/ s: c8 f# _9 `- ~# A你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
+ y/ v9 p) N# h* ^其中) S2 B: T/ }; {) U
word_timestamps=True, 1 \2 }. ?* _$ w5 h, f k8 U6 M! M2 s
保证了你能拿到 word,否则是拿不到的$ Z7 v+ }2 p1 G! }9 R9 {) U
initial_prompt = "Hello, welcome to my lecture.")! {/ b) g8 n g R3 |: T" H4 q
保证能尽可能准确的断句 punctuation,但是不是决定性的。& D, R* X8 F. k& a$ `
其他参数可参考源文件:
3 r4 w6 x) }1 D Q/ b- P- [& {$ mhttps://github.com/guillaumekln/ ... isper/transcribe.py: W9 y9 o8 r; P/ d
152 def transcribe(
9 C" S. O# ^* o6 N( F- Y从源文件你可以看到是支持中文的句号断句的。
2 v& h: |# q2 A0 k g
+ m: n5 o2 k1 u8 K6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。; S8 C; c! V! s, w/ F1 p, s1 `% I
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。2 A7 M1 y# u* p6 |
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
/ W r) g, U5 _, ]& U) U0 R" L5 f& U% g2 Z5 s! L1 e1 Q1 X
0 ~0 N, D- N7 [" B! V( \( w* i' _5 p8 M) C m
|
评分
-
查看全部评分
|