|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
) T8 r1 E' t# R8 O& C
6 f5 i6 }" D$ W) V2 R, G( V借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
l# w8 ]: b2 Z( p( t效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
* I. z! \. y* r# N----------------------------------------
" B9 y4 g! D7 n* j, b显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。% f' [- d4 {( P9 J4 P
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
3 f% Q- i/ s- g% f0 e, X/ A----------------------------------------
Y1 o% O& F2 [; ihttps://github.com/guillaumekln/faster-whisper, E1 `5 A$ o; x; x
安装如下:0 i, x# c P/ r! `) a+ j$ Z
1, Windows 10% L* O2 C1 t) |; N" L5 j
2, Python 3.10.111 V& y+ l5 x9 b( a5 A$ E
3, CUDA 12.1
5 o) s1 r/ M/ C0 |1 o4, 在python 3 中安装1 @ e0 i+ {1 @2 J' ?& P8 U
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1174 d; I+ J: }6 T' @6 A5 V
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
% j. N/ z/ `$ Q s1 ^" e: J& j. q5,pip install -U openai-whisper9 L: M/ w2 _8 r/ {; l
这是向whisper 致敬,可以不装
& t& g. r1 k) G; j7 Q! E" _6,pip install faster-whisper
: L' L1 s- h3 s& r4 y----------------------------------------
; i$ q% C* \ a$ W ?+ n. ?whisper 我用的命令行,faster-whisper 我用的是python。
2 i& I; H- b4 k q下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:" B: |8 h' W& a+ {
7 f* q. q& j4 B& {0 I/ ?- [; N
----------------------------------------
0 R2 G4 N+ C9 O& M! M
5 A, V* d3 e4 F6 [from faster_whisper import WhisperModel
/ N9 [# j F% r& k4 o# ]
7 v& r R& [+ c+ b$ ?model_size = "small"& m- N. |/ Q* n
& N9 D# ?. |* Y2 u; t% A
model = WhisperModel(model_size, device="cuda", compute_type="int8")/ z( Z/ {+ w! B1 f1 ]
% C& e0 R1 [# _+ W1 I( H( A, z
segments, info = model.transcribe(
; u* T9 ]) v# l: G3 C sourceFileName, 1 F2 F" b+ m4 d$ [7 f0 l1 ?, A
beam_size=5, " g- q4 z2 d* r
language="en",
. z$ x- R% D8 ?( b7 | task="transcribe",
. R5 r* f) ?+ o# _) T4 \- d word_timestamps=True, 9 _" Q+ B( d! `$ i$ @& ]( {
initial_prompt = "Hello, welcome to my lecture.")
% ^5 o; Q6 B, }, [$ N7 ?8 S6 O% ?5 z( }: `3 i# }2 P( @
for segment in segments:
& v% z: b+ O6 i/ \ print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))2 P% ?5 H" {; x$ `5 @
; S, g9 Y A! o- F for word in segment.words:
4 M' M; }2 _' V ) a8 \; [1 i) o, ~7 B- l/ F) k3 O
----------------------------------------
V9 R4 l, R( D0 u5 u
# l! D+ Y5 s4 m4 b$ j代码说明:
- J- I0 l& G$ e0 v0 I1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
( ~, `" D4 H; }+ d' n) y但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
: Q) [; M# c+ y* ^% I2,segment 本身是很粗糙的,做字幕勉强能用。6 d" M! _4 j# a5 N# Z) @1 N
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。; k, {- |. D; D
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
+ |. X2 K" A! e+ q0 T Q比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
. ^1 l4 b V2 p* e. o) Z4 o5,model.transcribe 中参数说明:7 Z, E& q/ D2 `! r
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
; @' w& P! W4 U( V. Y* b其中
: E; ~* B. d, k1 k# c* N word_timestamps=True,
$ L3 ]! K& I+ K8 J保证了你能拿到 word,否则是拿不到的6 @! r; S. A4 T8 m' P1 w4 E5 h
initial_prompt = "Hello, welcome to my lecture.") K" c: t! o5 y! U
保证能尽可能准确的断句 punctuation,但是不是决定性的。
& n! |4 Y- o7 K# r9 ~8 a其他参数可参考源文件:5 K$ t2 L [# N+ ^% Y l
https://github.com/guillaumekln/ ... isper/transcribe.py. Q6 k2 `$ }0 q$ b6 l7 I) B) w) E
152 def transcribe(
$ @6 G7 h+ v, b* i; B$ g! i: M从源文件你可以看到是支持中文的句号断句的。
) n% B. L8 m& A& x. w6 B( O$ @2 z6 r& Z. G- G7 @
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
' V8 x% x d1 y0 E; L7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
* N6 `1 U2 R" M! P; S+ T9 N+ i8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。 x2 H4 j5 F6 E8 y' g
5 r5 e, r+ g- X* H% B, W+ K
: S3 D$ W; l) f5 R- f7 t7 c4 S( @
|
评分
-
查看全部评分
|