|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 - I! N& `8 m( s8 j# E7 w+ h2 K* N
1 l* f3 I& Z0 I* c7 N) l借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。( F* @5 f: u: i" d6 G8 Y. J- y" u
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。/ x9 T! k9 m4 A" g2 l! Y$ L! t/ C
----------------------------------------
3 i- D9 p; f* R: c' D4 Q显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。. r c$ K% S1 V7 }) K( h5 u% @
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。' X0 K4 i( H4 ? @5 U; d
----------------------------------------
C+ s7 w, P: Ahttps://github.com/guillaumekln/faster-whisper( l( S5 x6 B, L4 |* s
安装如下:7 p2 T0 {/ G0 W1 P
1, Windows 10
' [% A# {/ k& \8 K5 t2 {2, Python 3.10.11
1 N( j" d$ O" \) f; O3, CUDA 12.16 C( u8 s6 h* I# m% _
4, 在python 3 中安装
$ k- [- |8 U8 l# C# Ppip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117 K; Y1 s3 x8 m T) A$ N( D
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
7 W5 N- |5 Y' Q5,pip install -U openai-whisper% A- E. q. n, {' S, U; |
这是向whisper 致敬,可以不装$ V1 M) ~0 @5 M% x4 a( g: G0 R' a
6,pip install faster-whisper2 c- w* a! {2 g; L5 h7 _
----------------------------------------7 S6 [/ c. E1 m( Y
whisper 我用的命令行,faster-whisper 我用的是python。
6 _% O1 d; _ {/ q下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:3 I7 B: [- C7 V; i1 K: o- K; N
$ C; Z% X; O. [* R3 D8 b3 V----------------------------------------
( J2 Z4 O3 O' \
! M( E; U' V" b& g7 c; Tfrom faster_whisper import WhisperModel
# N: E" ^) t8 E) ?7 e
& L& j) z+ j; W( K7 f7 K3 `+ _8 Rmodel_size = "small"* i5 o$ r4 F2 H1 ~. K; C0 ^3 P
$ E9 l' H1 E( ^2 {1 z9 N
model = WhisperModel(model_size, device="cuda", compute_type="int8")0 X/ ^& s- M- F* h7 l
+ I+ j g! `; c) T9 {segments, info = model.transcribe(
1 F7 D d8 g3 d1 {/ K sourceFileName,
3 ~ y5 }* }4 N: ` beam_size=5, % g! N* U+ y2 b
language="en", ) b n. n% e( k2 |) n4 |: e$ D T# ]
task="transcribe",
0 ]9 r. X/ R1 \6 Y$ t5 Q word_timestamps=True, $ g! n( T: A; s5 r6 u
initial_prompt = "Hello, welcome to my lecture.")% _9 h0 M" a8 D2 T8 \+ F
2 N. {, [& d, y/ t, s
for segment in segments:0 Z5 h: I' Y+ { m+ R# R6 ]
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))8 p6 P$ Y! G) y5 f
$ E$ P2 C9 e5 b
for word in segment.words:) ^5 I& o5 h; ?7 Z
# {' R5 O5 U; j----------------------------------------4 Y {" o/ Q" ?( O1 S3 m
2 w' E* O) h5 \1 K代码说明:
& |8 \" ?* n1 T1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
* u) Y4 N8 P% k0 J' t5 s" F但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。5 H' v8 W4 q# Y( ]4 Q' ~
2,segment 本身是很粗糙的,做字幕勉强能用。
; U" X8 T- s4 J" f( R0 q3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。: W% ^7 M: J/ I$ a \
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
6 H8 J* Z" N& @" c6 p2 }4 e) \/ C" U比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
: ^$ o3 Q% ^, Y5,model.transcribe 中参数说明:. y- G1 Q' M+ e- _/ Z
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数$ s& r2 x/ E* f) P3 `" R6 [2 t; n
其中
3 ~1 g8 q; J9 I word_timestamps=True,
# i2 p7 D( k2 z/ J0 L保证了你能拿到 word,否则是拿不到的
$ g# _: t1 `# I ^' n$ O initial_prompt = "Hello, welcome to my lecture.")
: y6 L5 c4 y" `$ b) q4 f8 e% c保证能尽可能准确的断句 punctuation,但是不是决定性的。
3 x1 f) a& e0 T6 e+ c( @+ I/ ~% K其他参数可参考源文件:( S, q- r1 K2 e2 K/ P& y) r$ ~) R
https://github.com/guillaumekln/ ... isper/transcribe.py! R& G: [9 @8 w4 e! B; a
152 def transcribe(
# f& q* y6 I5 f' `从源文件你可以看到是支持中文的句号断句的。' n( G& C: x2 @. ~
: d4 Y7 N- ~8 ?7 p! z
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。2 @3 h5 t1 R& d, i0 V! m
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
4 I0 e; ]& @0 R% X8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。/ ~" U3 |! w' i. C4 b, K
% R5 Q- K) @2 d1 r8 C . w7 G7 p, r" Y. p- k9 [: _
+ g4 @- V3 k4 ^& q3 G2 @ |
评分
-
查看全部评分
|