|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
& l/ y$ j% T3 e: m& S7 N
" @3 ^! d1 Q: O5 U2 R1 Z* @. l& F借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
8 T$ w5 |+ P! v3 T7 L! X效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。% X" p9 \' [1 g: u4 J
----------------------------------------
; s) Z/ r& S6 V# q2 u8 M显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
( ^1 E4 a1 I" J. X在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。1 G( ]- ]) t( a8 s
----------------------------------------
' x% W* E/ A* \, k/ [7 N' i. |7 fhttps://github.com/guillaumekln/faster-whisper& Z8 Z/ k( Z2 _( v, I/ m8 u
安装如下:4 G1 s7 J# `2 K2 C7 n
1, Windows 10* N: E0 R+ ?0 u: i/ w
2, Python 3.10.11
0 Y. ~' B5 M- K9 Z, Z: x( a/ {0 |; G4 W3, CUDA 12.1. G1 q4 X) _4 f6 }, f. n8 ~
4, 在python 3 中安装
0 ]& ]) b6 K5 v+ r9 M ]0 I- Wpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1179 ]! i7 F8 Z0 v* p9 m9 a/ D' ?2 S
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
3 q; s0 t7 q, X* j5,pip install -U openai-whisper; Q x$ Q. Q t; Q, j/ ?7 z
这是向whisper 致敬,可以不装 A. t/ L& `9 o1 p
6,pip install faster-whisper* b; s% p4 B2 L- U# D g0 `5 u
----------------------------------------% ~/ ]8 M8 u3 V1 O
whisper 我用的命令行,faster-whisper 我用的是python。+ g! r- q0 U: `- {- Z! B7 @
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
. D- d" ?" u+ x5 k% l6 |8 k
, n8 c% }8 d$ r; b; _----------------------------------------
) L0 M: Q8 X, K+ g! j
& J, t/ ]: @- t8 V& Y/ Afrom faster_whisper import WhisperModel
# Z$ F! `9 d) r1 {- Z, q
3 T) n0 c) B0 A- `' e7 {3 W9 \8 Pmodel_size = "small"
; g& U5 M5 \) R: I) B
) r9 v+ n+ {7 t0 H4 i4 H; pmodel = WhisperModel(model_size, device="cuda", compute_type="int8")0 s$ Y1 i( R! i' u4 ]
$ I/ F) i) {$ F. E8 G- Y x2 Y/ _
segments, info = model.transcribe(
& p) H6 |. F- A! `4 u sourceFileName, / M. Y1 e4 _1 h6 [
beam_size=5, - ` Q0 T" y6 ~0 q2 [3 U
language="en",
2 v: K# U. w6 R. P task="transcribe",
, G% l5 X3 [# ?1 d word_timestamps=True,
! ^$ z% y( B2 x+ O# [, ^ initial_prompt = "Hello, welcome to my lecture.")) w! s. j+ J3 k) d
* x! c* f; @7 F0 q: W6 j
for segment in segments:
6 h2 l+ g1 u, M print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
* e2 b# ]% e; g g6 @1 G
& d# l D9 ?$ ]) Z" a6 P$ T for word in segment.words:
6 t/ m+ n; K M) c/ V; i4 v/ O+ S
* S% w! j. u3 p( |! _( b6 i( z u----------------------------------------/ V& Q8 H E' i4 N" J7 b
7 c0 X" L( l# F6 m f代码说明:
+ C ~; d2 C: ^5 f, R( w1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
7 x8 R$ `: ?' g) s s* X4 G但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
4 I7 M$ y5 N' N! j: m2,segment 本身是很粗糙的,做字幕勉强能用。, ?4 ^9 i( N3 H' |% @* m6 x/ @ P8 ?
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
. u& ]1 {0 K; H3 g8 D) v% B4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中. v" h# H2 [ }" Y
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。7 ]; Q! e% H& a* Q9 _
5,model.transcribe 中参数说明:7 c) f5 |& S; M3 q
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数2 n6 ]+ \: S: K2 I. d
其中% H: y% L# F K6 v
word_timestamps=True,
8 L- j' F, {# J1 s6 K7 |* ^' u保证了你能拿到 word,否则是拿不到的
8 S5 z3 ^8 E5 n8 i7 d initial_prompt = "Hello, welcome to my lecture.")
2 S0 s L: z! p/ L9 i0 _3 `保证能尽可能准确的断句 punctuation,但是不是决定性的。
9 s2 l v1 M' h: Y) U其他参数可参考源文件:
. M: p& h9 V2 D3 b2 M+ Vhttps://github.com/guillaumekln/ ... isper/transcribe.py5 o) V* U! |: i
152 def transcribe(3 C4 K" e" [6 [" d2 w) B: I, `6 G$ B
从源文件你可以看到是支持中文的句号断句的。
) J# Y/ X% \6 W: |# s+ I" g3 n; q& ]5 g+ P2 w0 L! u! ]
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
! t* s1 w; i3 }! T+ I7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
: G' I/ T( S+ k# l9 ^% S6 n- d8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。' S P& h: }3 J5 K/ u6 j' k- M
/ w. U0 p9 U; p& P5 `: B 4 w! ~8 h" z+ j7 R8 }; w/ r
; [1 f9 C6 b8 s% h- w% M |
评分
-
查看全部评分
|