|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 ! L6 _7 l3 {9 j5 t! B
0 _& V- F4 r& @! } u
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。+ { ^) x1 U6 A) s0 I) ~, ~1 p. f
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。2 \* @* {, x9 m% M& b* x, f
----------------------------------------
1 |( S7 C& k3 x9 D; @3 E( d显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
, K0 X5 J8 N* w) U在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
: {! [/ j* ]- R* U" Z----------------------------------------% f& ?# [ a8 r' W& x
https://github.com/guillaumekln/faster-whisper3 D1 b- s( }0 p
安装如下:
4 t& Y9 K$ O; O1, Windows 10
: ~6 U" K2 h$ L3 g, F! ^2, Python 3.10.11
: A6 k, U- l) \4 [3, CUDA 12.17 i1 \8 l; d5 |# b
4, 在python 3 中安装
: X! p8 U7 N+ I( Qpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
3 n: G2 x8 x$ T) n这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。0 |, P. L! C1 Y/ P9 _3 |: {
5,pip install -U openai-whisper4 H# }3 T1 d- S% }" a$ ~* O
这是向whisper 致敬,可以不装
+ Q* P; l* A2 v2 w' p" V6,pip install faster-whisper& ?/ _( W. J: f( j/ U: u: o
----------------------------------------
% M j+ j0 G0 ^whisper 我用的命令行,faster-whisper 我用的是python。! }- n1 T$ c' L" h' C+ V
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
$ q3 [' c# v, r. R7 b: j! t' S1 c- Z; ?, r( ~3 I; L- K
----------------------------------------
. ]" S- `3 s L( M5 _! U; m
( u& c8 w" k6 |5 vfrom faster_whisper import WhisperModel5 W* i# a0 I7 |; F
* H5 n1 B* c% Y: ~) d7 ?: K, T
model_size = "small"
- K( F2 |# U( g, n
( b+ ~' L" ~8 F3 jmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
5 k V6 }5 i. b! p1 C* x2 {9 B$ I0 s2 m: Y# v! Q% B; H! s
segments, info = model.transcribe(
L! s3 ]8 Q# \4 H( U" i sourceFileName,
9 v, ]! m) X# W& [' c beam_size=5,
) u$ i/ h3 ]+ H& Z! t* t language="en",
. x! |8 D: ~9 E6 x1 k& { task="transcribe",
; a: E q" a9 d h4 @ word_timestamps=True, n; ~4 i8 p& ?' B; s+ i
initial_prompt = "Hello, welcome to my lecture.")
; S, Z" t: k }' L+ _
7 d# r! R! X, Hfor segment in segments:
; Z; t/ w; y( X( S; I9 x& {8 ~& @ print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
7 B9 F7 g5 l* |# K. H: p
E2 q; v* v" u- u for word in segment.words:
$ X( W3 P+ Y) F9 ]2 f # I- u T8 d* k0 x g& [5 W# @
----------------------------------------: ~2 Z* C. m! B3 B- z5 P( Z
9 L- J& i, y% C; a$ O$ S, K* e, q3 y
代码说明:, n" ?& ~) c' \$ _" d5 |
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。- |, N! D5 z+ f8 o9 p' C
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
3 U+ z- {5 k1 g9 Z6 F; R2,segment 本身是很粗糙的,做字幕勉强能用。" _( s0 _ c( R j
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
6 [" q" Q Q) n! d1 t4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
- J# ~ h; y- v, z- c2 ]9 Z+ J比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。/ V! T2 V$ C. v, k; f+ E) w( e8 X
5,model.transcribe 中参数说明:
: z. H7 C" y( P你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数" @" K Y6 f. g
其中
7 g s% s2 a, I0 _9 k word_timestamps=True, 7 q- m1 v9 s# q: j( }) D/ ]0 @
保证了你能拿到 word,否则是拿不到的, n- h E0 ~' f
initial_prompt = "Hello, welcome to my lecture.")
, u- j0 q* F; G2 \保证能尽可能准确的断句 punctuation,但是不是决定性的。
0 l% F, n$ q0 v5 f其他参数可参考源文件:
3 `' q& e) o% ^5 u! |, C4 N6 Ahttps://github.com/guillaumekln/ ... isper/transcribe.py
: Q2 |: m# v; [( c: E152 def transcribe(
" x0 J* R7 o9 e4 n从源文件你可以看到是支持中文的句号断句的。# G& }$ [. m2 t& w& {! }4 q' ?. N; Q
) [* M0 ?6 g0 I/ o. h. _
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。' F+ @' a8 N% H7 q" a; b/ o
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。( W+ @2 m1 n |8 ]: [. h& ~
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。& g) \& O- f# H& F! m# [
* @5 O2 g! c o* M/ I" z : U8 {5 Y% {7 E. W
; N8 J1 d+ _+ i2 S0 x! @8 b9 L |
评分
-
查看全部评分
|