| 
 | 
 
 本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑  
/ }1 _( n0 T: O# ` 
- ?8 L8 W  @1 v: x# V借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。 
: K+ Y7 E( G0 ?" |' H; v效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。 
6 J8 `' p3 E5 I0 e* L---------------------------------------- 
. y' T/ e3 F% w! @, z8 j显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。 
  v7 S8 r% p: t! `/ T5 |7 N在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。 
& a+ }" t" v, l/ }---------------------------------------- 
5 c" N; M4 W/ Khttps://github.com/guillaumekln/faster-whisper* J( p6 w( Z9 \1 ^" P" a( H5 ? 
安装如下: 
6 W8 m* B7 U' Y9 x; g  R. ]1 G0 O1, Windows 10 
* {$ E; L4 e4 q* H) X( Z; T6 B4 c( j1 z2, Python 3.10.11  T" p, [' L% b9 ^ 
3, CUDA 12.17 e( U) x0 k- w5 A 
4, 在python 3 中安装 
4 r$ j" F# D! I* m9 gpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1175 {" ?2 K, R: W, } 
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。 
6 k( M% l6 S8 ^8 L5,pip install -U openai-whisper/ b  U' S. L+ R0 E+ @ 
这是向whisper 致敬,可以不装1 u, Q) A" d; j! i9 S7 z 
6,pip install faster-whisper 
  \+ d6 @3 d; L& i, A: A5 H9 p----------------------------------------4 F3 C, |+ v, C* @ 
whisper 我用的命令行,faster-whisper 我用的是python。 
- O- E" f/ w) B4 ?6 @% |" x) x下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:$ R. U* ?9 [( ?0 {1 @0 k# \2 ` 
 
% w- h8 u4 P- k+ @! \8 w----------------------------------------0 t' r, T9 c/ \, P; w- V* \ 
$ L: i5 ?/ z& ]# e 
from faster_whisper import WhisperModel0 N6 ^2 p  U4 A) T- v* B/ M 
 
" d' k$ K, a2 }0 l, nmodel_size = "small" 
+ j9 f  A6 ^, m% Z* m0 v 
0 Z: T, q1 B8 E$ v! n0 wmodel = WhisperModel(model_size, device="cuda", compute_type="int8") 
- W. k# \  F. z 
/ q/ n* g, N) psegments, info = model.transcribe( 
* E0 h! `2 P5 m! x$ w    sourceFileName,  
2 z1 s) w, i% u9 n' E; `    beam_size=5,  
' \! B( o! |- W$ `3 l% e    language="en", ) x  t$ U/ l  o3 n0 L) ~$ y 
    task="transcribe",  
. o6 I# J$ w, b6 t- R/ s    word_timestamps=True,  
9 w, y( o& N' ^/ U7 l    initial_prompt = "Hello, welcome to my lecture."): D3 h* }$ a5 Y8 w( e+ t4 }6 B; \ 
 
" d" ?  a5 ?0 c- B. N: t; Y/ Cfor segment in segments:8 ?( m! g) `5 |+ m+ _' c 
    print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))* ]+ _# b5 b  [, y8 k! L2 V% U 
) H$ K+ `/ ]& Q" x9 s- @+ D 
        for word in segment.words: 
1 [0 }/ g9 X' y9 l& w                 
( }6 u1 p- r' _: L---------------------------------------- 
) [8 O/ F+ ?, f 
* d+ F# @) E% k, q, g+ h* e% f代码说明:4 _# k- W2 t: r/ p# T/ z6 \ 
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。 
8 A6 o0 |6 [" b; X! P但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。 
( k& N/ `% y! V1 T2,segment 本身是很粗糙的,做字幕勉强能用。+ a5 {4 Y$ s7 K3 W) P7 h 
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。 
8 U$ u" y3 H1 ^6 a4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中" p+ t; Z; a2 D( R& l0 _3 m 
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。5 `  u# w, J2 Q 
5,model.transcribe 中参数说明:; G7 h" v+ i4 a& ~- v) w 
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数 
5 C3 m" F+ k1 x" h, C8 h" [其中 
& r& T( ?) k9 S: P( A: H6 C4 N    word_timestamps=True,  
6 A) R+ i( G% E6 g! E保证了你能拿到 word,否则是拿不到的 
; z* A+ Q2 K( F+ r0 p    initial_prompt = "Hello, welcome to my lecture.")8 B: r' E# W8 N. i% d 
保证能尽可能准确的断句 punctuation,但是不是决定性的。0 U6 ?3 S0 \: M5 O; ]  f 
其他参数可参考源文件:/ F& A5 x* E' e4 K, C 
https://github.com/guillaumekln/ ... isper/transcribe.py% X' T( W9 y. L9 I 
152 def transcribe( 
  s% F0 ?/ y2 J3 r# G0 k从源文件你可以看到是支持中文的句号断句的。 
+ `7 h: m  v  E5 t* w; P7 P+ j: H0 f7 S 
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。; f, e6 Z& y2 K5 F% L& J% s8 B 
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。 
+ U3 a- R5 y# [: K* e$ y8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。 
. A3 g8 R0 ?% m6 S, f' }4 R& V: q7 j, _2 j$ ]% O8 i8 f' c; w* [ 
 1 _9 O/ y$ Q; u  G% _- `& e9 M, Q 
  q! }# c4 ]6 J" l% U+ d 
 |   
 
评分
- 
查看全部评分
 
 
 
 
 
 |