|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
' U. m) v( ^! @6 ~2 V v
. x! p/ Y/ ~. @+ i借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
, x! M- m/ r" ^3 q w+ q" l效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。- ~* p( S( P" X3 j8 G) B3 v, P+ W
----------------------------------------: F- ?% v+ h2 A! a( u
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。5 | }$ ~: A# B9 s: i
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。. j' K% M' y8 W1 b L6 r
----------------------------------------
3 {: Q6 L0 Q. ^7 R; {0 Thttps://github.com/guillaumekln/faster-whisper+ ?! q2 e0 S2 t8 J
安装如下:) H0 A. ?' j0 S& y: _( l
1, Windows 10
7 p" o8 n9 [4 l2, Python 3.10.11& m' p) j1 G: J+ u8 m7 p- m
3, CUDA 12.1 c! i) c8 k$ n, ?" O% x' W3 Z( H4 J
4, 在python 3 中安装
9 a u2 z6 t' epip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117) A- K$ W" y+ U" r2 N
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
3 s7 v: T; V% C5,pip install -U openai-whisper0 y' V0 E3 W4 N& L! Z- f
这是向whisper 致敬,可以不装" s# u7 s' o1 M; R) \, q. f, s; ]
6,pip install faster-whisper
! N0 a& P' V# ~+ Y5 q# t----------------------------------------
; I0 [7 T5 k7 Y1 A* i; }% ?whisper 我用的命令行,faster-whisper 我用的是python。$ G7 o# F, u$ `% @6 @5 c
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
. b! L% y6 H$ D: Y7 }4 _
3 E: D! [& Z# q9 T: `, P+ r----------------------------------------$ y$ P$ H9 Y0 [4 G
- h( K& D" b- x6 z* ^3 n6 u( tfrom faster_whisper import WhisperModel4 j9 f: U. H* u& L
! n2 V# |$ A( }" f. i/ t# tmodel_size = "small"
+ o5 R: c6 A$ s8 Y
8 t" j6 A/ Z" H. w* k* X; ~; Dmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
$ z& T; d$ z* U& Y* ~8 b8 q7 G
+ X& b9 g0 n$ k9 m- y5 ~1 msegments, info = model.transcribe(
S e. q$ E+ M sourceFileName,
* D4 @1 g4 S, K3 h9 } beam_size=5,
" ` L' _; r5 n8 G& W+ v language="en", . ` Q: g: z$ j& i! L1 @
task="transcribe", 0 D3 c2 K8 c; R- c$ X2 K
word_timestamps=True, ' f& s% A* V# w5 {; i- B$ Q- K) \
initial_prompt = "Hello, welcome to my lecture.") m8 z% m. t; F H5 |1 z
& n, \* G5 B7 ?8 Y8 Afor segment in segments:$ V p9 `7 R T5 T' r; `
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))( d: e9 Y2 L1 o1 ]( K
( D( G! ?3 q Q+ `. @$ r% k for word in segment.words:+ W1 I# t" y R
/ n) c3 o! {8 D3 r1 h4 o$ o
----------------------------------------* u. i& k$ ~4 {2 j# A$ L* g0 v' t
; r6 B+ G, r9 z, T7 h: g! \代码说明:. |* Y H& H: O$ }1 w
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
* v5 S& U8 g: P# h但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。5 e+ L; l- h# h: f6 b& r9 z# D
2,segment 本身是很粗糙的,做字幕勉强能用。
+ H* S3 F# u/ p3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。6 X9 [8 O, o5 B1 H) a
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中4 k# s8 ^( k, I+ ^" Y& ~6 d/ E
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。" k1 [. L+ E( K0 M& F& }$ L
5,model.transcribe 中参数说明:
8 R5 L3 V; ^6 f ~你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数# d" r; y$ r9 r1 @- r1 S( e v
其中0 p# B( d& ?; ], }, `3 D O" [
word_timestamps=True,
/ ?4 [5 a; {+ l0 w7 ?保证了你能拿到 word,否则是拿不到的" z6 q8 x2 {5 Z/ ?1 D+ A+ J3 m
initial_prompt = "Hello, welcome to my lecture.")) r+ ?3 J* {3 W) r
保证能尽可能准确的断句 punctuation,但是不是决定性的。/ K" X5 `5 W- w7 _9 U- u8 b/ S
其他参数可参考源文件:
8 j# t E0 G$ w5 G6 ahttps://github.com/guillaumekln/ ... isper/transcribe.py
( M4 N1 ^! [+ H8 k152 def transcribe(
3 }$ _9 v: l! R从源文件你可以看到是支持中文的句号断句的。' j8 b: \9 u3 y" \* w" u( I! S8 L& l
* J; y! x8 z+ C3 e1 y
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。" L0 \- c# ]; s; x2 u/ d' z" ]
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
" h) ~/ c' n% t" D7 E t' r, \" @8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。% F' h8 Y$ C# Z3 O/ e/ Q
' _) l) [* O* ~
0 @- a( v& X' P) D( v2 B: W
' m9 d- X5 p0 t: O3 L' U0 A |
评分
-
查看全部评分
|