爱吱声
标题:
faster-whisper 更快的语音到文字的识别 ASR
[打印本页]
作者:
nanimarcus
时间:
2023-6-4 02:10
标题:
faster-whisper 更快的语音到文字的识别 ASR
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
% x# _& O: W; P
# u) K1 }! P; h; y$ a4 P3 _
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
) L7 @! ]' ~7 N5 ^6 h& J% H
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
% Z/ I9 J3 {7 Q" L
----------------------------------------
; M A2 J5 E* ]+ R0 s1 C
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
/ P8 B2 ~& M9 v* ~( m7 O
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
: \# r8 E# ]2 V; z
----------------------------------------
/ G* ?: H1 T0 w2 F4 y; @2 b
https://github.com/guillaumekln/faster-whisper
9 u7 B$ u, K6 C }" j$ E! e
安装如下:
8 l: ]8 O* k5 p1 y+ p4 S
1, Windows 10
8 T! l/ J7 W/ F) ~' ]
2, Python 3.10.11
9 H( ]6 b! F( F5 x) P; p; v3 U* S
3, CUDA 12.1
8 w+ l+ q2 X- G/ H7 ~, k+ Z3 U; p
4, 在python 3 中安装
7 [# U, ~% ?# }5 f2 Y$ U& ~
pip install setuptools-rust torch torchvision torchaudio --extra-index-url
https://download.pytorch.org/whl/cu117
: D. z3 g5 V7 `) \0 c- u
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
: B7 t+ P6 x3 A6 {
5,pip install -U openai-whisper
% ~- X+ P4 q9 k2 k
这是向whisper 致敬,可以不装
0 a8 v( q% P0 A: T
6,pip install faster-whisper
+ b* |! n3 F! k( w1 b% y
----------------------------------------
8 b! J& f* ^ M( N6 z
whisper 我用的命令行,faster-whisper 我用的是python。
/ U! @5 I4 C, j
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
1 }$ t) T3 h8 b. y6 b
( r7 u# p) M2 r+ z
----------------------------------------
/ {$ o+ p. i# T9 f: z- k
" S/ @. j- t# C2 s; ?
from faster_whisper import WhisperModel
8 M \1 i. H/ Z. m6 Y$ Z, L& r
6 v0 C- b( G' b1 j
model_size = "small"
& k( V* ~% ?+ H5 E& v
' r, i7 H- }% r6 D3 O% Q; S& j
model = WhisperModel(model_size, device="cuda", compute_type="int8")
' p" O2 `1 c/ e' {( s- y
% m F0 @ @ ?- |% k' t; M
segments, info = model.transcribe(
5 ?6 G" Y' g/ Y x
sourceFileName,
v( l y/ z4 j3 s+ o+ N/ f( B
beam_size=5,
1 \, c* G/ d: `0 @, t" X6 n& I N) s
language="en",
4 h% z1 w7 u# x0 U2 d" H
task="transcribe",
% Y% W) ^% ]+ r" H
word_timestamps=True,
1 E0 t$ O$ I1 n
initial_prompt = "Hello, welcome to my lecture.")
. `/ \0 T- v2 Q
+ F- \% I5 H6 s9 c D; f: p
for segment in segments:
( S( S. L, V" |( D4 S9 h
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
& k% @+ _, r! E9 h
4 @) q) i: h2 X6 k
for word in segment.words:
% O2 p$ x2 t! p6 E
- F' W3 ^+ M- k! y
----------------------------------------
( h' e, z* U# |! C; \
; U; M X# Y3 n5 b; R% q
代码说明:
3 Q! K; L% |1 S& k! H
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
8 D4 {. q: t2 L4 R) h' A* Y9 R
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
) d/ u" m# ^/ j/ g5 c
2,segment 本身是很粗糙的,做字幕勉强能用。
: t; x2 N2 K- G
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
2 c' t8 _+ P( c5 M: T5 j) f
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
. t1 y- Q$ f4 u3 D$ A. }
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
, |, o# l( H1 L% F/ X- Z2 z
5,model.transcribe 中参数说明:
+ s# ~/ x% G$ c+ w1 t% p
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
. [- g9 P; a5 N5 w' p% z/ O
其中
1 J( O1 W: q4 n' p/ _2 P
word_timestamps=True,
, F+ ?# @2 P* Y6 b: ?
保证了你能拿到 word,否则是拿不到的
' v" H: f1 L1 |0 N" F6 J' Q
initial_prompt = "Hello, welcome to my lecture.")
4 ?2 T5 i: j- b' q" r. A
保证能尽可能准确的断句 punctuation,但是不是决定性的。
% h; P! ]$ L5 ^; U+ v0 O+ E# [1 G
其他参数可参考源文件:
$ O4 U2 `0 G( U: y9 [( ~* Y0 d* Y
https://github.com/guillaumekln/ ... isper/transcribe.py
. q k$ ?' Q5 c% l3 I& c- I
152 def transcribe(
. X. ^" s; v' @, H3 d
从源文件你可以看到是支持中文的句号断句的。
7 {0 T# R* N' H
/ g6 a; j J5 \& D, z8 r0 t
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
+ N! C6 u' V% Z) u8 W# P9 B5 p
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
. @1 `9 j5 `: s
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
* G8 C* J' h0 J6 T
1 |! _, e7 R- V
; B: a* `; k2 J* l: N0 p
3 j4 H# L5 s1 a. I3 o7 G7 Q
作者:
nanimarcus
时间:
2023-6-4 11:53
多谢各位榜爷打赏。
欢迎光临 爱吱声 (http://129.226.69.186/bbs/)
Powered by Discuz! X3.2