|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
9 o1 }, Y" L4 ]2 H y/ X `' G/ O& D2 S
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。2 L3 C1 K# R' P" I4 K5 S4 o
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。: f2 Q" r2 u$ g
----------------------------------------$ u' _1 B7 M5 E: z& C* I) j
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
* P: e5 s) ~+ T0 h在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。9 P! o% m+ P k# x: I8 @
----------------------------------------3 y: W/ T+ ?/ j9 x4 P: Y
https://github.com/guillaumekln/faster-whisper
U; l y8 B' k安装如下: {; ~- x, W& @% T1 ?
1, Windows 10
% P1 D0 |% a7 _' {8 B2, Python 3.10.11
& z" j, p# Q* V6 y/ \/ h" R3, CUDA 12.1, j+ `5 B4 M: ~2 M! K7 ^- f) v
4, 在python 3 中安装( J. M3 ]6 }( k8 ?6 q8 {9 s
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117" b' D3 v+ S+ P. ]2 \, D
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。( J+ z8 l/ O( p
5,pip install -U openai-whisper
6 j0 s" I5 E7 d8 R2 k, ]这是向whisper 致敬,可以不装# @. U% H$ P- G( C g
6,pip install faster-whisper
+ o1 i/ [/ }: i9 f9 G" L----------------------------------------
& n: Y$ a: o- f; } t- fwhisper 我用的命令行,faster-whisper 我用的是python。
4 r1 u9 u. I7 n: F" |下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:4 ~$ f8 Q% B9 }) M M
* j* Z; Z; z5 Z$ p8 |; z----------------------------------------: D3 l) y, I3 C' W
+ S: _/ }" Y$ \/ G7 S5 q
from faster_whisper import WhisperModel% B( W5 x% d5 W* _0 u9 A
1 Q9 w# F( Y* i
model_size = "small"
" {# C5 M& b' k4 w$ ~! ~$ k$ [! c3 [6 c
model = WhisperModel(model_size, device="cuda", compute_type="int8")
- @% c: h5 H" f, G
0 Z9 b( I# }0 z* Jsegments, info = model.transcribe(
* a0 m( Z6 B( p( Y sourceFileName, 5 l* M+ I0 b$ L0 \* O$ ~; P3 c
beam_size=5, : }6 v, ~; |% _) l% E9 u& L
language="en",
, _0 l& }- r( X4 U8 v task="transcribe", " o& q9 g# m# B4 S) j9 L( y6 f B
word_timestamps=True, # G" q! }: T; _ r9 f/ {- g- P0 ]+ \& f ~
initial_prompt = "Hello, welcome to my lecture.")1 ~0 w) [% i" e. G1 _
& p% B% f+ T U9 F: W" Tfor segment in segments:
D' a3 V+ ~6 P- @" A& y+ G print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))% {8 P* I- E5 G
/ X5 V1 a3 Z5 d& ~' a for word in segment.words:3 N1 V1 a! c0 _8 E
9 m4 S$ s- W- Q+ n8 k----------------------------------------
' h) N, @2 H9 A: ~7 x" f# H' d
: ~! \3 y( P7 t& u' X+ ?4 A# {. C- g: x代码说明:
u' I3 G2 `+ ^8 Z: @! b1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。7 F: G/ s$ N0 s
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
0 c( T% u; w. Q2,segment 本身是很粗糙的,做字幕勉强能用。
! X7 Y- F% `4 X: Z( v( u4 J3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。8 \" \$ M% W- T. A. E' k
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
# |) `* e" y2 Y2 v2 x& z6 A比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。9 Q# ]# {2 [# q% A
5,model.transcribe 中参数说明:: f. p9 Z2 H: r) f2 r
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
# C* b5 l' m! [; Q; l其中
" N5 p" |2 p7 b word_timestamps=True, 9 D. l' X% ?2 s- c0 Y0 ]
保证了你能拿到 word,否则是拿不到的
7 J! W1 h; O1 d, f# l initial_prompt = "Hello, welcome to my lecture.")% n8 c) @) B. ^5 j) ^. d# L( y
保证能尽可能准确的断句 punctuation,但是不是决定性的。
& ]9 s/ @" r3 E% Q) i其他参数可参考源文件:
0 T9 F8 {7 R6 y/ L, O: Qhttps://github.com/guillaumekln/ ... isper/transcribe.py
' V7 O+ a. _* p/ u y2 V3 F2 {152 def transcribe(
! E" Q7 h4 {6 H* E, F从源文件你可以看到是支持中文的句号断句的。1 N0 H( ~* l: P& }8 R' B- B8 [8 H
3 B# \' R6 x3 v1 z* y, D
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
; T% y4 P6 z h; J7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。4 a) ?# y' b" d+ b' Y
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
8 L; t6 ?" ]! m/ V2 L- ]5 I! h5 a. V t( q3 w. ^
% {/ X" Q2 o2 H1 x
Y1 z# r5 Q$ R2 v, B |
评分
-
查看全部评分
|