|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
5 q [0 I' {5 F& j- \& k
$ v; J) ~. H' I. Z. d+ {' L( @借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
5 Z, z+ u( T( q# ?& R2 w6 z效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。% V4 S# D7 R$ C( l( l
----------------------------------------3 F( H9 a0 f/ h. i* N) i( Q" A
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
9 Z' u. l6 C& i- G& C& z1 h2 y在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
5 W4 n: ^. ^" V8 u3 Y" @7 t+ P: R# e9 q----------------------------------------! L& U4 k7 A/ l1 W, ?
https://github.com/guillaumekln/faster-whisper3 t7 E4 R3 G3 V1 @5 b7 r0 n
安装如下:
3 Y r& Z3 m* {: \1, Windows 10
+ I' y' I+ G$ h8 v2, Python 3.10.116 i, S1 x$ g( u& B8 q% Y
3, CUDA 12.1
; @# _$ B) G+ a: |/ O; Y4, 在python 3 中安装# d+ W8 L% F1 p/ r! Z& [' {
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117. L& o: u$ b. i' @* Y
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
H7 T- b2 ? h; @& w: ]5,pip install -U openai-whisper
5 I1 H5 j! X9 F9 S& L这是向whisper 致敬,可以不装8 x% ~! b# r8 G) R; D
6,pip install faster-whisper- R6 m; V! B0 S. o8 G
----------------------------------------$ A) Y. K% C( `
whisper 我用的命令行,faster-whisper 我用的是python。" i3 ` F( ~% d- N) |
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
' c- U8 B- [/ L' t# _" R6 W7 B; z1 `& i! J# _( \
----------------------------------------
* o$ I E. Q$ f8 q$ W7 S
, d s P5 [8 D/ Jfrom faster_whisper import WhisperModel
8 f5 _& n `% @& R0 u3 B
4 F& E) X, x1 ^ b9 n2 v% s" qmodel_size = "small"$ e# t, B1 x" n. x' l) T
! ]% c9 y' A3 H
model = WhisperModel(model_size, device="cuda", compute_type="int8")7 h7 {- {* L" D. ?7 v2 ?
; ^7 H/ C6 g% l! k' v
segments, info = model.transcribe(* g, w. U9 s1 y/ O8 D( o" b4 k
sourceFileName,
$ q @. L4 n" P; g- m6 { beam_size=5, 1 F' ^& L L. \! n5 z/ @9 {
language="en", # Z# Z3 `: B: q9 ^0 e9 w
task="transcribe",
* p& h! x: a. d" m9 \- N word_timestamps=True, 6 G8 z9 o D& Z$ E2 D! K
initial_prompt = "Hello, welcome to my lecture.")1 X+ A% \" m& f7 _+ n
0 B5 c6 D+ a/ u$ J# n& y. ifor segment in segments:& x( ]+ N/ ^! B
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
" i3 k$ J* P- K6 b% y
* J) j, M( B" M$ |/ \. b for word in segment.words:: A5 F' ~5 Y. @: `; H
) Q: T4 T7 ?5 Y7 b* H3 O& e# f/ V----------------------------------------$ f9 ^& r% Z- \1 E/ f2 A
. W9 k6 | V7 F, Y0 B代码说明:
' Y* m2 C) ~: I1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
# w+ c9 X S" l, q3 G9 S1 N2 k) i但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
/ E, A3 |7 a2 u5 ~/ W2,segment 本身是很粗糙的,做字幕勉强能用。
$ c7 Y! R" f }4 g8 M# J7 \' v3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。- z3 ]5 A( |3 ~/ i. y
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中2 J: z: h( h. G+ |
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。& @+ W, W. {# g& q9 D
5,model.transcribe 中参数说明:8 v3 T( J9 `. m' U& K2 z6 @
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数& n0 V. L/ N! P
其中
" ~7 o& t! m$ j" Y3 z word_timestamps=True,
7 r ~' d7 ]; A5 R5 f8 g& I保证了你能拿到 word,否则是拿不到的4 N/ f6 N6 ]. h& q9 \& o4 q
initial_prompt = "Hello, welcome to my lecture.")- {1 }4 j- L+ G4 i0 H. d) Z
保证能尽可能准确的断句 punctuation,但是不是决定性的。
) N0 b2 s- m6 W7 b. t其他参数可参考源文件:# L, U# t; i1 o& U7 p
https://github.com/guillaumekln/ ... isper/transcribe.py
, K. A' x; x- _152 def transcribe(, H7 p0 r3 p- |4 g. d9 v0 i+ i
从源文件你可以看到是支持中文的句号断句的。2 o8 O6 h0 [5 C4 @- g; i# _7 v. I
+ r- d, W3 e7 S* {2 J: \
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
1 W" k! @4 `# O- D7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
4 B( ~! { \- S8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。9 z' D; [/ E/ m% A) S. A3 n
/ h9 k$ P/ y1 M3 v" ~8 b2 W; {
# A6 U' C6 h5 \( o4 U# z, y% L
" H8 }8 A6 e( S4 q) @0 g
|
评分
-
查看全部评分
|