|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 ; m- l, Q, Y) V
: T/ E% ~8 h1 |1 T借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。- K3 t: D- p, a* i& I, w; g2 g2 J8 T
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
9 M5 b2 n- m7 u$ B. v& l! B----------------------------------------
1 A- ~8 g# }+ ^0 C- B; q显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。& p" n0 h' n3 p" U7 \ D
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
6 k# V1 C* Y* |* p' Y8 z9 X0 D+ ~/ ~& v----------------------------------------
+ d; ^2 w8 X7 y( q/ ghttps://github.com/guillaumekln/faster-whisper
# r" g2 l& w" }/ j5 ^# D安装如下:
: s9 D6 h6 Z; t1 J1 e1, Windows 109 h1 Z/ C, L5 |) Z6 I% o
2, Python 3.10.11) B- C- Q6 i# A! O0 E, O
3, CUDA 12.1$ j9 s$ x6 d! w+ o
4, 在python 3 中安装
: U$ O8 W/ }( `9 `: T' Lpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1179 Z; C: U! S% b) y5 q8 d, K
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。1 B' Y3 T# v# \
5,pip install -U openai-whisper
5 ~( s! w; y: ?" } G, C1 X这是向whisper 致敬,可以不装
6 G6 y% }* I* j6 J% w' K; e6,pip install faster-whisper
7 A2 `1 y% I/ u3 X" |% s----------------------------------------
1 M7 S' b5 }! c! v% G5 f3 B8 Zwhisper 我用的命令行,faster-whisper 我用的是python。' V: { `( }+ O$ f3 ?1 o& l% P- K
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
( N( d+ y; {6 s8 T! c9 t( J- R! A9 u+ i
----------------------------------------
/ o* U$ O" z- [2 C* j8 |& |, i% _9 P8 @
from faster_whisper import WhisperModel
/ F) |6 b$ t( M2 V+ m9 c' {' |2 ?2 \7 V: v4 F; [9 V# b; J6 A v
model_size = "small"- y. h/ X# W0 ` ^; j6 |" }" T ^5 l
2 @% x1 l( r8 p) ?) H# ^model = WhisperModel(model_size, device="cuda", compute_type="int8")
) x! }7 X1 L7 N* C8 Q# L1 d+ P6 _7 m1 U- c+ o N
segments, info = model.transcribe(
+ P+ y; y& x' r- M- b sourceFileName,
( O/ W; v( t6 j4 ~, Y beam_size=5, - W) Y4 G. |% t8 N/ m& @! _
language="en",
2 R0 G) `6 [% m0 @3 S task="transcribe",
6 Q' y& ^' r+ W- U$ C0 L8 v" c word_timestamps=True, m" t$ A. w6 x0 V+ o3 C* c* o' M
initial_prompt = "Hello, welcome to my lecture.")3 C$ `! P' x8 y7 e+ ~
/ G* t$ f$ u2 h7 }6 s: Q8 k9 Kfor segment in segments:
9 M+ f* U# X) J0 k: }; N* n% s print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))) b1 f s. b' o, E- Y) L( ?: c
/ q, i: V- O8 m0 c" x
for word in segment.words:( i/ d4 o, J" d; h
$ n2 k; m* ?3 E8 l* [& x- ?----------------------------------------
5 F/ c5 M9 x5 {2 s: w6 U/ c2 ^" \4 k! `
代码说明:
/ D# j. `( ?& x9 K! J- u1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。# A3 {- w: Y, P
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
/ x' b: H# M9 C2,segment 本身是很粗糙的,做字幕勉强能用。, ]6 z6 }5 {3 J
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。3 w. v0 j0 z5 |3 A! I- T$ ]! n
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
$ q1 i5 t( G p: A! `) e' I比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
' W5 K$ Y5 `' i# w5,model.transcribe 中参数说明:
/ L' l7 y0 A! j- K( v0 C0 |你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数8 C( Z6 z2 i; ?' h; O6 H, q
其中
& G$ t3 C1 l# a2 K word_timestamps=True,
1 z7 d% T6 [$ q/ H h保证了你能拿到 word,否则是拿不到的. O9 w# E* j+ y$ Y/ L2 u! X
initial_prompt = "Hello, welcome to my lecture.")9 P$ W5 V, {0 B+ J* d+ O
保证能尽可能准确的断句 punctuation,但是不是决定性的。
$ [) f G" V( l/ x1 K& U' t8 j6 s- d0 r其他参数可参考源文件:
% ~6 c, }" o5 L8 f* w& p- m$ ]% `' @https://github.com/guillaumekln/ ... isper/transcribe.py: _) K9 l" V. @! |* J& }' z8 m
152 def transcribe(% ]1 o6 D' _; [6 Q/ u6 w
从源文件你可以看到是支持中文的句号断句的。
3 ~% }' f) S+ m1 ~) W# U* }9 N) x- K4 [5 W4 E- G4 i( A
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。/ w( H8 s7 ^$ j) l2 i
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
: s4 w8 B% S$ p4 e% A/ M3 ~8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
; b) w+ G) F3 e5 s' R& O; d- u& C7 X/ P L6 P* a! f7 A4 l' E
' V. |. ]+ p8 J. L( R: d0 C
% X! ~' f# `9 C* m H0 i) y |
评分
-
查看全部评分
|