|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
" f2 F, Q" q: {+ a2 w+ L. n+ b- q! z3 E
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
! m) k2 `" L9 t+ t# v效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
; U# m; K8 o/ }----------------------------------------" f" i% S2 n. o& h
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
4 x' I4 f5 R3 d在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
6 h- P4 y* y1 S D) G7 g----------------------------------------
$ x0 e9 m! K v1 Y' c) f0 hhttps://github.com/guillaumekln/faster-whisper
" G: ~1 J2 P8 t r! a& W安装如下:2 G- f' o( N# E6 r
1, Windows 101 V3 a, X% |& J4 E: e8 E# q
2, Python 3.10.11: t4 J- \, \4 _+ Q. U& x
3, CUDA 12.15 J1 s+ d8 h; Y# X+ S: [9 e
4, 在python 3 中安装+ F2 K( p, p) Z3 w+ Y
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1177 ] v! I3 y2 f# X. f7 i
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
1 B6 j& S+ X! c8 X+ n2 m2 T5,pip install -U openai-whisper
2 ~* a& u/ w O7 ]. [' d0 H这是向whisper 致敬,可以不装
$ U! c0 B. F1 ^, f6,pip install faster-whisper {3 L# l' F0 x; n7 L9 P0 F$ X+ P4 g
----------------------------------------6 w" c+ G7 @9 H* s, P: {
whisper 我用的命令行,faster-whisper 我用的是python。
) u1 m4 P A9 A. n4 `下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:( y6 ^9 G6 B. L2 t) i
+ q; ^" \, {0 U. [
----------------------------------------
, ?; c; L+ r# g9 ^, h6 o0 Z+ S2 u% u4 C) u' c' w4 w% |
from faster_whisper import WhisperModel
2 M& i, c; ]0 J* H# V. m
+ X: H2 p' ~% N' Y- }7 jmodel_size = "small"
5 [# C, r! p6 J' t' m" }+ w3 `# _6 X: w; ?, O
model = WhisperModel(model_size, device="cuda", compute_type="int8") G9 P/ @% X& E* A
~1 V" I8 w; @3 ^" J- W
segments, info = model.transcribe(7 l8 e @1 |& w! m. R
sourceFileName,
% ?) u' ]6 E0 ^5 D beam_size=5, 1 s1 ?+ `( s* s
language="en", ) ]. \% v$ Y+ N0 M% A
task="transcribe",
/ Y9 L5 n; G5 z% ?8 O" | word_timestamps=True,
. V- g4 B& W; ^( c& f initial_prompt = "Hello, welcome to my lecture.")
) Q( o7 |$ d8 M( O# l
" Z W. R, _: Z: J3 n n. [3 rfor segment in segments:) g1 X# c4 C' [$ S/ _/ w
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))) |2 D( X0 P! W# H
7 w* ]/ i' g! C: U/ G0 V for word in segment.words:; h3 M. @1 { S6 U# g+ r
& l" V1 ]. O( s( }0 j6 `6 B----------------------------------------
0 N& q6 m8 C' Y; {: h& d6 r; A3 Y
& ]& a* o/ {9 Q# }代码说明:4 d [5 r8 ~% {, Q3 Y2 ?4 h0 H
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。+ E1 ?5 k! ]7 d# D
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。" @0 D/ d1 a! E8 S# F+ g2 Q
2,segment 本身是很粗糙的,做字幕勉强能用。" Y" D d5 w7 ]0 T9 e) T2 ^
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。! ~+ D7 V) i- |( p+ h7 M
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
; [/ v4 I) k2 Z7 O% Q1 A, u9 n比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
% ^; h: z0 `( }6 L* C# L5,model.transcribe 中参数说明:
: L5 R+ H# @% u! n你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数6 ~) G; A, l. S* k8 k. T
其中7 E: ] F3 y' u. u3 c
word_timestamps=True,
e- l6 }! s& P* C9 G2 E+ W保证了你能拿到 word,否则是拿不到的& z5 ~0 t6 r6 j! p0 S
initial_prompt = "Hello, welcome to my lecture.")
& X2 j6 I6 }9 e, W1 ?# @% @保证能尽可能准确的断句 punctuation,但是不是决定性的。. t; G) R: J- F7 l5 s# o ~2 b
其他参数可参考源文件:, @8 I9 A3 ^8 i: ~
https://github.com/guillaumekln/ ... isper/transcribe.py9 ?/ [. k; Q7 X! t
152 def transcribe(
, }5 @3 x& {! ^6 T从源文件你可以看到是支持中文的句号断句的。
/ }! e& k9 f& D0 \& c3 \! D/ K" X4 l6 Z7 \) i* @
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。- r1 V) }" |# K5 Z, w( M
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。6 y6 y" }& ~7 G% g4 G3 \
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。8 E2 O2 y. d. t u& p
( E* o3 ^- r3 @+ ?9 c
( B: h4 d. C" x3 e& i/ S6 M% r8 `
|
评分
-
查看全部评分
|