|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
" o9 T( ]9 l9 B1 m( }; U9 u) {) v0 t7 U' t2 O) Y: ^2 F0 a6 q+ O
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
1 K4 j% c2 i+ [; P7 ?* Y7 M效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
7 u. g+ @- c4 i( ~% z2 P. G----------------------------------------
: m* b* d$ W8 Y ^ b9 d5 i显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
" A5 j) I' H+ z4 \* D7 U& r在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
5 w ] k% B0 x4 s% T----------------------------------------5 c$ h) {0 m( L' B, \) W Y
https://github.com/guillaumekln/faster-whisper @) Y/ |# M4 x" b- j' ?& C7 o6 }5 {7 z& w
安装如下:
9 P; j: ?6 D; ? P& h9 r- d1, Windows 10
& e3 G% F& \4 H9 `+ b; ^2, Python 3.10.11/ d% U+ M2 Q, Y
3, CUDA 12.1
# W# \8 B0 {1 i; z x4, 在python 3 中安装
/ n/ c3 @- m" G9 w6 t- t0 Gpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117" O" ?2 ]( {$ e4 @$ f @) N% b9 u
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
; a1 d! G$ K+ M5 @5,pip install -U openai-whisper
; z5 H2 s7 p/ X这是向whisper 致敬,可以不装% S) z2 L% G {" D
6,pip install faster-whisper
/ ^, D+ {! E4 l( `! ?8 f2 M----------------------------------------. m3 `5 V4 j. m- @
whisper 我用的命令行,faster-whisper 我用的是python。
5 U t9 c: V) }# b3 u0 S7 \& c下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:& Q/ k) B# ]- C1 v& W' L0 R& \! ]1 h
4 B) s" P8 W# V, Y% S; y----------------------------------------
& ~ F! h; I4 F& {
/ O" n8 m9 _# }* f7 Gfrom faster_whisper import WhisperModel* Q7 N" k) c2 d
8 W; @% m1 o1 w ^; u
model_size = "small"
% ~$ i* p* l0 ]3 }6 n! U
8 e) U& E/ a1 I. d( q5 Cmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
9 G* e6 P+ ]3 g1 o [/ u+ z3 D, D4 g" U% u! D4 I
segments, info = model.transcribe(
+ a* M! f7 M' G/ C4 s sourceFileName, + a/ q) N* Y& p N+ o* C5 e
beam_size=5,
+ Q* H8 M: e5 r& G" `* @( W; A& H, |- R language="en", 5 @2 f; o9 w# e7 S" s$ j
task="transcribe", 1 n9 s4 v. G9 o* K+ O# X% P! i" M
word_timestamps=True, - f$ y+ U. ~! g: e( b! B
initial_prompt = "Hello, welcome to my lecture.")- J8 O5 e2 k: s
* V r+ S0 `, o
for segment in segments:7 l$ ?8 j% w, ~6 G) h+ Q0 h
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))3 ?3 B$ Q+ j# J' @
4 D y( }1 n$ y( x( d for word in segment.words:
$ v' C0 t8 n9 m7 c
8 ], w2 }; Y0 J6 _; \" V: r2 b----------------------------------------6 }# c E8 F' |* _2 N
3 [' n- M4 ~( O: u9 }& G" t代码说明:
: M" H$ e A, ~0 M* i/ S2 L+ R1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
# T0 x" M' T: i$ D1 j7 g但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
P8 X' O- C* z4 w1 ^& r% W5 p2,segment 本身是很粗糙的,做字幕勉强能用。
0 |2 h. O4 C2 c3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
% }! x) w2 i; E4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中) X* w+ w, y& W9 L* H- O
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
$ {0 Q3 w# v3 l) G1 s3 r5,model.transcribe 中参数说明:: r4 C3 Z# R4 J+ E
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数6 k. w, G0 Q. {" m" Z" U
其中/ c8 o& M8 S( H- |2 M0 O) i/ |4 x
word_timestamps=True,
9 X; B& V" w/ c8 w0 z5 |保证了你能拿到 word,否则是拿不到的5 p" L9 B5 s/ {0 ?% l
initial_prompt = "Hello, welcome to my lecture.")
* Y7 {' @" A( g" u% x保证能尽可能准确的断句 punctuation,但是不是决定性的。
3 h" F4 c2 i( D) g# d其他参数可参考源文件:
/ |/ \0 C, l. H+ b; u7 Shttps://github.com/guillaumekln/ ... isper/transcribe.py" U: p3 y$ U5 X7 `# H% F
152 def transcribe(& u, p( G. h! P- t( s( q7 a9 \' K
从源文件你可以看到是支持中文的句号断句的。
& y. [+ A' o6 M0 S+ C4 [
6 Z! S* W$ s2 K" ^6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。+ Z; k6 l( m$ O
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
& o" M, {. S) n1 I8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
' J( _! O. J' H6 j9 S; @+ Z/ @4 z5 k8 o
! G3 m# E+ G; N5 I, {2 v
4 K+ E; w' u5 t8 o7 F5 y |
评分
-
查看全部评分
|