|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 6 x1 { E3 K2 @
s0 W1 ^* {: S8 P) v
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。& T" D6 ?+ ~1 R% Q) ~0 s. w
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。3 R+ g( l( q2 ]3 h* \. z( l& S& e
----------------------------------------
" z' W4 U6 x3 t1 f显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
, C2 U C2 f& G, f4 x r4 l' i x在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。0 \! C, g# b4 I! z
----------------------------------------/ C" y0 Q+ U4 R
https://github.com/guillaumekln/faster-whisper
8 e' ]7 r4 n# \; E安装如下:& w7 n: h' T& u& r' h+ n, u
1, Windows 10
7 K9 k& O/ M) o2, Python 3.10.11# D0 ]+ k( n! q* @- P
3, CUDA 12.19 b# Y" x$ u: _& Q# i4 D( o( b8 [
4, 在python 3 中安装
2 C( S/ o4 b* `( V) rpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117" s: ?( t& N, `3 b2 ~ ~$ E
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。! ]8 v9 ~2 s9 A( y) e0 }4 O2 _
5,pip install -U openai-whisper% h' b$ o ^4 r6 m
这是向whisper 致敬,可以不装
$ g7 i8 d/ D( {0 I1 I6,pip install faster-whisper
3 Y3 o" N, o3 m3 {----------------------------------------
9 S5 m) c2 I P/ H, Kwhisper 我用的命令行,faster-whisper 我用的是python。
9 s! }6 e- d7 L; U" F/ |下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:7 t7 e d1 Y0 K( ]3 f
x) C# r8 C$ D- _. U& V% Y----------------------------------------- H, ?' b2 }* M9 d: S# b
4 `" E! z$ y4 e5 g
from faster_whisper import WhisperModel
, I8 D4 I5 E( E8 d
$ r- I$ w# @5 I& amodel_size = "small"5 E; x s5 ~' b% x' P) N
3 W# l3 q# _4 L9 gmodel = WhisperModel(model_size, device="cuda", compute_type="int8")/ V q. L4 a. }/ U1 K( ^: U
6 c: F+ f' ]" p) Msegments, info = model.transcribe(
) R% ^3 v! b2 i1 H sourceFileName, / e i+ V- |3 D- S. `
beam_size=5,
0 s5 w. x5 o" w L2 } language="en", 8 { p5 n0 u* W# k% e; V
task="transcribe",
+ J9 y& Z, y5 k0 _3 g word_timestamps=True, + E3 ?/ I) D F9 ^1 {
initial_prompt = "Hello, welcome to my lecture.")( O. f7 o+ w- }4 y) p
3 v: ^0 m8 o6 Y. @/ A
for segment in segments:
/ ^5 w! i! @ x! r$ o, z5 a/ ^* y print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))# P/ F1 r2 r8 g7 S9 a
+ m( E3 n: x" F4 D, e: t; l, \/ o
for word in segment.words:
9 n+ Z8 @$ ?# F
5 d! v. b V, d+ _2 l/ P6 [----------------------------------------' @# v, g3 ?7 }! X) K7 W! |, g
( Z3 F9 B; B2 a% y$ ^$ ]3 u代码说明:
( ?7 E+ [8 W6 O+ N8 Y; t1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。' e" ?, E2 u, p: p
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
: M( N) S* S1 e; r1 h2,segment 本身是很粗糙的,做字幕勉强能用。
3 L- P* \6 q& e) V3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。" e, s5 @% f! Z& b7 W
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中4 [' h! _$ M# T" V7 U8 f
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
* V L1 Z# |5 e: O4 Z" s+ e5,model.transcribe 中参数说明:+ `$ F. v, e5 s+ A* b/ G; [
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数* t# i6 V7 ^: b t8 e' Q9 B7 f
其中8 Y+ I! I/ g9 `: R z5 k9 i- b
word_timestamps=True,
' o2 n; m: j$ [( R9 r+ q! ^保证了你能拿到 word,否则是拿不到的
9 ~/ e9 ^" o$ |- x& \3 S/ G* q: K5 M initial_prompt = "Hello, welcome to my lecture.")5 ?$ l2 t3 Q) E: O9 M) |
保证能尽可能准确的断句 punctuation,但是不是决定性的。2 Q4 }9 h! L6 V: { S d: G$ j
其他参数可参考源文件:
- Q& @, J/ f0 z. Q: ?/ V" I1 U9 }+ {! _https://github.com/guillaumekln/ ... isper/transcribe.py
) s {# Q4 g* c! A" q152 def transcribe(
8 {, e- ?8 S5 K. Y& N) `从源文件你可以看到是支持中文的句号断句的。
/ t0 Y# z7 ?+ h( n
& G- l) K7 r t ?9 P. n1 l6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。& l* Q" l3 h, ^, T6 B" j, J
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
3 T" }, O& r p- a0 t% Q8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。! O+ V% I* U0 _9 b
+ b: |5 K; P. M) A7 _ 5 ^- \0 g7 W9 W# S5 }# v. O
4 C. w. F- f1 X+ f3 {, a; a
|
评分
-
查看全部评分
|