|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 # [: L: R7 M9 K9 f9 T
6 h, H6 s c D7 I" M) o, P, q
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。$ X' l# R3 A( L- m: a
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
1 e* ~* I7 v Z6 p9 ], O4 J----------------------------------------0 I7 {* Z" H3 L9 `, x+ g# T
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
6 |" u ~9 k0 \& l( {在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。4 ?$ ^$ D' k: n* Q( \
----------------------------------------
4 z8 \( v5 F) Uhttps://github.com/guillaumekln/faster-whisper, r! `9 @/ L& _% ~8 Z* {
安装如下:
* {% w7 r! x' U" n* T9 A1, Windows 10
: v8 k! @$ A0 @( @) c) O7 R2 |3 d2, Python 3.10.11
! g( x: _, _. L3 Q2 |- ]+ a3, CUDA 12.1
8 G5 U# I4 X* b4, 在python 3 中安装# y' I, K, w. ]8 |8 E
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
1 }% a; A" k* D+ ?9 U这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
- l: }6 Q4 f' p" S" ]+ R& x5 K5 U5,pip install -U openai-whisper
$ x9 u' L& I6 }6 P这是向whisper 致敬,可以不装
6 J9 j, Z9 H2 l6,pip install faster-whisper
! @$ h7 g* x' N7 ~' V* N7 E----------------------------------------" w' L* ?/ M3 d- C/ z w1 C2 \
whisper 我用的命令行,faster-whisper 我用的是python。8 K! a. d: y- F) ~3 w, S, K
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
' Y0 e+ p6 v/ k. k0 A" o1 Z* p. c: R1 F
----------------------------------------$ x: v/ e# k, ^. d
$ H/ q4 w2 b# R' b6 w' @3 D
from faster_whisper import WhisperModel* g. q# `/ [+ Z2 y+ B' a
1 r2 G4 N% _8 }/ M( \6 V9 qmodel_size = "small"" O9 G8 ~( G9 c+ {7 v/ q! P! `- i
8 q/ T& r5 G/ e1 q; Q
model = WhisperModel(model_size, device="cuda", compute_type="int8")2 B4 b' ^0 X- M k3 u/ P
4 u4 I% a- m E$ H3 Y! o2 c! zsegments, info = model.transcribe(* L+ V* {' {7 `5 e5 f+ D; V
sourceFileName, % @) V, X% Z/ S6 O1 {1 j! e* C
beam_size=5,
0 T/ w( l6 T' u0 x: P language="en", 6 k! Z. b& A C0 e& h6 Q
task="transcribe", . `: ]9 t) M- f/ J9 K2 m
word_timestamps=True,
+ v6 d# I! @$ K$ G1 r initial_prompt = "Hello, welcome to my lecture.")
2 G# U; U( {# `4 W' y) ^$ g6 e! e) j, j( j: l$ Z
for segment in segments:- v3 ^: N% s/ b4 W% z
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))# L5 n. H; d$ [! g
2 {# g9 Q$ g* x6 W2 _2 ^. G ^0 P8 k
for word in segment.words:
- u* q- C, x1 U+ r
/ f2 v) |8 L5 |' G& D5 |----------------------------------------
3 d4 X! x- v( E7 ]/ ~: _% }* U$ r/ w6 U2 ^
代码说明:
8 M. l1 Z) J# O" a! O! I1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。2 U" G( g$ e! V0 w) U: U2 B3 L
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
8 W, C0 A* k% r/ a& Z# Y7 x+ _2,segment 本身是很粗糙的,做字幕勉强能用。! K8 G' Y7 m) W n5 L6 T9 y, C o/ |
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。6 W K: t' J7 Y F) ~ M
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中9 k5 s* I+ |+ _1 C
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
( {4 t$ W5 a+ a- n6 |1 O; H5,model.transcribe 中参数说明: |0 l1 c4 D- Z3 I# y) I
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
" ^; H+ r! Q' L; `# |( s其中* Z+ d+ K$ t! B. K: X* h" X3 t& j- F
word_timestamps=True, 7 b, e' z; a+ W+ O2 \
保证了你能拿到 word,否则是拿不到的
$ X! _, C7 Z5 ~4 j0 f- K. q initial_prompt = "Hello, welcome to my lecture.")
8 b5 @9 \7 L/ q保证能尽可能准确的断句 punctuation,但是不是决定性的。, C% i3 S$ a6 p$ A6 q. M8 B* S' @
其他参数可参考源文件:
0 H1 r) w+ w0 jhttps://github.com/guillaumekln/ ... isper/transcribe.py ?1 T8 N& S* i( |1 M$ y
152 def transcribe(/ G% S* m3 ~, c j) F- E
从源文件你可以看到是支持中文的句号断句的。
7 D3 E& E# @1 a, |6 c1 P/ I
% s4 L9 i& V" M+ L8 {6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
6 s: v. m6 ? g7 ?5 M$ R7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
5 ?4 x. i% B$ f4 P3 O" z8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
) @+ Y- I6 L: h+ }# Z6 N6 J, G) K& \" _
7 }7 o. t, Q F" z0 j, F. F P7 ~1 p3 i
|
评分
-
查看全部评分
|