|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 4 w4 M$ L m0 q, V
~, t. w7 P: y, o3 V9 v) D( P
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
" D- T; D5 u( x# B效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
+ m8 u8 O' P V- E----------------------------------------
7 z6 m d# s; @3 |" X9 H3 z4 F显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
7 E+ R, _8 @7 d7 e" c8 Y' O在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
& v( I- j' h( v; I----------------------------------------; ~: ~. V4 ? k T z1 f- h
https://github.com/guillaumekln/faster-whisper G/ I- s. J1 S' |) b% T
安装如下:2 H4 m% K8 I! p' U
1, Windows 10
! F, W) P8 ?8 H, o, w2, Python 3.10.11
9 A1 z( o& C- |+ @9 J% J3 K3, CUDA 12.18 ~+ N7 p1 r1 N+ Z6 j
4, 在python 3 中安装
4 t8 `! X1 V4 p& C/ \. q# v, A, K" [pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117% q) ~$ Z j/ r: Z6 Y' g+ N
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
; T& j& b9 ^. r) D& q5,pip install -U openai-whisper
4 m. Q0 w3 v, x; b7 G这是向whisper 致敬,可以不装# S9 E" o4 ]& ]+ d d1 x. h. `" w
6,pip install faster-whisper5 G5 U8 ^3 n2 P8 `3 p
----------------------------------------
$ w2 |: I, @6 {! Zwhisper 我用的命令行,faster-whisper 我用的是python。
9 f. w3 P( R6 t ~7 D8 V4 j9 ^( F下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:% g" G& {+ c' @4 O+ I0 Q7 O) D
# a) J2 ^8 g! L5 P( T----------------------------------------6 Q5 ^' `& ?8 q% T7 v0 B ] C1 S* I
$ H6 K; o. F5 }- q L
from faster_whisper import WhisperModel1 B5 l5 ?$ i+ a6 w6 O! d- U
, _5 f/ A: } Z5 V( Q
model_size = "small"
$ E) _9 z8 d% U9 w
% n2 [( z/ t1 V% rmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
8 j i! g+ U+ v- n$ g, U; e# ]) F2 O- F' @; b/ L' m7 n, o! M
segments, info = model.transcribe(
: v3 F: ~5 `+ J/ G sourceFileName,
. Q8 L8 l* n$ a1 J1 n beam_size=5, " c0 |+ m6 ~) i+ v7 P7 P
language="en", 5 O3 g: Q/ l; \# t
task="transcribe",
/ O7 t7 Q* ?( [3 x/ J word_timestamps=True,
. K# {/ f6 a9 N5 L3 Z- c R initial_prompt = "Hello, welcome to my lecture.")
: H- T; ?0 w. e: [! k4 _( l l3 ^9 r# i
for segment in segments:3 p$ {3 {# _/ P# r, N% K1 v* s
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
+ X! L- k, l+ F; @. L% p$ r" [8 W- @+ F5 }" |3 v$ W
for word in segment.words:8 A' M! S Q; o
0 g) [+ w! x* n0 b) A% ]+ \
----------------------------------------0 I( r. o i& O+ X) `6 X6 @; r( ]% |
* p$ u- |: |/ o代码说明:
5 {3 g7 K1 @. u7 P7 m+ `/ v: u1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。' d3 n* V& ~" P0 g) e) q: v
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
( j. |! W5 e1 l' ?5 q, R2,segment 本身是很粗糙的,做字幕勉强能用。$ l" v, K1 R! S* y
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
) o4 S& Y/ P/ i) `8 ]4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
; Z2 I1 z T4 g* \$ g& B. M+ O/ K比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。- h8 |/ O% X& c6 g% Q
5,model.transcribe 中参数说明:
3 \' H( F1 a/ ~$ S3 @3 z你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数; \5 F9 J; p6 t L2 ^) u$ M% p% d
其中
- F( N+ A/ r- l z" `3 X word_timestamps=True, , ^+ U, n5 v3 i/ r! ^3 E- g
保证了你能拿到 word,否则是拿不到的, ?9 E& F" x' v# h3 O C% m- t
initial_prompt = "Hello, welcome to my lecture.")
9 l! k: j$ W% V1 N. L4 o* T保证能尽可能准确的断句 punctuation,但是不是决定性的。$ e! f( X- o c& ~! D$ [
其他参数可参考源文件:
) W2 X- s4 \7 e! x/ T& Ehttps://github.com/guillaumekln/ ... isper/transcribe.py. N: y! L+ T7 ? c# T4 x t" ~/ _
152 def transcribe(* c8 g R. ^2 B$ n
从源文件你可以看到是支持中文的句号断句的。
) ?7 T# n4 c0 t( A5 t" K/ L1 C9 ?! A7 s& h7 v, I$ W- `. ^
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
0 f& H% [. H$ @" S3 {7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
4 [. x( b$ k$ T# r8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
& d. I C& P* w5 d- p' S
: p& Z6 L; s! z' z; t
$ c7 x) r7 Z& A: u) Q) {. _9 x; @- V1 i
|
评分
-
查看全部评分
|