|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 & x- u M& D1 S( y1 S
, s5 b2 P! |6 I( E5 _/ G
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
4 e/ p( d' H: b2 }( |2 Z% s效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。) L# t- m* [' f
----------------------------------------1 f: R, D% a, a, L
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。 s! l) U: r; e
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
" Q7 ]6 t- j) ?9 J( Z7 e----------------------------------------% v0 \( x+ u8 d
https://github.com/guillaumekln/faster-whisper+ Z5 o& k5 F( k5 f) C% p3 o: b" D" a
安装如下:
. e Y' P& b) z! w; \/ R0 |1, Windows 10. u: J" ~2 K7 Y! Y$ R
2, Python 3.10.11+ x( O- W, ~# E, ]- x3 B* o
3, CUDA 12.1
/ x f; f! {) y3 y8 E$ |, W4, 在python 3 中安装, N! h {) D0 {! Y9 d# O. S6 f) t
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
' p8 Q2 C+ ?# Z; Y2 N+ v% C1 g这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。0 M& g8 K" B; S- b, U; H1 ] W
5,pip install -U openai-whisper
; l2 b4 U" B/ x! A* ]/ _0 N0 x这是向whisper 致敬,可以不装
# ]; r9 B# s) ~' |6,pip install faster-whisper( k1 X/ N9 N% S2 X2 _+ d
----------------------------------------* |* Q8 H$ o" Y' a1 c* Z4 W
whisper 我用的命令行,faster-whisper 我用的是python。
9 h2 ?2 U3 N; } g下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:" u# j. H! F/ L
' B6 t, ~! L9 N' T% h' N
----------------------------------------
$ Q2 E0 D9 K. s, X# r+ J8 J: Y+ w- s P5 @. g- G2 T0 J
from faster_whisper import WhisperModel" {$ \1 j4 B7 B; ?
# R1 J7 D$ S% ~* C7 d
model_size = "small"
8 a$ O8 b" _& l. N7 Y2 F- [
# i. P$ f; @' y4 q4 L N0 zmodel = WhisperModel(model_size, device="cuda", compute_type="int8"); }. h: c% G4 P6 H
6 H* E6 _. H& j% [, p5 l9 Lsegments, info = model.transcribe(
/ ?: ~, [) F2 e% j3 @" Z! U5 ? sourceFileName, 1 `8 ?# t9 U; y
beam_size=5, & F9 l4 [0 y9 N
language="en",
! P+ K! a0 g1 d Q# u task="transcribe",
/ k! [7 V) K( a" h% g0 b word_timestamps=True,
; s% C% h8 E0 Q: O$ T$ J initial_prompt = "Hello, welcome to my lecture.")( l( r2 Q. f6 Q0 N; _1 n
5 i0 R8 n4 q: s/ f
for segment in segments:/ @! }" }) `! `
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
; x# @' u8 T. i
) c. W8 z, f% J L5 x1 M6 m for word in segment.words:- h5 b2 t2 t# X3 Y+ q) d" |
6 @9 R( E3 }7 s$ |" V0 x5 I----------------------------------------
/ b3 c: y* ]+ u
! q' X' ?8 F' P& [1 G6 ~代码说明:
. M' T4 }1 v( ?8 C; K5 ^1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
0 g. L- F8 }9 L+ A J1 M% f但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
- |% D- m$ u6 t% Z/ L2,segment 本身是很粗糙的,做字幕勉强能用。
* u" p- e! f3 j9 A5 J7 |5 Y3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
) ?( \& S% [: J5 s5 ~: ^- h4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
% ?8 ?. A% ]# ?. z比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
' K% d$ y7 [, a$ r5 S5 j5 Q( p5,model.transcribe 中参数说明:
: q5 x, @7 M2 k' k {6 a' J你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数1 r4 |- G2 z, b/ J
其中0 _& v! n5 a# `
word_timestamps=True, . o7 a. D0 {5 x- [# U, O
保证了你能拿到 word,否则是拿不到的/ L: X) N1 N+ g" G9 Y$ s9 J
initial_prompt = "Hello, welcome to my lecture.")8 G. C6 q) _5 t V/ o
保证能尽可能准确的断句 punctuation,但是不是决定性的。
6 @5 q- x8 t, w. X其他参数可参考源文件:
. {; ~' K6 e4 Y: ~- B% Ghttps://github.com/guillaumekln/ ... isper/transcribe.py
9 V4 r1 z! o! D& ~& }2 Y152 def transcribe(5 R# M$ y0 y6 ]
从源文件你可以看到是支持中文的句号断句的。
5 A: I+ B9 B) b7 L3 n; e0 i6 \
$ x0 q% j6 q- o' `6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
/ M. D5 f8 P+ A0 t3 l, U# t# G7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
5 A6 }. v: C, v' y1 }+ A1 E5 D8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。) H% F @: C) r7 M
- F. J# X* B p% D1 W+ J3 S( J. O
' D' T$ x/ @) J( ?; F3 A x ]7 @
! C9 G) d/ ?8 j2 A6 B5 |
|
评分
-
查看全部评分
|