|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 8 t; n L( X8 W5 Q* a! P$ @
" {0 @2 H" v' N借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
' z B) a- y; E4 r+ U& A) d/ o效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
( R- Q; s5 X4 j----------------------------------------9 b$ Z* l8 O9 F. L: m
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。# m9 [+ D( ]( y! {( m
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
- p$ W# R+ y) Q O" r8 _----------------------------------------
" A( U: e/ Y5 `9 i' l4 H& vhttps://github.com/guillaumekln/faster-whisper' Z( z' Q, R* ?6 K; e
安装如下:) L4 a2 i7 h* s% K5 v
1, Windows 10
0 c- M9 z: Q0 W# z# p" w+ Z2, Python 3.10.116 q0 x5 }0 D! y
3, CUDA 12.1+ G: z2 p9 z5 k. ^" R- O; |' m
4, 在python 3 中安装 ?, O3 w: F% \( ~
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117) P( q$ [% U! E- I
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
9 ^$ f1 h' e& K, e! T5,pip install -U openai-whisper6 O9 w# c8 p- A8 O1 C, t
这是向whisper 致敬,可以不装1 i: v0 m% s3 V! x' S- m8 w) p6 g
6,pip install faster-whisper' `/ a* I3 k' z# g! n- |
----------------------------------------
# ]) I; l% ]3 [7 `7 p+ Twhisper 我用的命令行,faster-whisper 我用的是python。6 V# _ d9 u% C7 E. F
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:0 [ v" u: O% U& b
9 d, B1 P. \ D$ \* H7 Z0 Z
----------------------------------------$ x( d% z. s2 e/ N; ~- t
- D4 x4 Q U5 c8 Xfrom faster_whisper import WhisperModel
1 a4 Y! J& |2 H0 I. D, B5 T8 X7 x7 s2 E. G. o* E
model_size = "small"8 m" v+ v" b; M: u0 V% F8 V
' R% g8 d! s! g+ imodel = WhisperModel(model_size, device="cuda", compute_type="int8")
$ q, A6 @/ J0 i5 e4 w
7 N' I3 \' c! [9 n z Usegments, info = model.transcribe(
6 c6 H' H' Y% m* x sourceFileName, ]1 G/ P* n) c& s& o3 v
beam_size=5,
L0 D- g+ i& r; e language="en",
; k3 l$ m- V, F7 x+ W+ c task="transcribe", % E( Y T e# T" P1 p, `% ^
word_timestamps=True,
; o/ J7 J/ c$ U+ }8 E" l initial_prompt = "Hello, welcome to my lecture.")
& h5 z9 S8 o$ g3 o. j% ]
+ W: u3 E- G( [: gfor segment in segments:
3 q, y& T. e8 q print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))7 Y# u1 _' Y: s% s; T( H4 u* M
2 N- F% Y1 B& S# I
for word in segment.words:, _9 }" p8 O+ Y: ~
, Y& A4 F, {3 v( z----------------------------------------
6 G- o9 T! V9 X3 |. y$ y5 ~; B; R( w ?
代码说明:8 N+ I+ V# l" I' R; l7 _) f5 j4 X
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。; v5 L* [ Z% L
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。- ^6 A b9 t# j1 l4 m! g: M
2,segment 本身是很粗糙的,做字幕勉强能用。+ d4 c0 R( Y, G; n- i
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。* u4 W4 x5 N" P9 V( v
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中, m7 j5 `' B/ Y# q) K3 m
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
* _/ R: M, x: H( g0 u5,model.transcribe 中参数说明:
& v6 ?1 Z& z# ^2 x% K$ D5 F) ^8 N你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数/ B. V! k4 E& B; d0 l) x
其中3 `% C0 G5 M. r8 ?6 Q$ h2 N) F0 l
word_timestamps=True,
?6 R; l# t( x6 H9 l保证了你能拿到 word,否则是拿不到的
) {8 ~5 V) Q3 l" B3 B% O. L3 A initial_prompt = "Hello, welcome to my lecture.")
3 o% p& V3 R& F4 t1 z& p, v保证能尽可能准确的断句 punctuation,但是不是决定性的。8 l7 e+ O8 |4 n
其他参数可参考源文件:+ o$ y' V- c6 M/ u3 f7 U7 U
https://github.com/guillaumekln/ ... isper/transcribe.py9 {# L# {, R* P0 W' `
152 def transcribe(0 E9 j2 L1 b, i& [4 H( v; X# C
从源文件你可以看到是支持中文的句号断句的。
' a& y; V% c; Q; G8 q. w7 x! j9 n" G: O4 k
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
+ L- i% H" d( E0 H. U0 g$ D# h) K7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。. [ F: m+ Z0 Z( j' D# Y' F
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。* a9 U: U& K% l
& A% p; \; S$ D) ^+ R" i0 u ( Q B/ Z( M7 Z
2 W) D3 y1 I+ ]: W' O |
评分
-
查看全部评分
|