|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
% ^8 J+ j4 [6 G4 u3 _
; }2 b! _) R& S( t% p借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。' u, O, R# Y$ q G2 W( Q
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
$ S8 L; _4 p2 c; x; ]% l* G8 C----------------------------------------" o$ e; [. P1 R4 I- W
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
$ m) `( p m8 R! [1 O5 x' r6 S在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
( q# X9 \' P3 d0 y& V----------------------------------------$ ^0 t% f6 S' q/ n
https://github.com/guillaumekln/faster-whisper3 K9 n4 p( R; `4 g) K
安装如下:
3 C e" u) A" G' F7 F& ]1, Windows 10( J- t! e' D5 }- v0 Z7 D4 X
2, Python 3.10.11( \; T, _. K, D5 ~! B2 B7 ]/ n% b
3, CUDA 12.1
D3 U8 j' K/ p7 K1 p9 w1 _4, 在python 3 中安装
9 r, {+ Z, ?* U9 `* M$ epip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
6 `! d% S- k# y2 c/ @' S5 h6 o- b这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。9 ?# ]1 X; C3 G7 w+ n. w
5,pip install -U openai-whisper: T& x3 a6 |: @2 N/ C: w N
这是向whisper 致敬,可以不装
6 ^3 l5 r6 A, t% ^7 R: k7 i6,pip install faster-whisper
$ P) A) Q& \' F3 A3 |, [8 z----------------------------------------
3 T7 v: @. Y2 q6 [- C9 wwhisper 我用的命令行,faster-whisper 我用的是python。
- J; J |5 O0 Q2 k8 ]$ V, d; z下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:: ~ v& h# P7 t5 W$ ?: r
0 Q) V* G: ]5 h8 S! a6 D+ a4 f----------------------------------------
! ?6 j, K3 a, W8 N; B
N( P2 x7 j# f# ~# wfrom faster_whisper import WhisperModel
8 `2 a# f3 _1 X7 G B
9 R& [6 f1 J9 Y( M4 {5 Rmodel_size = "small"
# w# h# }' j' S2 }1 f9 E& W2 v3 n) |: y4 x/ u3 N
model = WhisperModel(model_size, device="cuda", compute_type="int8")+ n. z% X% k( W! I1 E# s! I
; W0 O! q3 ~5 x
segments, info = model.transcribe(
$ _) p D$ m$ f$ ^ sourceFileName, % B4 `: u6 v2 L6 X: |/ ~$ d
beam_size=5, & t: r5 }7 J8 s% t! T. M
language="en", * q7 Y5 Z! k* m) k' L' w0 N) J
task="transcribe",
2 I5 j. x; T% d5 f4 y word_timestamps=True,
5 ?& f0 G, k3 p G initial_prompt = "Hello, welcome to my lecture.")
, ^2 D' G; ?9 S$ w y, u& }8 T/ j4 ~
for segment in segments:
$ P/ n' O2 r3 `1 I( x print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
0 T- L9 D; K* m- X/ [9 W R
/ b4 y6 X6 n. @& x for word in segment.words:. Q5 I& K0 b0 B; Q& M
" J+ i! S" N5 @) N2 h
----------------------------------------7 j3 Q7 N, ^0 c* J2 ^9 D4 t& Y3 c2 F
, @* w) Y5 K8 m- i0 x- j; z代码说明:
6 e8 h, `2 G4 g1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
! r- l$ _7 h' U2 i但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
# L" I; u4 u7 y& _" Y2 F- _8 j2,segment 本身是很粗糙的,做字幕勉强能用。
& u% P" D4 M' S1 x1 J* k( _3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。$ Y7 C! _: k+ c: i* Z, o
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中. \& V, O3 o( k' C" {
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
' }- \- N" M1 C" F; t7 w1 H1 J% H5,model.transcribe 中参数说明:$ x6 D8 x4 e! s7 w {" x) T
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
) {! U" m+ X3 w' g3 T( H2 i其中
0 ?2 }) N. W) Q5 _' B word_timestamps=True,
( h3 t* p5 b% U+ P) h" L保证了你能拿到 word,否则是拿不到的
% X7 G9 M9 U: |0 r3 B8 ] initial_prompt = "Hello, welcome to my lecture.")
& |+ @' O" G9 ], _保证能尽可能准确的断句 punctuation,但是不是决定性的。
& f5 E1 @% S) N- h+ j" k+ c) E* J) K其他参数可参考源文件:
$ h% N9 @1 O) p# ^) E' ?& B3 khttps://github.com/guillaumekln/ ... isper/transcribe.py
+ _" _" V4 f7 ^( i) f# E152 def transcribe(
+ ^& e3 ~* A9 h. G! f2 L; h从源文件你可以看到是支持中文的句号断句的。
/ }- E- F7 K( O+ W7 H: b# X5 i! ?4 [
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。( h2 ?7 L5 d" X( ^8 Z. {& S9 C0 s" D
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。+ m6 u* f% a, R0 p0 i0 D4 {' D' s& p' A
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
( y6 Y8 G2 T! ]* W; n# Y" R2 l
+ d6 v/ n; t- p) X6 j! D, G
5 ~( N% _ E% V0 u- K. `: a3 e% y% X. w0 k' | {* L
|
评分
-
查看全部评分
|