|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
$ ~# Y1 t) W+ k7 `+ b5 x- i3 a
" J7 }% D: W. K2 u! C" r( D借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。 D( k- ]% s" x
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
, m+ H m1 E }2 x P----------------------------------------6 [& `; M! b" S) t
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
0 S' v. [9 F6 X1 b! V, ?在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。1 ]3 U7 v3 Z, @( \
----------------------------------------
8 u7 _2 R. t/ @& uhttps://github.com/guillaumekln/faster-whisper
$ d; n: ~4 K+ s" g" U! [; k安装如下:6 P6 q6 L) n, x0 [+ C
1, Windows 10( g# F4 {) f, W8 l
2, Python 3.10.11" s0 J: ]# F v
3, CUDA 12.1
4 x+ ]; x( j$ E4, 在python 3 中安装+ r2 o7 k& t. b, n$ O
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
& a, y7 B# h$ s; v1 q2 |& _! Y. r, G0 D这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
- u: i! X7 F2 B, E# u& U5,pip install -U openai-whisper
0 r& V4 D# y; @6 B这是向whisper 致敬,可以不装$ A$ M" m! L$ l J
6,pip install faster-whisper& x; z2 `' E6 {: w$ V5 w( W# w+ A
----------------------------------------7 P3 `' s* E+ O, C; H; U% z
whisper 我用的命令行,faster-whisper 我用的是python。$ E: A- F: Y9 I" ]& _
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:6 n: W# [+ C6 S0 l& ]& H3 Q, @) i
) o9 F% ~- v$ ^2 |6 i7 x----------------------------------------0 q6 L/ b2 d; h+ S" V
7 G$ W- S% ?. U) H/ `
from faster_whisper import WhisperModel) C* ^; c3 i, H7 J
W$ e5 g1 t4 v# R% w
model_size = "small"
8 Y& h* O) N# T- F# h- f9 M" q$ O8 M* Z* m
model = WhisperModel(model_size, device="cuda", compute_type="int8")4 d. ^3 n7 G- {9 [
" W2 q3 R7 M+ a" ]9 Z5 g; y- Y
segments, info = model.transcribe(
, v4 V3 S' n% M- y% B sourceFileName, , j. _3 D& [5 q2 T" V) d' z
beam_size=5,
9 P5 T& E1 [& L; D* K4 b language="en", / b9 P) x! U4 x" ?, x% [ C
task="transcribe",
. Z. f: K D3 s1 F$ h, o word_timestamps=True,
4 ?7 _2 Q' y( n initial_prompt = "Hello, welcome to my lecture.") u3 t+ J G. }2 D) R
: |1 [5 F8 E/ Z; q2 b( Bfor segment in segments:
8 F0 A; y$ I8 e* }9 m* {6 X. n print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
( O( ^& R" d+ @7 @
# F) Z9 U, Y( i8 v% u9 u for word in segment.words:
8 P$ s5 L4 [+ |4 K$ M& Y
$ r: T7 I# R$ }# I----------------------------------------0 ]' A! h8 L8 V
9 T6 ]% t4 j |4 {7 t1 R/ Y" m; S+ F代码说明:3 D7 U# [$ N- A8 N# L) R1 p
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
4 I$ a8 s8 h1 ?1 G. q* a4 z但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。, V/ e3 d& M1 C. N0 j3 E% K
2,segment 本身是很粗糙的,做字幕勉强能用。
. S3 M2 ?* m, l0 S4 W* L' A7 ]( Q" u3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。0 R( S" i( l+ W6 b* i1 B- U6 ?
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
6 r# s* E, ~& \+ V8 S7 m比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
- }+ G5 L% P4 ?6 H5,model.transcribe 中参数说明:
2 [7 v* |3 X8 a! M! W你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数& {; @8 j# y1 b, o3 ?
其中# N! k. t' b( N7 }* [ f! b
word_timestamps=True,
; x _8 W1 H& ?3 |8 h# Z# I6 u保证了你能拿到 word,否则是拿不到的
2 }6 K/ K3 Y6 f) z initial_prompt = "Hello, welcome to my lecture.")
2 J' \ X- g) w! A# W" f! W7 q保证能尽可能准确的断句 punctuation,但是不是决定性的。
' t7 D5 X7 U3 @! q其他参数可参考源文件:
0 h( Z4 M1 r# T) yhttps://github.com/guillaumekln/ ... isper/transcribe.py
- _0 W" b6 C4 J- V152 def transcribe() G6 Z+ l! s; y$ E- k
从源文件你可以看到是支持中文的句号断句的。
8 \: L- w7 [5 ~5 w5 v; V& m: f; N
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。- E! m$ u: c0 ~) h
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
3 H$ z, l2 ~- H$ g8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
1 P& ]# R- S5 w& t
5 [3 O2 V4 c/ w9 i; }' S# ?4 g) O + W2 e6 m) R2 X1 `. ]
* K1 M5 N; k. T1 H$ t$ Y, D4 }
|
评分
-
查看全部评分
|