|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 & P0 E# b7 }1 G5 F4 L
" w \1 O/ K% y) X
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。. v$ w+ t0 D% ?8 ^" E0 p
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
5 l; Q$ B) G( d& v----------------------------------------8 k1 o! ^6 _% Q2 y
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
) |: F* X6 _ q$ m, {& R$ n在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
9 [/ G' U$ [5 M; d----------------------------------------
( Q! D* a6 n( [% K0 Ghttps://github.com/guillaumekln/faster-whisper
, e' C5 z4 Y! D9 }2 s5 |安装如下:# U" z$ m4 V& g, o) s! I
1, Windows 10
6 Z" Y$ t% k' V8 r2, Python 3.10.11$ ^2 S8 p" o" ^5 J
3, CUDA 12.1/ N9 A5 u) w5 z/ }1 A! {
4, 在python 3 中安装! D7 z2 x$ l0 U
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117) R% a, ?7 Z# G. r
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
1 Z {% @) t) P0 s5,pip install -U openai-whisper
8 \, c0 J! c5 t+ U这是向whisper 致敬,可以不装. Z% P# R* K7 w8 U
6,pip install faster-whisper
+ { F. w# f- x* A5 ^2 W5 @0 E----------------------------------------
1 \9 e6 s0 X+ r. E; A" p% I" Dwhisper 我用的命令行,faster-whisper 我用的是python。; `# ~5 Z- R c( `5 ~9 I$ s
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:" q! ^* u3 |# U
* C5 a# r* |' ~: o1 I----------------------------------------' e5 y7 ^7 v, b
" i6 m3 l. M0 A3 G+ s/ M( hfrom faster_whisper import WhisperModel
1 J4 |5 b1 ^8 R) a" `/ j0 @5 Z8 S% o
- d7 i4 @8 G x: n2 f, K7 smodel_size = "small"4 \8 L E' W* ~2 ~% T* [ r) H
9 i5 u- B+ r% umodel = WhisperModel(model_size, device="cuda", compute_type="int8")
* j. {+ @: y) R# M
/ t9 m/ b3 S2 T* I# I! |; g( vsegments, info = model.transcribe(. }) b& s" M; x' D: j( {! Q$ \5 \
sourceFileName,
8 u6 [* T- w- Z# l+ I8 x beam_size=5,
9 w9 K5 N7 z) g4 i* A language="en",
; j/ L. S7 U$ Y/ ^7 V v: K task="transcribe",
' n5 D% f) R9 l8 K8 @: J) k word_timestamps=True, 4 F9 z! H# I. `4 S0 C7 F4 y! y
initial_prompt = "Hello, welcome to my lecture."): v& u5 r( A/ ^' P# X3 _: l
. T4 j& I8 _! R7 W R+ N8 D1 j/ ~for segment in segments:6 ?7 C/ W) S0 O/ G% A5 ]
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
. P, `! {7 n- c& F8 e# k* O2 s9 O4 B
for word in segment.words:
' ^- d4 X" l o - p' [1 k/ @8 B
----------------------------------------' n: D0 k2 d/ J, a0 x9 d* w& G+ l
8 c1 \; Z- V- ~. x5 D) B* |代码说明:* Z" H2 |9 W, C! u7 K1 N# ]
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。8 E0 B/ S# q6 Z0 z6 k# X
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
% {( n( [; q7 f+ {) O2,segment 本身是很粗糙的,做字幕勉强能用。1 u% j& `, d( c. a6 y" S5 M
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
% G/ Q0 M" [! k( D5 D3 T3 W9 S i4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中; L( K) }0 L$ M2 b5 q' S9 E
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。, ~+ X2 m$ e4 M O
5,model.transcribe 中参数说明:8 t: b" R& Q4 k) d/ J7 h) t, \- }
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数) F' n9 G0 \3 _' V- H$ O8 t/ t
其中
$ k% Q# G) v! o word_timestamps=True,
1 Y) `, d2 f; V保证了你能拿到 word,否则是拿不到的+ Q( `* `6 _: h' l9 X" y9 Z4 o$ g
initial_prompt = "Hello, welcome to my lecture.")
, K5 p4 W! V/ n$ G. O# A保证能尽可能准确的断句 punctuation,但是不是决定性的。$ p# \. N( S0 b5 v" T
其他参数可参考源文件:
" _' C0 Y$ ^( t) G; }# O% ?https://github.com/guillaumekln/ ... isper/transcribe.py
; \* V" w& N' X) E. ]4 j152 def transcribe(
7 @8 H+ m" y3 b4 t从源文件你可以看到是支持中文的句号断句的。
3 Z" }; l& W* ?; T/ I4 i3 d8 L
# E* {. C4 W1 O# ` H6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
- [! i) ^0 J k( J+ }" ?* \" B( K7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。, s7 I; Z( a f2 c& U+ k+ W5 N
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。: L! N% W/ `# s; g: ~
& n0 }( Z$ Q5 j# n
3 M t5 }, f4 K+ c6 a ~# V: u+ D
|
评分
-
查看全部评分
|