|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
: L+ l# e7 q0 f
8 I, p6 x9 L: I9 r/ B& C; F借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
! T1 b7 a2 Y7 e# b: T效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
; ]8 n7 s: U4 G5 H----------------------------------------
, ]8 ~0 |: u E4 L显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
- G5 Y/ h& N4 a# f' X5 i! a c2 @: j8 G在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
% F& U! o: K" a7 W----------------------------------------
1 p. R2 q2 Y) S. E4 W! S2 d/ t phttps://github.com/guillaumekln/faster-whisper
3 \! y. o) v7 r+ V/ S安装如下:
9 O- _# `' O: @, W9 q8 U1, Windows 10
; l% }" Y, d8 o9 ? r2, Python 3.10.11
5 m' ] H, S8 m! ?# j7 g/ n3, CUDA 12.1/ D1 l* @4 f8 M8 g9 G; t3 o
4, 在python 3 中安装
3 ]! G1 r7 D k9 xpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1170 j) E/ g8 D8 N: O6 v- T% I
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
8 p0 @+ K6 J; o. b& t. P0 t5,pip install -U openai-whisper! [- F- @$ S3 ?, r( }7 ~! D
这是向whisper 致敬,可以不装
# B+ x$ O+ P+ ~% U/ g. r/ k6,pip install faster-whisper9 G: q7 V' t: j/ ~, b
----------------------------------------4 K2 c: \. }8 u/ l; r; N
whisper 我用的命令行,faster-whisper 我用的是python。9 b( Q2 r% K9 k$ ^ o; r
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
! _1 A3 ]6 {% S" r6 m) V/ n% Y }. q% {' K! c
----------------------------------------
6 f' J0 ?& g* a5 n B& ?4 w6 h5 [* |" C+ Q4 ^; w
from faster_whisper import WhisperModel: N% ^' E7 c; O. p
1 ?- I/ j, Y$ v$ R$ P$ p
model_size = "small"' `4 f8 J: Z! Z3 {; V9 F. _
m9 |4 V7 O( Z$ }4 h3 m1 wmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
9 r3 ?- R& g9 a/ Y f3 ^' `( O5 v4 G4 W S
segments, info = model.transcribe(
" }. R s, N* H/ U sourceFileName, / R9 W+ y: z1 s6 r$ a
beam_size=5,
/ Z- g. j" U+ C4 J language="en", ) [& t8 J2 s# j% R+ c
task="transcribe",
" Z/ n4 d* N8 t" g, m/ [ word_timestamps=True,
/ @$ G& j# F' p3 F% o2 o initial_prompt = "Hello, welcome to my lecture.")5 }" ~: }8 W x! u
5 L) p0 _- p# S+ D1 tfor segment in segments:
9 a% n6 ^' U7 v0 M B print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
5 l2 {6 L9 w! W* i) e. p1 r# c! H3 p6 h
for word in segment.words:8 g7 T( T7 J, x) J& ^
, C5 e! |0 _8 K3 Q% D& Y----------------------------------------
( t4 _! @+ s/ W" e3 M* P( z2 z8 Q& j U0 S1 x% |+ H
代码说明:) }; H1 F! ]. v& P9 H9 G
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。 q8 H9 X$ f7 n
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。. B7 q' t( G/ m4 @$ k$ T6 i
2,segment 本身是很粗糙的,做字幕勉强能用。
# J" y* I9 P7 h5 Z" W6 d+ P3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。( a( L" l3 E% x! d) l' q0 E6 }
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
, A8 W- j* n: B0 J比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
( s8 t z. c! V% X5,model.transcribe 中参数说明:
5 n; F O$ R; E! [& R5 t% p你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
, R8 m1 r3 X, L" u/ ]其中
7 K0 F6 j* v/ m3 n# J word_timestamps=True,
7 S/ {$ W6 `# G' t8 o保证了你能拿到 word,否则是拿不到的+ p9 h, A& w( @1 r1 p
initial_prompt = "Hello, welcome to my lecture."): ]0 Y3 N5 G; l5 q9 o! X$ X8 a a
保证能尽可能准确的断句 punctuation,但是不是决定性的。! s: F4 T4 z3 d: a+ ~! X# Z3 _
其他参数可参考源文件:
/ K8 d. }/ N' x) D2 X- Zhttps://github.com/guillaumekln/ ... isper/transcribe.py
0 N# ~3 f) d! E" n- @5 ^+ o152 def transcribe(
% @+ p, M! N% W g' r& A6 e从源文件你可以看到是支持中文的句号断句的。8 ~, K( v5 e4 ~$ ^9 V$ v9 v
3 F' {% R5 k3 W$ u- I$ p* R6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。7 c' M$ S0 N9 m4 |$ t
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。- Y$ A: i% v' h/ N
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
7 _( R: y) T7 y W: u: E
! n) S! O6 W B
0 {) l5 c( k& t3 B% `3 T' _
& M: [( k: i3 @" x |
评分
-
查看全部评分
|