爱吱声

标题: faster-whisper 更快的语音到文字的识别 ASR [打印本页]

作者: nanimarcus    时间: 2023-6-4 02:10
标题: faster-whisper 更快的语音到文字的识别 ASR
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 , q1 t  b2 X( q9 I# e
# Q# m/ |  y% g! |
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
; J% D: O0 r3 Y* Q, P效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。9 x  K, k5 m; K7 c3 V, _
----------------------------------------
/ R# |$ B  \8 j* b显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。: ?/ A* s) r$ Q
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
) f& l5 U- j) @% V3 C2 B5 k----------------------------------------$ t; p3 S$ f) K& O. u  P1 f' _
https://github.com/guillaumekln/faster-whisper
! u; I5 H" A6 @6 H5 {安装如下:
8 m" q5 F3 Y# J  i. M0 Z$ A1, Windows 10
" z! C( H- X( l2, Python 3.10.11
" g7 J/ S. v4 X( V) B7 N3, CUDA 12.1
4 W* x4 O3 }: @4, 在python 3 中安装
; C# ~+ z: b' }1 h# `4 K1 o( fpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
: c1 |$ _, _$ I: V4 K' l这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。- D9 l  n% I! D& ~. Y. r( R) N7 P
5,pip install -U openai-whisper- l& v- K1 P2 X) D  w/ \  s
这是向whisper 致敬,可以不装
; ]) W9 r7 ~/ J0 l" S6,pip install faster-whisper9 b2 ]2 |5 p$ t" j3 `* r
----------------------------------------
1 A& i7 p" x+ Q2 n5 \whisper 我用的命令行,faster-whisper 我用的是python。
; ^; w$ d  @! ^) E- T: u下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:0 ?% B4 L  J  i; j# _  Y

, |: v5 b5 I; T- f5 n& w----------------------------------------
* ~/ r4 R$ z! ^2 w2 f5 [0 q* w
- s% r6 ]" n1 L7 J& H! [from faster_whisper import WhisperModel
6 K- T. s- Q/ X: {! P0 ?( f. B' T, X! t  o
model_size = "small"0 P- ^0 d) q5 v6 V% N
9 h: n/ F# u( E1 b& x% G
model = WhisperModel(model_size, device="cuda", compute_type="int8")6 W* h+ `; p  z4 L1 G* c, {
3 |( j2 `/ x7 n" m0 I! v
segments, info = model.transcribe(3 T2 Q  ?1 O. W. {
    sourceFileName, ( _' V; R) P& K& [! n7 @: S. \6 W
    beam_size=5,
0 w* ^, o* T: T2 y    language="en", , O4 u$ P& V8 r' E
    task="transcribe",
  }6 G% L- q, J. ]* O: m/ x' g    word_timestamps=True, 2 |6 ]6 S- @1 `  ]+ U
    initial_prompt = "Hello, welcome to my lecture.")
% Q0 h+ G8 v4 ^( m3 o  a0 g4 @( [# g2 R
9 }$ }4 o" F  g* V: u! E. }for segment in segments:
6 @" X/ T4 z/ E" J; n    print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))) Q: s0 J- a5 e3 E1 n6 T
  c6 M# o6 v: g
        for word in segment.words:4 m" D+ ^% ]. l4 r
               
& z' d+ n& `) Y. ^; d----------------------------------------
) [# j- K5 B- v' o* L
7 W4 v/ I* b8 l( C  r# I代码说明:
2 ^3 M. c! `( W! c" z9 @1 ~1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。5 m: {3 k: y' I( f5 G* U
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
( u8 J& y: @/ W/ W1 F: s0 ]9 x5 R2,segment 本身是很粗糙的,做字幕勉强能用。: e& J4 _2 H+ I& _" o( ]
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。$ n) G2 ?5 m  h, ?8 G" v# \$ h
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中5 T6 H, m2 V! S* r* s- z% o
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。! Z& V0 f' D; u. O
5,model.transcribe 中参数说明:
9 `$ U# A9 F' |0 ]  A4 f9 R你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数9 k7 F; x" ~" f" _3 {
其中( m. O3 U# r- l% F
    word_timestamps=True,
; P, R+ ^; \  T' P保证了你能拿到 word,否则是拿不到的
" T2 f4 s  o# ^. M. W0 ]8 {- U5 [    initial_prompt = "Hello, welcome to my lecture.")' ?+ K4 r! B1 A2 W
保证能尽可能准确的断句 punctuation,但是不是决定性的。
, B  {4 v" R+ X其他参数可参考源文件:' M' O% j& X* e. m
https://github.com/guillaumekln/ ... isper/transcribe.py
& [0 T9 w' J6 y' ^: V152 def transcribe(- b% J4 F; E# L7 p8 i
从源文件你可以看到是支持中文的句号断句的。( s: K+ ~) m. v! A/ T/ C
0 ~; Q5 c/ o% w- r- Q5 Z
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。; b4 N0 y8 F4 H$ G4 T8 r
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。( \" e+ n  O+ J- k" J& ~8 }
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
; U2 F1 A+ |& d4 K6 t1 S8 r! K0 d! {
& i- N9 B% D" H7 {  y! }

8 b' C* d, f8 S3 R
作者: nanimarcus    时间: 2023-6-4 11:53
多谢各位榜爷打赏。




欢迎光临 爱吱声 (http://129.226.69.186/bbs/) Powered by Discuz! X3.2