|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
: Y$ G5 A( G+ q& M
) Z$ [2 b( @1 E G$ H! L借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
3 X1 e7 V/ X+ ^% O效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。) r) C1 x7 U3 ]+ L& H6 o
----------------------------------------0 o" y2 Q( Z7 G" j! `3 c3 K$ G8 c
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
8 O8 d- y' E7 j) P) \+ ]在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。" B9 n$ F: k2 X- h& d7 g
----------------------------------------) {' E+ Y/ H2 h3 g, W
https://github.com/guillaumekln/faster-whisper
! C3 i* C! T! B1 K+ A" H% i: \安装如下:" S: D* s% l6 |. p: u% q5 J
1, Windows 10# Y; P+ u0 K& U. I) V
2, Python 3.10.11 A9 I& U( B6 B
3, CUDA 12.1
, j& R+ y1 d) g! u0 y- W q( h4, 在python 3 中安装
( O/ [9 F* v- i1 ]$ X9 Ipip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1174 w$ p9 [3 q7 U$ r; G5 l/ E6 | m
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。" q6 f! C& W7 ` L5 w' i$ o
5,pip install -U openai-whisper8 u* O& ?; b- T8 [2 F& s: X
这是向whisper 致敬,可以不装
& D' A1 Q' d6 ] ]4 F6,pip install faster-whisper
/ |7 c4 o9 [' L0 m# x; `9 G* J----------------------------------------- [" s% b- P n# n5 k" R' S4 N
whisper 我用的命令行,faster-whisper 我用的是python。, ?7 M6 P( _0 d+ r$ b# f
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
& E, Z0 j; i6 o* }8 j& Q1 r, ?% j. N/ i' H5 e
----------------------------------------
$ G% j, {! t* K- l, B& k4 S4 m" l3 R5 N0 t$ j0 x
from faster_whisper import WhisperModel" J* f) d# E5 p( d. r/ B
# g0 _# N* S$ F- H2 d/ ]model_size = "small"
0 M; P' `2 p, t* e- ~: }+ ^$ ^2 K8 Y# a* w& Z1 P
model = WhisperModel(model_size, device="cuda", compute_type="int8")( E3 N6 }) Z# T0 Y
( g; q7 i: r4 m- _; D: V/ N2 z
segments, info = model.transcribe(
7 v! F2 p* u5 z( _: N sourceFileName,
1 J$ n+ g- e# U( g: l$ {- w" F beam_size=5,
) |( H6 R: S" |- _& F3 J* N language="en",
8 q/ L! `' B+ ^) d task="transcribe",
^- C4 [0 q! s5 R. V word_timestamps=True,
8 N6 L+ ?. `4 g5 w1 t initial_prompt = "Hello, welcome to my lecture.")) J* w8 F! ?4 u+ G( |
$ T5 ^/ Q1 ~2 S6 T% Yfor segment in segments:% m1 w' _8 v6 _, Y' t6 @: y
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text)) |, I4 |. J$ j$ V0 z8 B5 A
& N4 M' ?0 K# t
for word in segment.words:
G9 b; N6 c) @. H P' ]' V& E ? 8 d6 u: I: O7 d- T* j5 R
----------------------------------------' o7 |5 i% u: Y6 b6 S9 _
; Q* O8 R7 L" V; V: U4 B
代码说明:
) w/ M0 Z. ?8 D% L0 B- y! {' X1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
7 z4 L# ?8 a0 ^但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。6 L" I6 x0 g2 |, `, E7 h% t
2,segment 本身是很粗糙的,做字幕勉强能用。
. X6 I+ p! n+ b% i2 O6 C9 ~3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。* p1 O4 g6 [2 K: A) m
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中4 h6 ?1 I& e; ^$ |, t: V
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。/ J4 I+ J& ~% k) h
5,model.transcribe 中参数说明:5 {+ l2 H$ t" R* t& o) h6 k
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数0 \8 B+ Q" _ Z( U
其中 B9 @/ h$ D% `
word_timestamps=True,
: M) g) P5 J, E4 P8 O, b( Z5 @保证了你能拿到 word,否则是拿不到的
+ l4 M7 ?) H T; l g( p1 l( i9 ? | initial_prompt = "Hello, welcome to my lecture.")
F1 `" l1 T. o+ A s8 c保证能尽可能准确的断句 punctuation,但是不是决定性的。
' Q" ~& W% E% ~& n其他参数可参考源文件:
1 |+ ]6 s- p$ k' Z) d* khttps://github.com/guillaumekln/ ... isper/transcribe.py
r7 a7 w( k' V- n152 def transcribe(
. z7 v! B1 @. w从源文件你可以看到是支持中文的句号断句的。1 D8 t& |) [+ U7 B
6 j0 J9 E5 D% l( N* D6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。- R7 f2 S" b7 W
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。' ?# O0 H. M- C- M) x
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
* w8 j$ g! z7 z# i$ {6 ?
0 H# [9 n5 K6 ^% l/ L+ Q; x& w
9 `( [4 |, ]; V, E. _8 I
0 q$ q" I3 T7 f |
评分
-
查看全部评分
|