|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
; t3 \6 N# q+ g7 w G5 m; n# [, n- U: ?1 ]
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
8 ]' u+ A# Q7 ~1 V效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。! Q$ \: x, d( E; a
----------------------------------------
% [; p t% x+ H1 G3 B, P& ?显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。: Z( H9 _) v! D F5 G$ q: T4 g
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。& s3 G# I; P" u8 n
----------------------------------------
& q" ?5 @" D b+ L# Ahttps://github.com/guillaumekln/faster-whisper+ ^2 a1 o, }" F
安装如下:- }8 ], w$ L1 @ |1 w, V
1, Windows 10% S) s: ?- ^. U
2, Python 3.10.117 K, S5 u9 l$ w' [
3, CUDA 12.1
8 X% m8 a' c2 y. l+ F X4, 在python 3 中安装5 o4 b- |$ T: A0 y$ q3 v, o6 w s
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
2 P) p, s2 ?" w- E% A这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。# c/ B; t0 u) R" o5 n8 Y
5,pip install -U openai-whisper
) K8 O' H5 w' ]4 {6 @0 _. y0 U4 ?这是向whisper 致敬,可以不装9 X7 h. Z2 T/ i; a6 q- k4 _& E% X
6,pip install faster-whisper
; `: a- {- L8 s, a3 `----------------------------------------- Y3 a% g0 ]$ m* z. H
whisper 我用的命令行,faster-whisper 我用的是python。5 L1 ^+ q3 ]! }. k3 O+ q3 d3 i
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:* ~; k# v$ s. B# C/ r
: h' y2 P* Q8 q! x1 i----------------------------------------
6 y9 V+ @4 U& h$ x+ D7 D: E; h/ R, ?% C8 o
from faster_whisper import WhisperModel
8 P. S: d- l. T+ x8 e d- u* g$ v+ H% O m, p& c' Q
model_size = "small"
( V( R6 W/ D0 D# v8 h# W$ O+ k5 E2 f( }
model = WhisperModel(model_size, device="cuda", compute_type="int8")) ?8 W! h% D2 r# S+ k6 s. ?
! _ ]' z9 r) D" T- s* H* fsegments, info = model.transcribe(
! d4 i- c! D0 \$ |9 t sourceFileName, : t# V% A" P% L! O: ]) E
beam_size=5,
m. U) t6 Q. F: T language="en", # Z& J+ ]: ] Z! G
task="transcribe", ; a2 k2 _8 F1 S" a" F
word_timestamps=True,
0 e& k# P, h( [0 c& t initial_prompt = "Hello, welcome to my lecture.")5 I& r, Y, S. \9 q# ^7 [
+ M; D! `# ]. q o8 I; B
for segment in segments:
' r: {! Q. j h4 | print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
5 Q5 J' F+ [" Y5 e2 A5 i/ c; j' i _6 ~% r
for word in segment.words:
3 ^6 s# C* }: y/ j, i5 A0 a& c
* x7 F5 U' {% G$ `% e----------------------------------------( J( b( m# q$ K8 d+ J
( E( T }! E/ ~) }0 M1 Y5 S, U# t0 w
代码说明:
2 E+ s& {" ]8 K" x5 V1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。! T* _8 Y' b$ S' ~0 h
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。9 Y6 ^0 P+ O' \# a6 L5 y9 d
2,segment 本身是很粗糙的,做字幕勉强能用。
x1 K9 F) V2 f! B9 c3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。7 R! m8 H' }. p+ b; E1 W {8 O
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中' M5 ?1 u. m' p) r7 z1 D
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
+ Z8 U, t! x( n3 ~( }5,model.transcribe 中参数说明:
8 O& f4 i. r& }% Z你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
" z: p7 o4 w, z* S2 `其中
( x/ [8 V0 j5 c) X2 M/ u6 a word_timestamps=True,
" Q, p3 k. p H5 `1 C( v保证了你能拿到 word,否则是拿不到的
1 i2 g6 c! d/ c! X initial_prompt = "Hello, welcome to my lecture.")7 S2 z8 I( G5 i7 D% ` Y
保证能尽可能准确的断句 punctuation,但是不是决定性的。
: o& V7 |$ M9 t- s其他参数可参考源文件:) G% D6 s) z' v
https://github.com/guillaumekln/ ... isper/transcribe.py
' [! e7 \' H0 `! F" @' ~152 def transcribe(
6 V8 S5 H0 q% J/ X8 W从源文件你可以看到是支持中文的句号断句的。
; t* g8 c& G8 J+ d9 t E
' o, K T, j1 M; r6 R$ _6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。# F# f N% x3 B" B! ~
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
* L' J8 H8 g3 ^- F( g) w8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
" L* F' L! h( L, W o, d4 X! \
: q: a" `8 J' K p5 b; ~ & `) ?- u* W$ V+ h1 `
& Y, C0 v5 S' q( ^ |
评分
-
查看全部评分
|