|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 9 B0 M: t* H q
( }' O/ t/ A; l W( C; }
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
1 U P) L, e W效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。& [( g+ m% x( O Z
----------------------------------------
( y1 C% w0 E+ _0 |显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。# @6 k) |' Z' p; ^5 t
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。3 }( `4 u. {( N/ ?) G! t2 Q
----------------------------------------
# s; g8 k- I$ K8 y2 dhttps://github.com/guillaumekln/faster-whisper9 i0 _4 s: H W9 G
安装如下:
' P/ e! R$ b3 p# q- w7 I1, Windows 10" T7 t- c V6 l6 i/ c4 D) R7 f4 Y
2, Python 3.10.116 a5 v' ?8 N6 |- l- S* C
3, CUDA 12.1. {; G3 D$ b; `3 L9 d
4, 在python 3 中安装
, Y7 f: s% x* }/ w: c+ P Q3 Jpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
7 |& }3 @& c8 D, B+ M$ L9 J这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。" t' Y$ ?& D9 ?
5,pip install -U openai-whisper
! X' v f0 T8 X7 p这是向whisper 致敬,可以不装- `/ Q E; J- o+ @8 T
6,pip install faster-whisper5 }2 ^3 Z+ h* O3 ^' a& h+ e
----------------------------------------4 q9 h: X/ b" E! j9 |! R4 n! {% f
whisper 我用的命令行,faster-whisper 我用的是python。
# b$ C1 ]4 H0 L+ y下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:* Z% C% T s7 `# @$ b+ h/ |
+ S; ^1 u4 ~2 |$ Z----------------------------------------7 {5 R8 M5 P* F, m6 u$ f
3 y" ]+ \3 S; w+ w2 _1 o
from faster_whisper import WhisperModel- P& f, p( p" p5 x3 N
. v+ I/ z! I* A! b! a# O/ r4 Gmodel_size = "small"
- [: L2 m. @8 b6 L6 K
5 w. V3 Y% E% k8 [& O- Amodel = WhisperModel(model_size, device="cuda", compute_type="int8")
! O! v; D$ [" w7 n
' S" J9 m' k* P" w+ ]segments, info = model.transcribe(
* T _" F, Z9 v7 J sourceFileName,
7 K6 {/ I+ h5 X% K" Z beam_size=5, / p0 B5 a [+ w& H2 x5 |; X$ _$ s
language="en",
# C" [ I( f3 F e% E task="transcribe", ' J, w" ~- G7 e' R% u( ~* B
word_timestamps=True, ) r6 G# o9 I8 y% o
initial_prompt = "Hello, welcome to my lecture."); z5 `! |9 ^9 Y5 T( k
# x+ _2 F- ]/ g- w8 {6 afor segment in segments:
1 ~. C7 R/ @) X+ Z, [! K print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text)): Z0 A3 O7 {5 j/ T+ V
2 [/ N- q% A) D- X for word in segment.words:1 Q6 l; S$ Z" D& S
; U0 S- V. a: C% Q----------------------------------------2 \+ }) d* o2 Q. B
" B; E7 e9 ?+ b% M
代码说明:
, G! m& W0 Q- z, ~; I1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
2 v' i$ ?3 [' F但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。3 Q" d1 [$ P, M+ c/ t1 S1 y. K1 \
2,segment 本身是很粗糙的,做字幕勉强能用。: n" X' `: ]/ V2 G" |( E! a! }
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。. K2 M4 G% J5 _( A' ~% Y7 B2 g
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中; m6 K( U; \1 q! g$ Z
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。$ s, H' a! b8 [8 G( [
5,model.transcribe 中参数说明:7 W6 t# E) A9 w& F
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
, z, ?- y: E6 P# W+ O其中) u: V- G) c7 r8 C i
word_timestamps=True, ! J7 I' _2 G! n3 _7 M# w
保证了你能拿到 word,否则是拿不到的. `/ u8 i+ t3 m# Z9 H
initial_prompt = "Hello, welcome to my lecture.")1 ]$ X+ m% j6 @: K
保证能尽可能准确的断句 punctuation,但是不是决定性的。8 w5 Q7 [7 F C( w1 x( R! J
其他参数可参考源文件:! H6 P" h+ M: W- y' H J! F2 j
https://github.com/guillaumekln/ ... isper/transcribe.py5 y: v: z% |4 ^" \5 l' C1 M! W* @
152 def transcribe(
# d: O( Y' \* S' j1 r5 U1 @" B从源文件你可以看到是支持中文的句号断句的。
: O4 w$ M# G# a& c9 R) F: t
" L/ ?0 p9 q7 N' Q* k6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。) |8 A: T! x, q$ U5 R& i, s4 C! \
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
; t2 d' `' V) D/ N1 j6 W8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
2 ~/ F: G2 F7 T* i
8 `$ }/ C* ^/ e$ `: J) ]& t7 P + V* n( a/ t9 O! ]8 M L
% [+ h+ ~# J. l( F) }
|
评分
-
查看全部评分
|