|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 8 a- d5 i3 O9 \7 s& A/ C! \" o \
2 H- c* t, f1 _4 W+ {
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。+ O5 i9 U! \7 G
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。1 \3 A' Y( t/ x. Z
----------------------------------------3 O) V: _3 S- W; `7 H* y
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
+ J" N( G7 r i; Q& ~6 p在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
j% J- S: x* M; S9 ^. w; W----------------------------------------
# E4 I) S/ ], N* Thttps://github.com/guillaumekln/faster-whisper/ Q$ @0 P8 Y5 q T) p7 \/ q" l
安装如下:, ?( ~0 l6 _) ]' k
1, Windows 10
7 p8 ~* o7 J9 d2, Python 3.10.11% v, a0 X3 m, n
3, CUDA 12.14 U3 C* Y: {+ a# j3 r
4, 在python 3 中安装. X( E; Z0 Z4 {- Y% ]" O+ M+ _
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
, w; ?, k# |8 K' |9 _这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
( k2 N+ f5 w, ~+ J5,pip install -U openai-whisper
& A+ l0 @4 @0 @' k- M这是向whisper 致敬,可以不装( g" [4 c1 ~5 l
6,pip install faster-whisper
# \ M- C# o0 o----------------------------------------
# d, L& y# d- U0 c0 \whisper 我用的命令行,faster-whisper 我用的是python。
4 Z5 f* P9 z8 P) u下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
6 \( Z% {! T& S/ r0 G2 g. b9 D0 D
----------------------------------------
/ \5 y+ t4 M" g+ _+ y# q3 ^4 S" t0 k' j5 i9 M$ U
from faster_whisper import WhisperModel
* {, C9 N, G+ {9 E: n
* U6 t* H5 }5 c4 h& f( @7 Umodel_size = "small"
7 i! W4 f5 d6 [1 R, k
( s/ J1 M. T9 ~) J( mmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
( T9 h& [; [& O) g3 @% j) d" x- H( j9 ~. m1 S! U
segments, info = model.transcribe(
! t2 A) F( r( C, E, q sourceFileName,
( [" w& V" {) ~5 X6 F- @) X beam_size=5,
0 {1 ^) v$ }, H5 [3 L4 }. s* e language="en", 8 U8 ?, x' A% z$ J0 n0 k
task="transcribe", 9 K+ g% a8 w, x& ^. j9 C( p
word_timestamps=True,
; T f$ j/ H1 r8 l7 \ initial_prompt = "Hello, welcome to my lecture.")
r9 Y3 E& @5 A9 \# F6 e
2 x& B9 z4 f/ bfor segment in segments:: W6 { E) H6 s
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
; N! F+ M# R8 b& }! i; t7 ^0 ^! F* \" v3 j6 z) \
for word in segment.words:& r# m; H+ W9 v" ?% e
/ t# L4 P% |* V; v
----------------------------------------
+ Z+ {# |$ x. v0 j1 P, M: _
1 f1 Y3 I* Y/ N& |$ Q1 L代码说明:! ?, c3 S3 r) p0 A
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。7 I$ A! [2 R2 q. B7 H
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
" d- Z+ i$ e7 U/ M+ |2,segment 本身是很粗糙的,做字幕勉强能用。
2 [; ~" U8 q4 ]) {; T2 n( {9 z3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。- J8 X5 p) P4 S
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
9 A, t2 k8 {6 Z3 y9 o5 y比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
' F+ I4 ]4 f- C5,model.transcribe 中参数说明:( x7 b1 c5 O) r* Q, p
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
$ d$ w4 v. P( D4 G: m1 y4 _# H0 u其中
: C7 W8 _' q/ V2 j2 o! [ word_timestamps=True,
6 w0 Z' X/ I* V* S0 L3 E保证了你能拿到 word,否则是拿不到的3 B# X$ F+ H: v
initial_prompt = "Hello, welcome to my lecture.")" y: a6 F3 W: n& D8 j6 ]
保证能尽可能准确的断句 punctuation,但是不是决定性的。( n' S. G9 f& j, n2 k
其他参数可参考源文件:; }3 ?1 a9 j3 R
https://github.com/guillaumekln/ ... isper/transcribe.py
0 D f3 u% Q1 l+ {152 def transcribe(
5 o3 w* j* O9 w* N) o+ A从源文件你可以看到是支持中文的句号断句的。6 }4 L, E9 W7 L8 {" Q' \
5 b* p& M' G2 w- R" \7 b
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
6 U+ U% x0 I# }, p7 B' u9 j. x7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。( S1 T# r7 }+ y% k7 C) y
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。% J0 A, x- O$ J9 v
. [. j9 Y4 s/ b7 K- G
% X0 G" g% \; G% U. S9 V3 s
# M# f' l6 z, ?" I |
评分
-
查看全部评分
|