|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 . [' p8 O4 }: @4 U
5 h( C6 N* E) ?! c* B* @借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
4 M4 _" x' Y% P7 ^2 E" D效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
6 n6 _ d' P4 h2 D* J4 @1 N0 t----------------------------------------2 i4 P$ b2 g- J6 i3 _ @
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。! K$ I% \, U3 i# u$ ]4 D' t. V: M1 T/ ~
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
6 J8 U+ k l, Z----------------------------------------1 P) v7 u( O' }+ b
https://github.com/guillaumekln/faster-whisper
* w9 y/ d5 O |# i7 _# G0 x" @2 ^安装如下:
! [2 A! v3 Z8 G% f/ z& E) M- b, e0 T9 Y) i1, Windows 10
5 E* I i3 G5 u7 k2, Python 3.10.11 u0 |: l6 u5 D1 a9 z) l9 t6 B
3, CUDA 12.1
l3 w) z' c1 ], a4, 在python 3 中安装# w, d, d- o; ]3 Y
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117& W) P0 R3 Z8 B; u
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
: `8 C* D: @9 s7 v) z5,pip install -U openai-whisper3 E. [) i/ U; G1 I' O8 h8 |: y
这是向whisper 致敬,可以不装
|; d! k2 B1 b+ I6 n. j6,pip install faster-whisper5 i' s( I: p w/ N" \& r5 E
----------------------------------------' y( z% b2 ^7 V* x
whisper 我用的命令行,faster-whisper 我用的是python。$ K, U8 _# r; I: ^
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:3 D( Q. f+ y( E8 y# C
4 B! H) U% ]9 s7 D4 a9 E
----------------------------------------& P+ h( e! K9 x& z% r6 ?% z; u
' D2 L1 {; ?- R' s, U) p0 @5 Ufrom faster_whisper import WhisperModel% v, h) I& }) A9 n2 p ?* g
2 b9 o+ }& E8 D F; h. Q* f
model_size = "small". s. E% w! q( |! X Q3 i
; z* E2 Y/ Z2 Y/ a' ^model = WhisperModel(model_size, device="cuda", compute_type="int8")9 i: B0 E( U+ Z, a0 Q% f) h5 h% U) }
5 O0 X; S( T8 D% Isegments, info = model.transcribe(
; Q" z& E( E, ~9 d sourceFileName, * {1 _3 {0 b9 F2 n4 p3 F
beam_size=5, : Z% e! G9 a- B/ n5 ~, B( ?
language="en", " K! U4 }7 D/ k# W2 X4 i
task="transcribe", 5 M* U7 i! k1 W, p1 V# v( l% X2 ~8 o
word_timestamps=True,
1 T! k5 \ {" n' O! C initial_prompt = "Hello, welcome to my lecture.")% X1 N5 R" g* t. l# e7 z3 w+ L! F' N) R
/ D' Q/ }: O2 i1 U$ Zfor segment in segments:
) ?9 H- @. e- u5 e. k print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))4 o v* |8 F' z! v
; a6 }$ g$ D* `. {3 D for word in segment.words:7 a$ d" G: H0 l9 w! m5 y6 @" r1 m
5 s+ f7 w( l2 m, Y
----------------------------------------7 B7 a' m* M h1 F
3 P7 m% |' G8 \2 I1 w1 q3 F0 L代码说明:
$ Q$ i8 n$ }. B7 [1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。" g- s( }! A" T" q8 \2 S
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
1 G+ C& j9 s+ F/ e, ]2,segment 本身是很粗糙的,做字幕勉强能用。' {8 \5 ^$ ~9 E* l, r: O$ J) q' { z
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
! x+ b5 H0 R6 K- A; G4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
& b! o% t" u5 v; ?! s8 |/ V, x比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
9 o0 X; l( v" C( G, E" t# o2 z5,model.transcribe 中参数说明:0 t9 `9 @4 s( l7 L! h
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数. {4 W) ]; n+ r4 D- ^0 n
其中2 r; u0 y9 H# I6 p M
word_timestamps=True,
: |" ?( n! k7 e4 u保证了你能拿到 word,否则是拿不到的( q( J% d0 r5 a8 n) b
initial_prompt = "Hello, welcome to my lecture.")
9 P& R3 ^: c" y1 e3 n保证能尽可能准确的断句 punctuation,但是不是决定性的。
* Y, O, z, a0 M( k2 g! j其他参数可参考源文件:* d4 N, @! P! M5 C3 }! M
https://github.com/guillaumekln/ ... isper/transcribe.py
5 g9 J6 R L! L8 o152 def transcribe(5 m2 L9 D) K2 t$ E
从源文件你可以看到是支持中文的句号断句的。
0 L% h2 s& W" O) k" E. s2 T) ?) c' d+ ~: C+ n+ o9 X; r
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
( m6 M9 K5 A1 T* B0 i f ]7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。4 w( I1 M% N! Q2 ?) J! c
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。; o" O7 g1 P; g0 x9 n {) j
" X+ b3 L7 C7 K4 O / ?8 _/ v! k9 ?% L* _2 v# ]) Z7 X
3 O K6 n* ?4 a }4 J# n |
评分
-
查看全部评分
|