|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 $ x6 C( B( p4 ], g8 x2 r. u1 @" h/ [
# p4 c! n9 @0 H4 Q0 k借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
* j- M$ S4 R$ t- A4 l2 a/ [效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。5 C' M+ @# b# f% m e9 S( P
----------------------------------------5 r S5 B- Z" ^- m- L
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。- V/ S3 i4 [3 P# h9 Y% ?- G/ t& D
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。, v$ [2 w V% W
----------------------------------------
* l3 i+ `) M; x9 h8 f, [7 hhttps://github.com/guillaumekln/faster-whisper
" L" D. N* K8 x( Q' ^安装如下:
' {3 p' W" d: d( n* j1, Windows 10
- F$ A* G$ M! ~' z: q2, Python 3.10.11
5 e$ `8 Y- m9 ^6 v3, CUDA 12.1$ _, k) o. h& m' A* Z
4, 在python 3 中安装
) D3 t/ r+ D" _2 G7 l+ ~; zpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
' q! T' V' l, c& Y0 ~" B0 v! ^这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。 o- q6 t" T7 e( ?- x% W
5,pip install -U openai-whisper6 u9 X& j$ f/ C, y) f! i% H
这是向whisper 致敬,可以不装* E9 G- S7 X6 {5 [
6,pip install faster-whisper
4 `% c B+ k& H( S----------------------------------------1 a' A( y6 p* V7 c8 A, q* j
whisper 我用的命令行,faster-whisper 我用的是python。
7 v0 G- O, W @9 O% X1 p下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
$ @2 e4 V# x/ ?7 Q9 Y7 i8 F) \/ Y: ^
----------------------------------------
7 _2 E+ h7 I9 p+ v% @3 o, |% ~) s5 Q1 T
from faster_whisper import WhisperModel
) b1 _) T7 g" l$ K
, T, P. O8 \* |( @3 T) s4 jmodel_size = "small"* l$ u3 T0 l6 ?! `& [
# t9 w) Q3 ~. Y2 bmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
# \# ^' i: k0 f1 w: d8 ~
2 \. Q) P6 a+ H# I: ~+ k5 k( xsegments, info = model.transcribe(
6 H. _ i+ U1 V B* [. K sourceFileName, # K2 G: j, R9 [% t
beam_size=5,
1 W/ f' F4 `+ C language="en",
( m) m4 V% o/ D5 \& m& T task="transcribe", " E0 ?# q d3 _6 X, ~& e
word_timestamps=True, $ }$ J: M5 `# B3 u( K6 J
initial_prompt = "Hello, welcome to my lecture.")! u j, h( v( U( e
$ e5 c4 Y5 i1 n2 m6 r# Tfor segment in segments:
( u9 S2 v' R( g: u6 s2 x5 [ print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
$ v7 A1 w' Z6 s6 B+ s# L& J) R
- H; R# c2 x9 ?7 c for word in segment.words:3 K4 o% D/ _* ~
/ n. F/ n$ r% O0 w----------------------------------------# {* l* ^8 W. o2 H/ \
- ~- q: X2 r- m7 Y8 S4 C% ~% }' r; D' [
代码说明:
. X5 U3 L7 H3 G; k& N* [1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
. y% T b t3 V' S0 M但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
4 _9 j6 U- O' T8 x2,segment 本身是很粗糙的,做字幕勉强能用。
+ L$ n. g- P. F! {+ J% o3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。 F4 I+ Y5 V% Z& o, I6 u7 E W
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
. E4 C# j8 \4 \ R+ J7 B3 `& B比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
. \$ a2 O8 G( r- D, q a- Y9 l; B5,model.transcribe 中参数说明:
x% a$ X8 I U4 G你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数* a" i6 Y2 n( f
其中
: k* p# r3 M* l; s, H word_timestamps=True, ) {6 ^1 G# {1 g+ q. t, j/ s" a
保证了你能拿到 word,否则是拿不到的2 i) }4 y# z3 v
initial_prompt = "Hello, welcome to my lecture.")0 O! h; t: ]4 C2 \( c- {
保证能尽可能准确的断句 punctuation,但是不是决定性的。
/ K0 D( b" d+ D2 ]# {5 i6 V其他参数可参考源文件:
* Y' l, J- \: Ehttps://github.com/guillaumekln/ ... isper/transcribe.py
# ^0 u0 A$ @. g8 @6 H152 def transcribe(
) w8 p2 v* A& l从源文件你可以看到是支持中文的句号断句的。9 ?- ^$ G; Y1 Y1 s, a
* m \6 m8 j3 O9 j! d0 i# C
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
9 B6 d* j+ O; J( U; K; N* Z7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
2 h( O; q& ~! H! b8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
% t) u$ Z6 T- {- Y% m& @7 a3 B/ S1 t+ J+ h$ s/ v8 h! {+ P3 i' s
* b3 A' d' {# ]) I1 V
6 Z5 O9 P$ `. q* Z: K |
评分
-
查看全部评分
|