|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
9 h r' O5 L# M8 @. \7 M n
! x, l8 _) n& G- C3 @% o借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。& @! B j) x3 e4 @
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
: z1 n% M5 q* p5 E----------------------------------------
2 e# S: m9 z: m& E# k! Q0 ^! @ R显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
! a3 q" V( l7 b4 ~$ m( p6 C$ d9 O在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
( @+ R7 c; ^4 @----------------------------------------
6 Y6 b6 K, F) }) f. |https://github.com/guillaumekln/faster-whisper, H* I0 i# t8 r$ p. {
安装如下:8 d9 c1 ^0 G% d; H# p/ \. \
1, Windows 10
/ m3 E4 {4 P' x9 B! U6 T3 v2, Python 3.10.11
7 ~- ~* c) J/ m3, CUDA 12.1
3 H7 J! T3 a5 f" b0 {- x( r9 v# o. U4, 在python 3 中安装& W! M. H0 b9 U8 |" q; }
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
Q1 {0 g5 E G9 G; G这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。' O/ _1 c; U! w" s/ W
5,pip install -U openai-whisper
/ d2 z" B4 s& D( _这是向whisper 致敬,可以不装
6 u+ O, c" F/ W. M6,pip install faster-whisper
% L' V1 {3 H& q2 q/ W# h----------------------------------------6 o! J, g8 O( ], u
whisper 我用的命令行,faster-whisper 我用的是python。) Y) N2 _* n- b6 R) z
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:+ v. {8 x# N; h+ X% I* D1 l
" H3 N2 S4 ]# _2 N
----------------------------------------! y8 E) h7 L" q( Z
, ~1 W3 z3 {/ S, S
from faster_whisper import WhisperModel1 e& h* p* b/ \" Q
4 O# E, U/ \5 s$ V: y, h
model_size = "small"
+ N% u Q# F2 c& F! u+ U) |" B& _0 K5 n6 s9 ] d
model = WhisperModel(model_size, device="cuda", compute_type="int8")
$ g% K" n3 W M) n% i1 l/ }7 G4 W; K$ S
; S! z. t& U' A5 ssegments, info = model.transcribe(: ^7 u0 A { `) Y9 h4 t6 n
sourceFileName,
/ N& E g: A* n* J3 ]# M$ y" | beam_size=5,
4 Z* V2 H8 [ ~( b language="en", * ?' w4 a. E8 _8 ~
task="transcribe",
" q: o6 a7 b: D9 {% _ word_timestamps=True, 1 Y/ v! W% o. c/ i6 D
initial_prompt = "Hello, welcome to my lecture.")
: `( a# R: t2 @3 M; y7 O" \! w$ o+ k" }# X
for segment in segments:
( G# ]6 `9 W6 ] print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
* b7 z$ O, I; A6 Y% }3 v1 E6 m7 s5 Z( r- s) a# x
for word in segment.words: ]* ~4 o# L& K$ m+ F
+ g/ D8 h" f3 B+ j- w6 ]' h----------------------------------------( V& q: x& T' l
, b8 @; a: F7 \8 n1 T* M
代码说明:$ E0 a( K* Q) f/ `, b/ Q
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。( {* m/ X% R& L/ d* r7 v
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
+ G1 |: e* U9 x+ p; {' A1 v2,segment 本身是很粗糙的,做字幕勉强能用。
- i( R7 b) Y" E: E8 {3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
! F H. o. k; R7 D" t$ |5 c- Z4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中$ y4 {5 O4 X- p& n
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
, Q7 `; Q$ V. {1 R( s% u; w5,model.transcribe 中参数说明:" E/ p( l5 g% t
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
! s% ?) n A( V- R7 x0 |- C其中
* T6 T1 _' U, _, T! J1 j; y' A3 g" U word_timestamps=True,
) N: ^; M" Q4 E保证了你能拿到 word,否则是拿不到的" h8 J2 x4 q( q
initial_prompt = "Hello, welcome to my lecture.")8 M1 I. x0 D/ L' j! t! `
保证能尽可能准确的断句 punctuation,但是不是决定性的。
! v3 N0 v0 n R# S8 m- H; e# o( { p3 R其他参数可参考源文件:1 l( q" @# _! d( R8 Y# K
https://github.com/guillaumekln/ ... isper/transcribe.py3 F8 K# S1 ^ Q3 K1 b8 i
152 def transcribe(
1 X5 H+ D- g# T' v) d/ ]/ ?从源文件你可以看到是支持中文的句号断句的。' }. C6 K( n. C6 l X( N% n$ X
0 O0 m8 B4 \+ f
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。) z( K9 ]* s- U" {7 I" ~
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
Y# ^! ~9 Y7 C7 _8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
% s" q0 {7 I! S4 {1 _# ?# x$ I. F" x9 L& U% J/ ?, G9 S4 L0 U, k! g
6 `" ? B8 l( q2 C. w! E0 \7 v/ E5 z: U' s1 C3 v
|
评分
-
查看全部评分
|