因此,我一直在努力制作均衡器,而我面临的问题是pyaudio流的传输速度远快于eq的速度。正在找到音频文件的低音分量。我将简要概述实现:

我创建了两个额外的线程,并将tkinter用于gui。线程1以50ms的数据块计算声音的低音成分(fn bass())。

线程2通过在tkinter中实际创建一个具有变化的左上角坐标的矩形来进行绘制。

flag2保持主线程运行,而flag同步bass()和plot()函数。代码的最后一部分是确保显示的速度不会快于歌曲本身(不过,目前正好相反)。

我在这里附加代码:

import numpy as np
from scipy.io import wavfile
from numpy import fft as fft
import time
import tkinter as tk
import threading
import pyaudio
import wave

CHUNK = 1024
wf = wave.open("test3.wav", 'rb')
p = pyaudio.PyAudio()

###
def callback(in_data, frame_count, time_info, status):
    data = wf.readframes(frame_count)
    return (data, pyaudio.paContinue)

stream = p.open(format=p.get_format_from_width(wf.getsampwidth()),
                channels=wf.getnchannels(),
                rate=wf.getframerate(),
                output=True,
                stream_callback=callback)

####

rate,audData = wavfile.read("test3.wav")

print ("Rate "+str(rate))
print ("Length of wav file(in s) = " + str(audData.shape[0]/rate))

ch1=audData[:]
tim = 0.050
pt=int(tim*rate)

flag2 = True
flag = False
cnt = 0
value=0

def bass():
    global pt
    global cnt
    global audData
    global value
    global flag2
    global flag

    cnt +=1
    fourier=fft.fft(ch1[((cnt-1)*pt):((cnt)*pt)])
    fourier = abs(fourier) / float(pt)
    fourier = fourier[0:25]
    fourier = fourier**2

    if (cnt+1)*pt > len(audData[:]) :
        flag2 = False

    value = (np.sum(fourier))/pt
    flag= True
    return

def plot():
    global value
    global flag

    root=tk.Tk()

    canvas =tk.Canvas(root,width=200,height=500)
    canvas.pack()

    while True:
        if flag:
            canvas.delete("all")
            flag=False
            greenbox = canvas.create_rectangle(50,500-(value/80),150,500,fill="green")
            print(value/80) # to check whether it excees 500
        root.update_idletasks()
        root.update()

    return

def sound():
    global data
    global stream
    global wf
    global CHUNK

    stream.start_stream()

    while stream.is_active():
        time.sleep(0.1)

    stream.stop_stream()
    stream.close()
    wf.close()
    p.terminate()


bass()
t1 = threading.Thread(target=plot, name='t_1')
t2 = threading.Thread(target=sound, name='t_2')
t1.start()
t2.start()

while flag2:
    a = time.time()
    bass()
    b=time.time()
    while (b-a) < tim :
        time.sleep(0.015)
        b=time.time()

为了克服此处理速度问题,我尝试每3个块处理1个:
cnt +=1
    fourier=fft.fft(ch1[((3*cnt-3)*pt):((3*cnt-2)*pt)])
    fourier = abs(fourier) / float(pt)
    fourier = fourier[0:25]
    fourier = fourier**2

    if (3*cnt+1)*pt > len(audData[:]) :
        flag2 = False
#######
 while (b-a) < 3*tim :
        time.sleep(0.015)
        b=time.time()

但这甚至不符合要求。几秒钟后可见延迟。关于如何改善这一点的任何想法?

最佳答案

除了效率以外,更现实的解决方案可能是延迟匹配。如果您可以确定FFT和显示(等)过程的延迟,则可以延迟声音输出(使用一定数量的音频样本的fifo),或者让可视化过程在由等效数量的样本。

09-11 18:57