我需要做的是计算麦克风输入的频率。我为此使用IWaveProvider及其实现的Read()。缓冲区的大小始终为8820个元素,并且从字节数组到浮点数组的转换似乎也出了问题(FloatBuffer属性部分)。

以下是一些重要的方面...

这是我开始录制的地方:

private void InitializeSoundRecording()
{
    WaveIn waveIn = new WaveIn();
    waveIn.DeviceNumber = 0;
    waveIn.DataAvailable += (s, e) => this.waveIn_DataAvailable(s, e);
    waveIn.RecordingStopped += (s, e) => this.waveIn_RecordingStopped(s, e);
    waveIn.WaveFormat = new WaveFormat(44100, 1);
    waveIn.StartRecording();
}


调用DataAvailable事件处理程序时,将执行以下操作:

private void waveIn_DataAvailable(object sender, WaveInEventArgs e)
{
    WaveBuffer wb = new WaveBuffer(e.Buffer.Length);

    IWaveProvider iWaveProvider = new PitchDetector(new WaveInProvider(sender as WaveIn), new WaveBuffer(e.Buffer));
    iWaveProvider.Read(wb, 0, e.Buffer.Length);

    PitchDetector pd = iWaveProvider as PitchDetector;

    this.ShowPitch(pd.Pitch);
}


最后,这是“实际”重要的一点:

private const int FLOAT_BUFFER_SIZE = 8820;
private IWaveProvider source;
private WaveBuffer waveBuffer;
private int sampleRate;
private float[] fftBuffer;
private float[] prevBuffer;
public float Pitch { get; private set; }

public WaveFormat WaveFormat { get { return this.source.WaveFormat; } }

internal PitchDetector(IWaveProvider waveProvider, WaveBuffer waveBuffer = null)
{
    this.source = waveProvider;
    this.sampleRate = waveProvider.WaveFormat.SampleRate;
    this.waveBuffer = waveBuffer;
}

/// <summary>
/// UNSAFE METHOD!
/// </summary>
/// <param name="input"></param>
/// <returns></returns>
private unsafe float[] ByteArrayToFloatArray(byte[] input)
{
    float[] fb = new float[FLOAT_BUFFER_SIZE];
    unsafe
    {
        fixed (byte* ptrBuffer = input)
        {
            float* ptrFloatBuffer = (float*)ptrBuffer;
            for (int i = 0; i < FLOAT_BUFFER_SIZE; i++)
            {
                fb[i] = *ptrFloatBuffer;
                ptrFloatBuffer++;
            }
        }
    }
    return fb;
}

public int Read(byte[] buffer, int offset = 0, int count = 0)
{
    if (this.waveBuffer == null || this.waveBuffer.MaxSize < count)
        this.waveBuffer = new WaveBuffer(count);

    int readBytes = this.source.Read(this.waveBuffer, 0, count);

    if (readBytes > 0) readBytes = count;

    int frames = readBytes / sizeof(float);

    this.Pitch = this.DeterminePitch(this.waveBuffer.FloatBuffer, frames);

    return frames * 4;
}


奇怪的是,当它进入构造函数时,waveBuffer包含一些数据(255、1、0等),但是当我检查Read()的“ buffer”参数时,它完全是0。每个元素。

同样出于好奇,为什么Read()有一个buffer参数,但是实际上根本没有在该方法中使用(我从您的一篇文章中得到了这段代码)?

解决此问题的任何帮助将不胜感激!我已经花了很长时间了,但是这毫无意义。

谢谢,
阿兰

最佳答案

您所指的是什么文章尚不清楚,并且我对该库不熟悉。但是,Read方法显然正在读取您的“时间序列” /或其他数据。由此看来,您所说的buffer参数很可能是您要放置在数据集两端的填充长度。

这种填充称为“零填充”,它用零填充您记录的信号(在信号的任一端放置n个零,其中n根据所用的基数设置)。这允许使用更长的FFT,这将产生更长的FFT结果向量。

较长的FFT结果具有更多的频率段,这些频率段的频率间隔更近。但是,它们本质上将提供与原始数据较短的非零填充FFT的高质量Sinc插值相同的结果。

在不进行进一步插值的情况下进行绘制时,这可能会导致频谱看起来更平滑。

如需进一步了解,请参阅

https://dsp.stackexchange.com/questions/741/why-should-i-zero-pad-a-signal-before-taking-the-fourier-transform

我希望这有帮助。

关于c# - C#频率检索,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/15873880/

10-16 23:03