Xp下麦克风设备及音量检测

从Vista开始,windows底层的音频架构发生了改变:本来是底层API的waveXXX、mixerXXX等都在Core Audio APIs的基础上进行了重构,上升为了高层API;底层API变为Core Audio API。 因为这个缘由,在利用遗留音频技术(waveXXX、mixerXXX等)进行开发的时候,在WinXp和其余系统上的表现会不太一致。git

可是若是要在Xp上进行开发的话,就必需要使用这些老旧的技术,没得选。github

Xp下音频开发选择

在Xp下进行开发,大概只有DirectX、waveXXX和mixerXXX可选了。 这里咱们简单描述它们的优缺点:windows

优势:api

  • DirectX: 功能强大、灵活。
  • waveXXX: 使用简单,对于输入音频设备,应用中的大部分功能需求都支持。
  • mixerXXX: 彻底底层的音频控制。

缺点:架构

  • DirectX: 概念多、不容易上手(灵活的代价)。
  • waveXXX: 对输入音频的控制处于应用层,没法控制系统层的音频输入(输出设备未测试)。
  • mixerXXX: 概念多而且比较抽象,API的使用很晦涩。

Xp下输入音频开发实例

咱们选择waveXXX api来实现这个开发实例,由于waveXXX相对来讲比较好用,这样咱们不用花费过多的时间去了解其余概念上的细节。app

1. 设备枚举及打开

先调用waveInGetNumDevs()获取设备总数,而后传入设备序号(0 ~ 总数-1),并选择设备支持的PCM数据格式中的一种打开设备,获取到设备句柄:ide

auto inputAudioDeviceNum = waveInGetNumDevs();
for (int i = 0; i < inputAudioDeviceNum; ++i) {
    WAVEINCAPS waveInCaps;
    auto returnValue = waveInGetDevCaps(i, &waveInCaps, sizeof(waveInCaps)) ;

    ......

    WAVEFORMATEX waveFormatEx = chooseAppropriateFormat();
    auto returnValue = waveInOpen((LPHWAVEIN)&deviceInfo.handle, index, &waveFormatEx,
                                  (DWORD_PTR)CoreAudioHelper::waveInProc,
                                  (DWORD_PTR)this, 
                                  CALLBACK_FUNCTION);
    ......
}

2. 获取输入音频数据

为了获取音频数据,咱们须要准备一个Buffer,并将这个Buffer添加到你想要获取数据的音频设备上,而后开始这个设备的音频捕获:oop

bool CoreAudioHelper::startPeakGetter()
{
    Q_ASSERT(m_currentDeviceIndex >= 0 && m_currentDeviceIndex < m_infos.size());
    auto& deviceInfo = m_infos[m_currentDeviceIndex];

    ZeroMemory(m_buffer, sizeof(m_buffer));
    m_waveHdr.dwFlags = 0;
    m_waveHdr.lpData = (LPSTR)m_buffer;
    m_waveHdr.dwBufferLength = sizeof(m_buffer);

    auto returnValue = waveInPrepareHeader(deviceInfo.handle, &m_waveHdr, sizeof(m_waveHdr));
    CHECK_RETURN(returnValue);

    returnValue = waveInAddBuffer(deviceInfo.handle, &m_waveHdr, sizeof(m_waveHdr));
    CHECK_RETURN(returnValue);

    returnValue = waveInStart(deviceInfo.handle);
    CHECK_RETURN(returnValue);

    deviceInfo.started = true;
    return true;
}

当这个Buffer被数据填满的时候,系统就会通知你,这时候咱们须要先调用waveInUnprepareHeader()来取消先前准备的Buffer,而后就能够对数据进行操做了(这里咱们计算了音频的音量大小)。在以前打开设备的时候,你能够选择多种通知方式:回调、窗口消息、事件或者线程,这里我选择使用回调方法。若是要连续的获取捕获到的数据,咱们就要在Buffer被填满的时候不断添加新的Buffer。注意由于在回调中基本上不能够调用任何系统api,因此咱们须要另外一个线程来添加新Buffer,并利用信号量来进行同步测试

void CoreAudioHelper::waveInProc(HWAVEIN hwi, UINT uMsg, DWORD_PTR dwInstance, DWORD_PTR dwParam1, DWORD_PTR dwParam2)
{
    switch (uMsg) {
    case WIM_OPEN:
        break;
    case WIM_CLOSE:
    {
        ......
    }
    case WIM_DATA:
    {
        ......
        break;
    }
    default:
        Q_ASSERT(false && "never receive other msg!");
    }

}

//  non-qt thread have no qt event loop which causing signal/slot not working,
//  we use a queue to keep the value and a semaphore to notify the internal thread
//  to emit the signal.
void CoreAudioHelper::appendPeakValue(qint16 value)
{
    m_peakValueQueue.push(value);
    //  cannot call Win32 api inside a callback, so we notify the buffer waiter thread
    m_bufferFilled.release(1);
}

void CoreAudioHelper::BufferWaiterThread::run()
{
    while (true) {
            m_helper->m_bufferFilled.acquire(1);

            m_helper->unprepareBuffer();

            if (m_helper->m_stopThread)     
                break;
            if (m_helper->m_emitUnplugged) {
                emit m_helper->currentDeviceUnplugged();
                m_helper->m_emitUnplugged = false;
                break;
            }                       
            m_helper->emitPeakLevelAndContinue();
    }
}

bool CoreAudioHelper::unprepareBuffer()
{
    auto deviceInfo = m_infos.at(m_currentDeviceIndex);
    auto returnValue = waveInUnprepareHeader(deviceInfo.handle, &m_waveHdr, sizeof(m_waveHdr));
    CHECK_RETURN(returnValue); 
    return true;
}

3. 音量大小计算

根据PCM数据是8位仍是16位,咱们把Buffer中的比特数据转换成合适的变量并计算保存最小值和最大值。由于实际音频波形是以0点为水平上下波动的,
wave-linkui

  • 8位PCM: 无符号数据,范围0~255, 水平值127。
  • 16位PCM: 有符号数据,范围-32767~32767,水平值0。

咱们只须要把最大波动值除以上限值就能够得到音量大小了(具体见下一小节)。

//  buffer already filled with input audio data
CoreAudioHelper* helper = reinterpret_cast<CoreAudioHelper*>(dwInstance);
Q_ASSERT(helper->m_waveHdr.dwFlags & WHDR_DONE);

qint32 peakMin = 255;
qint32 peakMax = 0;
for (char* ptr = helper->m_buffer; ptr < &helper->m_buffer[16]; ) {
    qint32 dataValue;
    if (helper->m_is8BitsSample) {
        dataValue = *(unsigned char*)ptr;
        ptr++;
    } else {
        dataValue = *(qint16*)ptr;  
        ptr += 2;
    }
    if (dataValue < peakMin)    peakMin = dataValue;
    if (dataValue > peakMax)    peakMax = dataValue;
}

helper->appendPeakValue(max(-peakMin, peakMax));

4. 音量设置和静音

waveXXX API只提供了音频数据捕获,所以咱们须要本身来模拟音量和静音的控制,这里咱们把这些控制应用在获取到的音量大小上:

void CoreAudioHelper::emitPeakLevelAndContinue()
{
    if (!m_peakValueQueue.empty()) {
        qint32 peakValue = m_peakValueQueue.front();
        m_peakValueQueue.pop();

        if (!m_infos.at(m_currentDeviceIndex).muted) {
            if (m_is8BitsSample) {
                //  when 8-bit sample, the range is 0--255, the silence data value is 127
                emit peakChanged(qint32(abs(peakValue - 127) / 1.27) * 
                                m_infos.at(m_currentDeviceIndex).volumeFilterPercent);
            }
            else {
                //  when 16-bit sample, the range  is -32767--32767, the silence data value is 0
                emit peakChanged(qint32(abs(peakValue) / 327.67) * 
                                m_infos.at(m_currentDeviceIndex).volumeFilterPercent);
            }
            startPeakGetter();
        }
    }
}

5. 运行结果

结果就是这样啦,完整代码见此处

result-link

相关文章
相关标签/搜索