javaCV系列文章:java
javaCV开发详解之2:推流器实现,推本地摄像头视频到流媒体服务器以及摄像头录制视频功能实现(基于javaCV-FFMPEG、javaCV-openCV)git
javaCV开发详解之3:收流器实现,录制流媒体服务器的rtsp/rtmp视频文件(基于javaCV-FFMPEG)github
javaCV开发详解之4:转流器实现(也可做为本地收流器、推流器,新增添加图片及文字水印,视频图像帧保存),实现rtsp/rtmp/本地文件转发到rtmp流媒体服务器(基于javaCV-FFMPEG)api
数组
javaCV开发详解之6:本地音频(话筒设备)和视频(摄像头)抓取、混合并推送(录制)到服务器(本地)服务器
javaCV开发详解之7:让音频转换更加简单,实现通用音频编码格式转换、重采样等音频参数的转换功能(以pcm16le编码的wav转mp3为例)ide
补充篇:
测试
音视频编解码问题:javaCV如何快速进行音频预处理和解复用编解码(基于javaCV-FFMPEG)ui
音视频编解码问题:16/24/32位位音频byte[]转换为小端序short[],int[],以byte[]转short[]为例
前言:本篇文章基于javaCV-FFMPEG,关于javaCV官方是没有文档或者api文档能够参考的,因此还有不少地方须要研究;
本章对于ffmpeg的须要有必定了解以及对于音频处理有必定基础,能够先了解javaCV是如何进行音频的解复用和编码的:http://blog.csdn.net/eguid_1/article/details/52875793
对于依赖的包,本章用到的jar包有javaCV基础支撑包(即javaCV,javaCPP)和FFMPEG及其相关平台的jar包
推荐把javaCV.bin的全部包放到项目目录中
javaCV.bin下载请到javaCV的github下载:https://github.com/bytedeco/javacv
实现录制本机麦克风音频到本地文件或者流媒体服务器,
对于录制音视频混合的同窗能够很方便的将本章代码移植到到录制视频的代码里
注意:因为音频、视频时两个不一样线程同时进行,因此在进行混合录制的时候须要注意统一帧率,以防止音画不一样步现象
/** * 设置音频编码器 最好是系统支持的格式,不然getLine() 会发生错误 * 采样率:44.1k;采样率位数:16位;立体声(stereo);是否签名;true: * big-endian字节顺序,false:little-endian字节顺序(详见:ByteOrder类) */ AudioFormat audioFormat = new AudioFormat(44100.0F, 16, 2, true, false); System.out.println("准备开启音频!"); // 经过AudioSystem获取本地音频混合器信息 Mixer.Info[] minfoSet = AudioSystem.getMixerInfo(); // 经过AudioSystem获取本地音频混合器 Mixer mixer = AudioSystem.getMixer(minfoSet[AUDIO_DEVICE_INDEX]); // 经过设置好的音频编解码器获取数据线信息 DataLine.Info dataLineInfo = new DataLine.Info(TargetDataLine.class, audioFormat); // 打开并开始捕获音频 // 经过line能够得到更多控制权 // 获取设备:TargetDataLine line // =(TargetDataLine)mixer.getLine(dataLineInfo); Line dataline = null; try { dataline = AudioSystem.getLine(dataLineInfo); } catch (LineUnavailableException e2) { System.err.println("开启失败..."); return null; } TargetDataLine line = (TargetDataLine) dataline; try { line.open(audioFormat); } catch (LineUnavailableException e1) { line.stop(); try { line.open(audioFormat); } catch (LineUnavailableException e) { System.err.println("按照指定音频编码器打开失败..."); return null; } } line.start(); System.out.println("已经开启音频!"); // 得到当前音频采样率 int sampleRate = (int) audioFormat.getSampleRate(); // 获取当前音频通道数量 int numChannels = audioFormat.getChannels(); // 初始化音频缓冲区(size是音频采样率*通道数) int audioBufferSize = sampleRate * numChannels; byte[] audioBytes = new byte[audioBufferSize]; Runnable crabAudio = new Runnable() { ShortBuffer sBuff = null; int nBytesRead; int nSamplesRead; @Override public void run() { System.out.println("读取音频数据..."); // 非阻塞方式读取 nBytesRead = line.read(audioBytes, 0, line.available()); // 由于咱们设置的是16位音频格式,因此须要将byte[]转成short[] nSamplesRead = nBytesRead / 2; short[] samples = new short[nSamplesRead]; /** * ByteBuffer.wrap(audioBytes)-将byte[]数组包装到缓冲区 * ByteBuffer.order(ByteOrder)-按little-endian修改字节顺序,解码器定义的 * ByteBuffer.asShortBuffer()-建立一个新的short[]缓冲区 * ShortBuffer.get(samples)-将缓冲区里short数据传输到short[] */ ByteBuffer.wrap(audioBytes).order(ByteOrder.LITTLE_ENDIAN).asShortBuffer().get(samples); // 将short[]包装到ShortBuffer sBuff = ShortBuffer.wrap(samples, 0, nSamplesRead); // 按通道录制shortBuffer try { System.out.println("录制音频数据..."); recorder.recordSamples(sampleRate, numChannels, sBuff); } catch (org.bytedeco.javacv.FrameRecorder.Exception e) { // do nothing } } @Override protected void finalize() throws Throwable { sBuff.clear(); sBuff = null; super.finalize(); } }; return crabAudio; }
这里演示录制flv
注意:对于想要推送音频到fms,red5,nginx-rtmp等流媒体服务器的同窗务必请使用flv进行封装,无论是音频仍是视频
public static void test2() throws InterruptedException, LineUnavailableException { int FRAME_RATE = 25; ScheduledThreadPoolExecutor exec = new ScheduledThreadPoolExecutor(1); Runnable crabAudio = recordMicroPhone(4, "localAudio.flv",FRAME_RATE);//对应上面的方法体 ScheduledFuture tasker = exec.scheduleAtFixedRate(crabAudio, 0, (long) 1000 / FRAME_RATE, TimeUnit.MILLISECONDS); Thread.sleep(20 * 1000); tasker.cancel(true); if (!exec.isShutdown()) { exec.shutdownNow(); } }