前端屏幕录制?截屏?网页生成图片?帧图?说到录屏,我一开始想到的是前面这些词。大体的想法是持续的生成当前页面的截图,而后把这些帧图再合并成一个视频文件。前端页面生成图片咱们应该比较熟悉的是 html2canvas。另外也有一些现成的库可使用来进行屏幕的录制, RecordRTC上就有不少屏幕录制的实现。有声音(Audio)、视频(Video)、屏幕(Screen)的录制;有针对canvas的录制等等,一共有三十多个示例。这里主要想简单的讲一讲原生的 Screen Capture API。参见: Using the Screen Capture API
navigator.mediaDevices.getDisplayMedia()css
该方法会返回一个promise, 该promise会resolve当前屏幕内容的实时数据流。html
使用 async / await 实现以下:前端
async function startCapture(displayMediaOptions) { let captureStream = null; try { captureStream = await navigator.mediaDevices.getDisplayMedia(displayMediaOptions); } catch(err) { console.error("Error: " + err); } return captureStream; }
使用 promise 的方式实现以下:web
function startCapture(displayMediaOptions) { let captureStream = null; return navigator.mediaDevices.getDisplayMedia(displayMediaOptions) .catch(err => { console.error("Error:" + err); return null; }); }
咱们在获取屏幕数据的时候有可能会获取到一些敏感信息,全部在使用getDisplayMedia的时候,为了安全考虑,会弹出一个选择框,然用户本身选择须要共享那一部分的内容。能够共享当前屏幕,也能够共享其余的应用窗口和浏览器的其余标签页。canvas
2、参数配置:
咱们在上面的实现中能够看到, 传递给startCapture函数的参数为displayMediaOptions。这个参数是用于配置返回数据流的。数据形式以下:promise
const displayMediaOptions = { video: { cursor: "never" }, // 视频信息的设置 audio: false, // 是否包含音频信息 logicalSurface: false, // 设置是否包含所选屏幕外区域的一些信息 };
开能够针对音视频作详细的配置:浏览器
const gdmOptions = { video: { cursor: "always" // 始终显示鼠标信息 }, // audio 配置信息是可选的 audio: { echoCancellation: true, noiseSuppression: true, sampleRate: 44100 } }
HTML:安全
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <meta http-equiv="X-UA-Compatible" content="ie=edge"> <title>Screen Record</title> <link rel="stylesheet" href="./css/index.css"> </head> <body> <p>This example shows you the contents of the selected part of your display. Click the Start Capture button to begin.</p> <p><button id="start">Start Capture</button> <button id="stop">Stop Capture</button></p> <video id="video" autoplay></video> <br> <strong>Log:</strong> <br> <pre id="log"></pre> <script src="./js/index.js"></script> </body> </html>
CSS:服务器
#video { border: 1px solid #999; width: 98%; max-width: 860px; } .error { color: red; } .warn { color: orange; } .info { color: darkgreen; }
JS:websocket
const videoElem = document.getElementById("video"); const logElem = document.getElementById("log"); const startElem = document.getElementById("start"); const stopElem = document.getElementById("stop"); // Options for getDisplayMedia() const displayMediaOptions = { video: { cursor: "never" }, audio: false }; // Set event listeners for the start and stop buttons startElem.addEventListener("click", function(evt) { startCapture(); }, false); stopElem.addEventListener("click", function(evt) { stopCapture(); }, false); console.log = msg => logElem.innerHTML += `${msg}<br>`; console.error = msg => logElem.innerHTML += `<span class="error">${msg}</span><br>`; console.warn = msg => logElem.innerHTML += `<span class="warn">${msg}<span><br>`; console.info = msg => logElem.innerHTML += `<span class="info">${msg}</span><br>`; async function startCapture() { logElem.innerHTML = ""; try { videoElem.srcObject = await navigator.mediaDevices.getDisplayMedia(displayMediaOptions); dumpOptionsInfo(); } catch(err) { console.error("Error: " + err); } } function stopCapture(evt) { let tracks = videoElem.srcObject.getTracks(); tracks.forEach(track => track.stop()); videoElem.srcObject = null; } function dumpOptionsInfo() { const videoTrack = videoElem.srcObject.getVideoTracks()[0]; console.info("Track settings:"); console.info(JSON.stringify(videoTrack.getSettings(), null, 2)); console.info("Track constraints:"); console.info(JSON.stringify(videoTrack.getConstraints(), null, 2)); }
效果以下:
点击Start Capture 以后选择须要共享的部分就能够共享以下的内容:
点击Stop Capture便可˙中止录制共享。这个例子只是调取接口获取到当前分享屏幕的数据流,并经过video的形式显示出来。咱们在拿到数据流信息这个,能够把这些信息上传到服务器,生成相应的视频文件。也能够结合websocket之类的处理方式,实现实时的屏幕共享功能。