前端消息的实时推送我相信不少人不陌生,咱们能够想到利用WebSocket,服务端主动向客户端推送数据,浏览器和服务器只须要完成一次握手,二者之间就直接能够建立持久性的链接,并进行双向数据传输。其优势有不少,能更好的节省服务器资源和带宽,而且可以更实时地进行通信等等。语音播报则可以在人们视觉没有来的及关注时侯,经过听觉来获取须要信息。javascript
这篇文章主要介绍的是基于websocket,利用Stomp.js以及HTML5语音Web Speech API——SpeechSynthesis来实现前端消息的实时推送与语音播报。css
让咱们先了解一下STOMP(the Simple (or Streaming) Text Orientated Messaging Protocol)——面向消息(或流)的简单文本协议。它提供了一个可互操做的链接格式,容许STOMP客户端与任意STOMP消息代理(Broker)进行交互。html
WebSocket的实现客户端看起来比较简单,可是须要与后台进行很好的配合和调试才能达到最佳效果。经过SockJS 、Stomp来进行浏览器兼容,能够增长消息语义和可用性。简而言之,WebSocket 是底层协议,SockJS 是WebSocket 的备选方案,也是底层协议,而 STOMP 是基于 WebSocket(SockJS)的上层协议。前端
下面简单的介绍一下经常使用的方法。
在web浏览器中咱们能够经过两种方式进行客户端的建立:
一、使用普通的WebSocketjava
let url = "ws://localhost:61614/stomp"; let client = Stomp.client(url);
二、使用定制的WebSocket
若是须要使用其余类型的Websocket(例如由SockJS包装的Websocket),就利用下面的方式建立客户端react
let url = "ws://localhost:61614/stomp"; let socket = new SockJS(url); let client = Stomp.over(socket);
除上面的客户端建立方式不一样外,后续的链接等操做都是同样的。web
咱们能够用client.connect()
方法来链接服务端chrome
client.connect(login,passcode,successCallback,errorCallback);
其中login
和passcode
都是字符串,至关因而用户的登陆名和密码凭证。successCallback
为链接成功的回调函数,errorCallback
为链接失败的回调函数。
还能够这样写:apache
client.connect({ login:'name', passcode:'666', 'token':'2333' },successCallback,errorCallback);
断开链接:segmentfault
client.disconnect(function(){console.log("再见")})
heart-beating也就是消息传送的频率,incoming
是接收频率,outgoing
是发送频率,其默认值都为10000ms,咱们能够手动设置:
client.heartbeat.outgoing = 5000; client.heartbeat.incoming = 0;
客户端向服务端发送消息利用send()
方法,此方法有三个参数:第一个参数(string)必需,为发送消息的目的地;第二个参数(object)可选,包含了额外的头部信息;第三个参数(string)可选,为发送的消息。
client.send(destination, {}, body);
订阅消息也就是客户端接收服务端发送的消息,订阅消息能够利用subscribe()
方法,此方法有三个参数:第一个参数(string)必需,为接收消息的目的地;第二个参数必需为回调函数;第三个参数{object}为可选,包含额外的头部信息。
client.subscribe(destination, callback, {});
取消订阅消息能够利用unsubscribe()
方法:
let mySubscribe = client.subscribe; mySubscribe.unsubscribe();
客户端订阅消息能够订阅广播,以下所示:
client.subscribe('/topic/msg',function(messages){ console.log(messages); })
也能够进行一对一消息的接收:
//第一种方式 const userId = 666; client.subscribe('/user/' + userId + '/msg',,function(messages){ console.log(messages); }) //第二种方式 client.subscribe('/msg',function(messages){ console.log(messages); }, {"userId ": userId })
客户端采用的写法要根据服务端代码来作选择。
在HTML5中,与语音相关的Web Speech API能够分为两种:一种为语音识别(Speech Recognition),另外一种为语音合成(Speech Synthesis)。他们的做用分别为“语音转文字”和“文字转语音”。
既然是HTML5中的东西,咱们仍是要先看看他们的兼容性如何:
Speech Recognition:
Speech Synthesis:
从上面的图中能够看出:语音识别(Speech Recognition)很惨烈,大部分浏览器还不支持。语音合成(Speech Synthesis)除开IE和Opera,基本上都支持了。
本文要实现的是语音播报,就是要把文字消息,转成语音播报出来,而语音合成(Speech Synthesis)就是实现这样的功能,并且兼容性也是不错的,因此咱们就能拿来使用啦~
语音识别(Speech Recognition)就不过多介绍了,咱们来详细看看语音合成(Speech Synthesis)。咱们能够先把下面这段代码打到浏览器的控制台上:
let speechInstance = new window.SpeechSynthesisUtterance('你好,能够交个朋友吗'); window.speechSynthesis.speak(speechInstance);
不出意外,浏览器说话了,说明浏览器是支持这个API的。下面简单介绍一下相关的属性和方法:
SpeechSynthesisUtterance对象的属性:
属性 | 类型 | 描述 |
---|---|---|
text | string | 须要要读的内容 |
lang | string | 使用的语言(好比:"zh-CN") |
volume | number | 音量,值在0-1之间(默认是1) |
rate | number | 语速的倍数,值在0.1-10之间(默认1倍) |
pitch | number | 音高,值在0-2之间,(默认是1) |
voice | string | 指定但愿使用的声音 |
SpeechSynthesisUtterance对象的方法:
方法 | 描述 |
---|---|
onstart | 语音开始合成时触发 |
onpause | 语音暂停时触发 |
onresume | 语音合成从新开始时触发 |
onend | 语音结束时触发 |
上述定义的speechInstance实际上是咱们建立的文本实例,而真实的语音是由speechSynthesis来建立的,其经常使用的方法以下:
方法 | 描述 |
---|---|
speak() | 开始合成语音,将对应的实例添加到语音队列中 |
cancel() | 中止合成语音,删除队列中全部的语音 |
pause() | 暂停语音合成 |
resume() | 恢复暂停后的语音 |
getVoices() | 返回浏览器所支持的语音包数组 |
上面介绍了StompJS和SpeechSynthesis经常使用的属性和方法,是时候动手码一码了。
想要接收实时消息,咱们当先然要有消息的来源对不对。消息是从后台发来的,通常是利用Java,而后结合ActiveMQ或者RabbitMQ等消息中间件,Java代码就很少说,咱们接下来就利用ActiveMQ来模拟服务端向客户端发送消息。
这里说一说windows环境下吧,首先要下载ActiveMQ,直接点击官网:
http://activemq.apache.org/do...
选择最新发布下来的压缩包,解压便可,而后进入解压后的bin目录,能够看见里面有两个文件夹,win32和win64,这个就根据本身电脑的操做系统来选择,点击进去,再双击activemq.bat启动,若是看见下面这样就说明启动成功:
若是没有启动成功,那多半是由于没有jdk,点这里,跟着安装就欧克啦~
安装完毕后,再双击activemq.bat,如今咱们就启动成功了。在浏览器中输入:http://localhost:8161,能够看到:
点击Manage ActiveMQ broker,用户名和密码都是admin,而后再点击Topics
在输入框中输入msg,而后点击create按钮
能够看见下方列表中多了一个Name为msg的Topics
其中须要注意的是下面几项,以msg为例:
模拟“服务端”准备就绪。
这“服务端”搞好了,接下来就是客户端的实现,代码贴出来index.html
:
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>实时语音播报</title> </head> <body> <script src="http://cdn.bootcss.com/stomp.js/2.3.3/stomp.js"></script> <script> window.onload = function() { let data = ''; //创建链接 function connect(){ let client; let url = 'ws:127.0.0.1:61614/stomp'; client = Stomp.client(url); client.heartbeat.outgoing=0; client.connect({}, //链接成功回调 function connectCallback() { console.log("链接成功~"); //订阅消息 // 由于咱们订阅的是topic下的msg,因此这里是'/topic/msg' client.subscribe('/topic/msg', function(message){ if(message.body){ data = message.body; console.log(message.body); } }) }, //链接失败回调 function errorCallBack(error){ console.log(error) } ) } connect(); } </script> </body> </html>
在浏览器中打开这个HTML文件,而后打开控制台,能够看见,咱们已经链接服务端成功了:
链接成功以后呢,咱们就能够尝试在服务端向客户端发送消息,先切换到ActiveMQ 的页面:
能够看见咱们的消费者的数量为1了,而后点击Send To,就能够开始发消息了:
好比咱们发送一个“你好”,而后咱们再切到index.html:
咱们收到了来自服务端的问候~
消息已经可以实时接收了,如今就是须要把接收到的消息读出来,思路很简单,就是把语音合成相关API封装成一个函数,而后当咱们服务端发送消息到客户端以后,把消息数据传到为咱们定义好的语音播报函数里面,而后就能读出咱们服务端发出的消息了,说干就干:
//语音播报 speechInfo = () => { let speechInstance = new SpeechSynthesisUtterance(); return { //语音播报开始 start: function (content) { let lang = 'zh-CN'; let text = content; if( text !== '') { speechInstance.text = text; speechInstance.lang = lang; speechInstance.volume = 1; speechInstance.rate = 1; speechSynthesis.speak(speechInstance); speechInstance.onend = function(event){ console.log("语音播报完毕"); } } }, //暂停 pause : function () { speechSynthesis.pause(); }, //从新开始 resume: function() { speechSynthesis.resume(); }, //取消 cancel: function() { speechSynthesis.cancel(); } } };
那我们调用一下,而后在ActiceMQ页面发送一条新消息,看是否是如咱们所愿:
... client.subscribe('/topic/msg', function(message){ if(message.body){ data = message.body; console.log(message.body); //调用语音合成函数 speechInfo().start(data); } }) ...
若是是火狐,360安全浏览器等浏览器,咱们的消息和声音都如期而至。
可是若是用的是Chrome的话,很难受,并无声音,难道是Chrome不支持了吗?可是咱们以前那两行测试代码说明Chrome是支持SpeechSynthesis
的,那是怎么回事?答案就在下面:
Chrome再也不支持SpeechSynthesis.speak()
的自动播放,要想用的话,必须用户手动去调用它。缘由能够看这里被垃圾广告滥用后谷歌浏览器71将限制语音合成自动播放
垃圾网站出来背锅!!!
想不到吧,有一天须要去“兼容”Chrome了。语音不能实时的播报出来,咱们看看有没有什么办法。个人思路是在页面加一个按钮,而后进行模拟人去点击,完整index.html
代码:
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Document</title> </head> <body> <div> <button id="btn"> 点击</button> </div> <script src="http://cdn.bootcss.com/stomp.js/2.3.3/stomp.js"></script> <script> window.onload = function() { let data = ''; //创建链接 function connect(){ let client; let url = 'ws:127.0.0.1:61614/stomp'; client = Stomp.client(url); client.heartbeat.outgoing=0; client.connect({}, //链接成功回调 function connectCallback() { console.log("链接成功~"); //订阅消息 client.subscribe('/topic/msg', function(message){ if(message.body){ data = message.body; console.log(message.body); if(navigator.userAgent.toLowerCase().indexOf("chrome") !== -1){ document.getElementById("btn").click(); } else { speechInfo().start(data); } } }) }, //链接失败回调 function errorCallBack(error){ console.log(error) } ) } //语音播报 speechInfo = () => { let speechInstance = new SpeechSynthesisUtterance(); return { //语音播报开始 start: function (content) { let lang = 'zh-CN'; let text = content; if( text !== '') { speechInstance.text = text; speechInstance.lang = lang; speechInstance.volume = 1; speechInstance.rate = 1; speechSynthesis.speak(speechInstance); speechInstance.onend = function(event){ console.log("语音播报完毕"); } } }, //暂停 pause : function () { speechSynthesis.pause(); }, //从新开始 resume: function() { speechSynthesis.resume(); }, //取消 cancel: function() { speechSynthesis.cancel(); } } }; document.getElementById("btn").onclick=function () { console.log("触发成功") speechInfo().start(data); }; document.getElementById("btn").click(); connect(); } </script> </body> </html>
可是咱们能想到,谷歌想不到?这里又涉及一个知识点:isTrusted
Event接口的isTrusted是一个Boolean类型的只读属性.当事件由用户操做生成时为true,由脚本建立或修改,或经过调用EventTarget.dispatchEvent生成,为false
咱们在控制台代码中打个断点,而后在ActiveMQ 发条消息瞧一瞧,是否是与这个有关:
能够看见isTrusted的值为false,这个模拟点击事件是不被浏览器信任的,而后咱们再手动点击一下咱们写好的按钮:
isTrusted的值为true,咱们的声音也出来了,当咱们再在ActiveMQ 发送一条消息:
声音自动播放出来了。
https://segmentfault.com/a/11...
https://www.cnblogs.com/golov...
https://www.jianshu.com/p/92d...
https://developer.mozilla.org...
须要提一点的是,我在实际是在react中开发的,相关方法都和上述的写法相似,可是却不会触发Chrome对于SpeechSynthesis.speak()
的限制,这个限制也是我在写这篇文章的时候,用原生js+HTML的时候发现的。总的来讲用原生js+HTML实现的并不算完美,在Chrome下须要在页面加载完成后进行一次点击,才能把后续的语音实时的播报出来。若是你们有相关的解决办法,或者用其它的方式实现了前端消息实时的语音播报,欢迎提出来,先谢过了~