目前正在做一个增强现实相关的App,其中需要实现的一个功能是:两部手机A和B同时打开App,其中A手机调用摄像头显示取景画面,而B手机可以同步看到A手机摄像头取景的画面。
之前我想的方法是A调用摄像头之后以一定频率截屏>压缩>发送(socket通信)>服务器>转发到B手机>B播放一帧帧图片形成同步。
这种方法目前使用mui的截屏函数,会导致截屏仍然是webview界面,而不是摄像头取景画面。
另一种方法是使用H5的getUSerMedia,页面可以在电脑上使用,但是放到手机上不支持。
所以请教各位大神有没有新的思路?或者有方法解决上面的问题。
AiuR (作者)
好吧,不会原生开发,这就尴尬了。。
2016-12-08 09:47