先来个预告效果图开场
前言:浏览苹果官网时,你会看到发现每个设备在介绍页底部有这么一行文字:“用增强现实看看***”。使用苹果设备点击之后就能将该设备投放于用户所在场景视界,在手机摄像头转动的时候,也能看到物体对象不同的角度,感觉就像真的有一台手机放在你的面前。(效果如下图。注意:由于该技术采用苹果自有的 arkit 技术,安卓手机无法查看)
聪明的你可能已经想到了,为什么只能用苹果手机才能查看,那有没有一种纯前端实现的通用的 web AR 技术呢?
纯前端解决方案
纯前端技术的实现可以用下图总结:
以 JSARToolKit 为例:
- 使用 WebRTC 获取摄像头信息,然后在 canvas 画布上绘制原图;
- JSARToolKit 计算姿态矩阵,进而渲染虚拟信息
实现核心步骤
- (识别)WebRTC 获取摄像头视频流;
- (跟踪)Tracking.js 、JSFeat 、ConvNetJS 、deeplearn.js 、keras.js ;
- (渲染)A-Frame、 Three.js、 Pixi.js 、Babylon.js
比较成熟的框架:AR.js
好比每个领域都有对应的主流开发框架,Web AR 领域比较成熟框架的就是 AR.js,它在增强现实方面主要提供了如下三大功能:
- 图像追踪。当相机发现一幅 2D 图像时,可以在其上方或附近显示某些内容。内容可以是 2D 图像、gif、3D 模型(也可以是动画)和 2D 视频。案例:艺术品、学习资料(书籍)、传单、广告等等。
- 基于位置的 AR。这种“增强现实”技术利用了真实世界的位置,在用户的设备上显示增强现实的内容。开发者可以利用该库使用户获得基于现实世界位置的体验。用户可以随意走动(最好是在户外)并通过智能手机看到现实世界中任何地点的 AR 内容。若用户移动和旋转手机,AR 内容也会同步做出反应(这样一些 AR 内容就被“固定”到真实位置了,且会根据它们与用户的距离做出适当的变化)。这样的解决方案让我们做出交互式旅游向导成为可能,比如游客来到一个新的城市,游览名胜古迹、博物馆、餐馆、酒店等等都会更方便。我们也可以改善学习体验,如寻宝游戏、生物或历史学习游戏等,还可以将该技术用于情景艺术(视觉艺术体验与特定的现实世界坐标相结合)。
- 标记跟踪。当相机发现一个标记时,可以显示一些内容(这与图像跟踪相同)。标记的稳定性不成问题,受限的是形状、颜色和尺寸。可以应用于需要大量不同标记和不同内容的体验,如:(增强书籍)、传单、广告等。
开始上手体验 AR.js
开发调试开启 https
由于使用到摄像头敏感权限,调试时必须基于 https 环境打开才能正常运行。如果是以往,自己手动搭建个 https 环境调试对于很多新手来说还是比较麻烦耗费时间,好在最新的基于 vite+vue3 的脚手架搭建的项目,可以轻松用一行命令开启 https 访问。用脚手架初始化好代码之后,先修改 package.json 文件,在 dev 命令中加上--host 暴露网络请求地址(默认不开启),如下图:
接着用下面命令运行即可开启 https:
npm run dev -- --https
先跑跑官方 demo,看看效果
学习一门新框架或语言,最好的方式就是先将官方 demo 跑起来体验看看。
下面是官方代码展示的案例效果(注:该录制动图体积较大,请耐心等待加载)
wow ~ 是不是感觉还蛮有意思的?接下来正式进入文章的主题,开始撸猫吧
开始
前面有提到,AR.js 基于三种方式展示内容,下面将使用基于图像追踪(Image Tracking) 方式实现。顾名思义,图像追踪就是基于一张图片,根据图片的特性点识别图片并跟踪展示 AR 内容,例如当摄像头捕捉到该图片时,就可以将要展示的内容悬浮于该图片上方展示。
引入依赖库
Ar.js 从版本 3 开始采用了新的架构,使用jsartoolkit5[1]进行跟踪定位,而渲染库有两种方式可选:A-Frame 或 Three.js。A-Frame 方式就是通过 html 标签的方式简化创建场景素材,比如说展示一张图片,可以直接使用
修改 index.html 文件:
先将 vue 代码注入注释掉
然后引入依赖:
撸猫姿势一:展示猫图片
简单解释下上面的代码:
声明一个场景,你可以理解相当于一个 body 元素,里面嵌入其他标签元素; 标签声明的是标识图片,也就是相机识别到标识图片时,做相应的处理;这里采用插件预设的 hiro 图片,下面效果动图可以看到 - 使用
包裹使用到的素材,相当于声明引入素材,接着在 中使用
看下效果:
撸猫姿势二:播放视频
除了展示图片,还可以展示视频,先看效果:
代码如下:
:喵~是不是感觉更酷更好玩了?
撸猫姿势三:配合声网技术,与你家的猫隔空喊话
如果你是一位前端开发者,相信你一定知道阮一峰这个大佬。曾经在他的每周科技周刊看到这么一个有趣的事情:在亚马逊某片雨林里,安装了录音设备,实时将拾取到的鸟叫声传到一个网站,你可以打开该网站听到该片雨林里的实时鸟叫声,简单的说就是该网站可以听到该片雨林的”鸟叫直播 "。(可惜现在一时找不到该网站网址)
而作为工作党,爱猫人士的我们,可能有着上述同样的情感需求:要出差几天,家里的猫一时没法好好照顾,想要实时看到家里的爱猫咋办?
买台监控摄像头呗
当然是打开声网找到解决方案:
视频通话[2] (这里为声网文档点个赞,整个产品的文档分类规划的特别清晰,不像某些云服务产品文档像是垃圾桶里翻东西)
使用 vue3 写法改造文档 demo
先安装依赖包:
"agora-rtc-sdk-ng": "latest"
app.vue 中代码:
跑起来效果:
这时就相当于在家安装了一个摄像头,如果我们需要远程查看,就可以通过声网官方提供的一个测试地址[3]
加入通话手机打开上述网址,输入你的项目 appId 跟 token,可以看到成功加入通话:
下方图片是手机摄像头捕捉到的画面,原谅我用猫照片代替
让视频画面跑在 AR.js 画面中
这个由于个人时间关系,暂时就不研究实现。这里提供一个想法就是:单纯的视频画面看起来有点单调,毕竟有可能猫并不在视频画面中出现,结合撸猫姿势一提到的展示图片,其实我们可以在 ar 场景中视频区域周围,布置照片墙或其他酷炫一点的 subject,这样的话我们打开视频即使看不到猫星人,也可以看看它的照片之类的交互。
结束语
本文借征文活动,简单入手了解了下 web AR 相关知识,在这几天学习的过程中觉得还是蛮好玩的,此文也当抛砖引玉,希望更多开发者了解 AR 相关的知识。
AR 在体验上真的很酷,未来值得期待。
最近几年苹果一直致力于推进 AR 技术体验并带来相关落地产品,例如为了配合提升 AR 体验,带来雷达扫描,空间音频功能。值得一提的是,今年的苹果秋季发布会,苹果的邀请函也是利用到了 AR + 空间音频技术,即使你不是果粉,当你实际上手体验的时候,你依然会真正发自内心的感觉:wow ~ cool。可以点此视频[4]观看了解。
而目前的 Web AR 技术相比于苹果自有的 ARkit 技术,在体验上还存在一些差距(如性能问题,识别不稳定),同时缺乏生态圈,希望 Web AR 技术在未来得到快速发展,毕竟 web 端跨平台通用特性,让人人的终端都可以跑起来才是实现 AR 场景大规模应用的前提。
Facebook 押注的元宇宙概念中,其实也包含了 AR 技术,所以在元宇宙世界到来之前,AR 技术值得我们每一个前端开发者关注学习。
彩蛋
如果你问我最喜欢什么猫,我会说--“房东的猫”,~哈哈哈 ~
参考资料
[1]
https://github.com/artoolkitx/jsartoolkit5
[2]
https://docs.agora.io/cn/Video/start_call_web_ng?platform=Web
[3]
https://webdemo.agora.io/basicVideoCall/index.html
[4]
https://www.bilibili.com/video/BV1R3411i7LL?from=search&seid=17803327188398196779&spm_id_from=333.337.0.0
作者:码克吐温
https://juejin.cn/post/7030342557825499166
作者:码克吐温
https://juejin.cn/post/7030342557825499166