Tag: 增强现实

有没有一个很好的教程来实现增强现实iPhone应用程序?

有没有什么好的教程或示例应用程序演示如何制作增强现实iPhone应用程序?

如何从增强现实开始?

我目前是计算机科学的本科生,明年我将进入我的最后一年。 增强现实是我发现的一个非常有趣的话题,但我不知道从哪里开始学习。 你从哪里开始学习这个主题,以及有哪些库可用?

像MSQRD / SnapChat的脸部filter实现

我想开发生动的脸部filter作为MSQRD / Snapchat实时filter,但无法find我应该如何继续我应该使用增强现实框架和检测面部或使用核心图像来检测面部和相应的过程。 请让我知道,如果有人有这个想法如何实施相同?

ARKit vs. ARCore vs. Vuforia vs. D'Fusion Mobile vs. Layar SDK

我很想知道,每个基于视觉的移动增强现实框架的优缺点在哪里? 在什么情况下应该决定什么? 你会selectVuforia ,因为它是免费的,没有品牌? 其中一个框架中缺less哪些重要function? Metaio SDK的免费版本是否有限制(品牌和Metaio闪屏除外)? 我认为这些是支持iOS和Android的最重要的框架。 我知道,metaio支持电影纹理和MD2(animation)导出和Vuforia没有(至less不在基本状态)。 编辑: 这是一个3小时的会议,回顾了市场上最好的移动AR SDK,以及如何开始使用它们: 教程:面向开发人员的十大增强现实SDK 您还应该从增强现实实验室SL中检查出ARLab 。这个AR-SDK具有用于AR浏览器,图像匹配,图像跟踪,3D引擎,虚拟button的不同的AR-SDK。 但这不是免费的。 Wikitude的ARchitect SDK有Vuforia-Extension和Blackberry 10支持。 这也可能是非常有趣的。 Layar SDK现在可用于iOS和Android,具有3D,animation,ARvideo和QR码扫描仪 DARAM也为Android,iOS,Windows 8和Mac显示了一个很好的SDK。 ARPA有一个Unity插件和一个Google Glass SDK。 以下是增强现实SDK和框架的比较图 苹果已经收购了Metaio。 Metaio的未来不确定。 (2015年5月28日) Magic Leap宣布其为Unreal和Unity增强现实开发者SDK Vuforia现在已经支付了许可证,并且可以在没有水印的情况下演示应用程序,而无需使用自己的免费Starter计划 – 现在只有在特定date的第一次应用程序推出时才会显示。 这是为了支持那些想要为客户做演示而不显示水印的开发者。 (2015年5月6日),Qualcomm将其Vuforia业务出售给PTC(2015年10月12日) ARKit iOS 11引入了ARKit,这是一个新的框架,允许您轻松地为iPhone和iPad创build无与伦比的增强现实体验。 通过将数字对象和信息与周围的环境相结合,ARKit将应用程序移出屏幕,以全新的方式释放它们与真实世界的交互。 (Juni 2017) ARCore是在Android上构build增强现实应用程序的平台。 ARCore使用三项关键技术将虚拟内容与真实世界整合在一起,如通过手机相机所看到的。 (2017年8月)

增强现实框架

我正计划开发Android手机的增强现实应用程序。 有没有人知道是否有任何现有的增强现​​实框架可以用于这种应用?

OpenCV增强现实SDK

我正在OpenCV上开发增强现实SDK。 我遇到了一些问题,需要find关于这个主题的教程,其中包括可能的algorithm,快速高效的实时性能编码等。 到目前为止,我已经收集了下一个信息和有用的链接。 OpenCV安装 下载最新版本 。 你可以在这里find安装指南(平台:linux,mac,windows,java,android,iOS)。 在线文档 。 增强现实 在这里, begginer是OpenCV中的一个简单的增强现实代码。 这是一个好的开始。 对于任何寻求devise良好的最新SDK的人来说,我都会考虑到OpenCVfunction的基础上,每个基于标记跟踪的增强现实应该具备的一些通用步骤。 主程序:创build所有类,初始化,从video捕获帧。 AR_Engine类:控制增强现实应用程序的各个部分。 应该有两个主要状态: 检测 :尝试检测场景中的标记 跟踪 :一旦检测到,使用较低的计算技术在即将到来的帧中对标记进行拖拽。 还应该有一些algorithm来找出在每一帧的相机的位置和方向。 这是通过检测在场景中检测到的标记与离线处理的标记的2D图像之间的单应性变换来实现的。 这里解释这个方法(第18页)。 姿态估计的主要步骤是: 加载相机内在参数 。 以前通过校准离线提取。 加载模式 (标记)进行跟踪:这是我们要跟踪的平面标记的图像。 有必要提取特征并生成这个模式的描述符( 关键点 ),以便我们可以与场景中的特征进行比较。 这项任务的algorithm: 筛 快速 冲浪 对于每个帧更新,运行检测algorithm以从场景中提取特征并生成描述符。 我们再次有几个select。 筛 快速 冲浪 FREAK :一种新的方法(2012年)被认为是最快的。 ORB 查找模式和场景描述符之间的匹配 。 FLANN匹配器 从这些匹配中找出Homographymatrix。 之前可以使用RANSAC来查找一组比赛中的内线/外线。 从单应性提取相机姿势 。 来自Homography的姿势示例代码。 来自Pose的同形示例代码。 完整的例子: […]

如何将语音识别添加到Unity项目?

我目前正在使用Vuforia的增强现实项目,使用语音识别来控制Unity中的对象。 我只是期待着一个教程,但我找不到一个。 你能指导我从哪里开始呢! 非常感谢您的帮助!

基于4个共面点的单应matrix计算相机姿态

我在video(或图像)中有4个共面点,代表一个四边形(不一定是正方形或矩形),我希望能够在其上方显示一个虚拟立方体,其中立方体angular落正好位于angular落的video四。 由于点是共面的,我可以计算单位正方形(即[0,0] [0,1] [1,0] [1,1])的angular点和四边形的video坐标之间的单应性。 从这个单应性我应该能够计算一个正确的相机姿态,即[R | t]其中R是一个3×3的旋转matrix,t是一个3×1的平移vector,以便虚拟立方体位于video四边形上。 我已经阅读了很多解决scheme(其中一些是关于SO的),并试图实现它们,但是它们似乎只能在一些“简单”的情况下工作(比如当video四边形是正方形时),但在大多数情况下不起作用。 这里是我尝试的方法(大多数是基于相同的原则,只有翻译的计算略有不同)。 设K是相机的固有matrix,H是单应matrix。 我们计算: A = K-1 * H 令a1,a2,a3为A的列向量,r1,r2,r3为旋转matrixR的列向量。 r1 = a1 / ||a1|| r2 = a2 / ||a2|| r3 = r1 x r2 t = a3 / sqrt(||a1||*||a2||) 问题是这在大多数情况下不起作用。 为了检查我的结果,我将R和t与OpenCV的solvePnP方法(使用以下3D点[0,0,0] [0,1,0] [1,0,0] [1,1 ,0])。 由于我以相同的方式显示立方体,所以我注意到在每种情况下solvePnP提供了正确的结果,而从单应性得到的姿态大多是错误的。 从理论上讲,因为我的观点是共面的,所以可以从单应计算姿态,但是我找不到从H计算姿势的正确方法。 任何见解我做错了什么? 尝试@ Jav_Rock的方法后编辑 嗨Jav_Rock,非常感谢您的回答,我尝试了您的方法(以及其他许多方面),这似乎是或多或less的好。 不过,我在计算基于4个共面点的姿势时仍然碰到一些问题。 为了检查结果,我将它与solvePnP的结果进行了比较(由于迭代重投影误差最小化方法,结果会好得多)。 这里是一个例子: 黄色立方体:解决PNP 黑魔方:Jav_Rock的技术 […]