Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何在ARKit中使用环境贴图?
ARKit 2 0 添加了一个名为 AREnvironmentProbeAnchor 的新类 阅读它的说明 似乎 ARKit 可以自动收集环境纹理 立方体贴图 我相信我们现在可以创建一些反映真实环境的虚拟对象 但我仍然不清楚这是如何工作的
swift
augmentedreality
scenekit
ARKit
在 iPhone X 上的 ARKit ARSession 期间从前置摄像头录制视频
我正在使用一个ARSession结合一个ARFaceTrackingConfiguration来追踪我的脸 同时 我想从 iPhone X 的前置摄像头录制视频 为此 我使用AVCaptureSession但当我开始录音时ARSession
ios
swift
AVFoundation
ARKit
iphonex
如何在SceneKit / ARKit中使用SCNTechnique创建“蒙面”传送门效果?
我正在尝试了解如何将 SCNTechnique 与 Scenekit 结合使用 我试图创建的效果可以在 Unity 中轻松实现 方法是向两种材质添加自定义着色器 使具有 过滤 着色器的对象仅在通过其他着色器 门户 看到时才可见 我按照本教程
ios
Shader
scenekit
ARKit
scntechnique
在什么情况下 ARSCNView.raycastQuery 返回 nil?
在我的渲染器委托中 我从视图中心创建一个光线投射查询 以跟踪估计的平面并显示跟随光线投射结果的 3D 指针 它是通过以下方式完成的view raycastQuery from allowing alignment 但返回的是零 我的问题是为
swift
augmentedreality
scenekit
ARKit
hittest
使用光线投射时如何重新着色所有模型的零件?
我有一个fanfare reality我的模型arView来自现实作曲家 我进行光线投射entity at location 并启用ModelDebugOptionsComponent visualizationMode lightingD
swift
augmentedreality
ARKit
realitykit
SCNText - 背景“语音气泡”
如何将背景 例如 语音气泡 或矩形 插入到 SCNtext 中 具体来说 如果我插入 Hello World 作为 SCNText 显然作为场景中的 SCNNode 那么如何仅为该文本添加背景 它会是一个 UIimage 它将作为 SCNN
ARKit
scntext
ARKit节点100m后消失
我目前正在开发 ARKit SceneKit 应用程序 我注意到如果我把一个节点放在100m 节点将显示得很好 但如果我将其设置为101m或更远 它不会显示 这是距离限制吗 var translation matrix identity f
swift
augmentedreality
scenekit
ARKit
scncamera
Metal 文件作为 iOS 框架的一部分
我正在尝试创建一个与 METAL Api iOS 配合使用的框架 我对这个平台还很陌生 我想知道如何构建框架来使用 metal 文件 我正在构建一个静态库 而不是动态库 它们应该是 a 文件的一部分 还是作为框架包中的资源文件 或者还有其他
ios
metal
ARKit
如何在 RealityKit 中显示图库中的图像?
我想显示图库中的图像 我正在使用 imagePicker 加载图像 func imagePickerController picker UIImagePickerController didFinishPickingMediaWithInf
swift
augmentedreality
ARKit
realitykit
为什么使用 ARKit 和 RealityKit 会出现这么多调试错误?
在我的项目中 我只是包装了一个 ARView 设置了配置并在我的真实设备上运行它 当我启动应用程序 Xcode 时 打印出以下错误调试消息 2021 10 08 17 59 06 476537 0800 RealityKit Shell 8
swift
xcode
SwiftUI
ARKit
realitykit
如何从 ARKit 录制视频?
现在我正在测试 ARKit SceneKit 实现 屏幕的基本渲染有点工作 所以我想尝试将我在屏幕上看到的内容记录到视频中 只是为了记录我发现的场景套件这个要点 https gist github com lacyrhoades 7eb42
ios
opengles
scenekit
ARKit
使用ARAnchor插入节点和直接插入节点有什么区别?
在ARKit中 我发现了两种在hitTest之后插入节点的方法 插入 ARAnchor 然后在中创建节点renderer renderer SCNSceneRenderer nodeFor anchor ARAnchor gt SCNNod
swift
augmentedreality
ARKit
为什么 Xcode 显示的内存使用量比 Instruments for SceneKit 应用程序多得多?
我正在尝试调试为什么我们基于 SceneKit 的应用程序使用如此多的内存 但 Xcode 和 Instruments Allocations 似乎对所使用的内存量有非常不同的值 当我查看 Xcode 时 我看到类似的内容600 MB但是当
ios
scenekit
ARKit
在 RealityKit 中锚定多个场景
将多个场景 来自 Reality Composer 加载到 arView 时 场景不会锚定在同一空间中 在此示例中 scene1 在应用程序启动时加载 按下按钮后 scene2就被添加到场景中 在这两个场景中 模型都放置在原点 并预计与添加
swift
augmentedreality
ARKit
realitykit
realitycomposer
ARKit Stereo – 是否可以同时运行两个 ARSCNView?
我正在考虑对现有的 AR 应用程序进行一些修改 我想拆分视图并添加内部 2ARSCNView这样用户就可以使用VR卡盒并获得不同的体验 但Xcode总是返回给我 Session 0x102617d10 did fail with error
swift
augmentedreality
scenekit
ARKit
arscnview
以编程方式添加 ARSCNView
如何以编程方式添加 ARSCNView 如何设置宽度 高度和约束 class ViewController UIViewController var sceneView ARSCNView let configuration ARWorld
ios
swift
swift3
augmentedreality
ARKit
SceneKit – 获取相机方向
我需要找出相机正在看哪个方向 例如如果它正在寻找Z Z X or X 我尝试过使用eulerAngles 但偏航范围为0 gt 90 gt 0 gt 90 gt 0这意味着我只能检测相机是否朝向Z or X 如果它朝这些轴的正方向或负方向看
swift
Camera
scenekit
direction
ARKit
ARKit 放置一个面向相机的 SCNNode
我在用着ARKit显示 3D 对象 我设法将现实世界中的节点放置在用户 又称相机 面前 但当我放下它们时 我无法让它们面对镜头 let tap point CGPoint x x y y let results arscn view hit
ios
swift
ARKit
scnnode
arscnview
RealityKit 中的对象是否可以有一个基于位置的锚点?
我创建了一个效果很好的 AR 应用程序 但我并不喜欢每次在镜头前生成的物体 我更愿意让它们在这个区域中生成 距离相机更远 并面向预定的方向 例如 我希望每次都在同一个停车场空间中生成一辆车 因此当我走进停车场时 无论我从哪个方向进入停车场
swift
xcode
augmentedreality
ARKit
realitykit
displayTransform 调用后图像方向错误
我正在尝试从当前获取图像ARFrame通过使用 if let imageBuffer sceneView session currentFrame capturedImage let orientation UIApplication sh
swift
augmentedreality
ARKit
ciimage
cvpixelbuffer
«
1
2
3
4
5
6
»