Q:模型加载到场景中,贴图错乱,工具自测无误。
A:替换最新的shader文件
Q: 模型格式 ?
A :是FBX转POD
Q:模型无法点击
A:"allSubnodeTouchable": 0
或"podSuppl": {
"allSubnodeTouchable": 0,
"touchableSubnodeList": [
"subNodeName1",
"subNodeName2",
"subNodeName3"
]
},
Q:UI 按钮设置
A:随屏按钮 序列帧
Q:是否支持max灯光
A:maya灯光导入可以使用,max灯光导入差异大
Q:一次性发射全部粒子特效
A:设置每秒喷射数*60 喷射次数为1
Q:序列帧“frameInterval”每个单位代表多长时间
A:frameInterval = 2代表引擎每渲染2帧播放一帧序列帧,引擎的帧率目前在30,1帧是1/30s
Q:不同手机播放序列帧的速度不同
A:1. 降低序列帧帧率,对应调整frameInterval属性
2.降低序列帧图片分辨率
3.改用视频/透明视频实现
Q:华为手机播放蒙版视频,只有声音没有图像
A:华为一部分机型对视频分辨率有限制,视频分辨率不能超过2K,即 1920*1080
Q : 延迟函数延迟出现问题 ?
A : 在延迟函数中再次调用延迟函数会出现累积误差
Q:如何动态改变直线光的方向
A:set_light_direction接口设置灯光的方向
Q:模型的position字段单位
A:坐标系的单位长度,参照3D模型的单位长度
Q:序列帧和视频的渲染顺序不一样导致序列帧在视频上方显示为不透明
A:在json里调整序列帧位置,放在视频之后,transparentObject:0
Q:如何设置模型的环境光
A:环境光是对材质做的渲染,需在materialExtend字段中拿到模型的的材质名
Q:如何使物体随屏
A:2D配置为随屏元素
3D通过设置相机姿态实现
打开imu不随屏
Q:如何设置一个模型移动
A:开热区,将不需要移动的模型热区设置为0
Q:拍照时能否隐藏UI
A:不能
Q : 天空盒不显示引导箭头 ?
A : 进入天空盒后有一个默认视角,不会根据手机方向变化调整且不会显示离屏引导。
A :app:get_version:获取当前ARSDK版本号
app:get_platform_name:获得当前手机系统
Q:如何关闭识图
A:目前不能关闭识别,手百10.0会提供接口在Lua层关闭识图
Q:播放视频太多造成卡顿
A:调用stop()接口
Q:引擎支持半透么
A:支持,但是透明部分要单独拆出来
A: IMU+天空盒的项目 如果要求IMU必须有引导剪头,可以将天空盒单独作为一个场景。
Q:用户交互有哪些 ?
A:移动 旋转 缩放 点击 滑动
Q:如何将图片和模型一起操控 ?
A :group类型节点可以把图片和模型放在一起操控
Q :如何对单独对模型子节点进行操作
A :scene.podname_podchildrenname:set_entity_touch_zone_radius(0)
Q: 拍照按钮是否可以禁用 ?
A :拍照录像不可禁用
Q: 动态换贴图不生效问题 ?
A :replace_texture(string texture_dir,string texture_name),texturename一般写map,提示不支持texturetype可改成uDiffuseTexture
有些言简意赅
这个是官方贴吗?
你好,问题已经解决了,谢谢!
请问你在上传触发图时, 上传了几张图片? 上传完触发图后是否上传了主资源包 ?
空模板内容制作,上传完识别图,已经过了十几个小时了,在内容平台刷新之后,还是提示两分钟后刷新页面,无法生成跟踪模型,请问这是官方服务器的问题还是?
在内容制作平台,制作空模版内容,上传识别图后点击下一步,一直是正在生成识别模型,过了好几分钟刷新,还是没生成,这是什么原因?
美工的话, 目前可以通过我们提供的demo 和 sample , 将你制作好的pod模型导出我们的主资源包内 , 上传平台实现效果
必须要有自己的app才能创建AR应用吗? 美工怎么快速创建展示3d模型 不用太多编程
iOS端 我集成进去后 直接报了个 网络不给力
控制台打印如下:
我试过IMU的,一直是资源解析失败,然后我换回带触发图的空模版,也是资源解析失败。
还有个小问题,内容制作平台上,比如我之前创建了一个内容项目,后来把它删了,再创建新内容时项目名称不能和原来的名字一样,即使原来的已经删了,不然系统会出错,这是什么原因?
好的,我试试IMU类型的
这是跟踪类的case, 需要一张对应的触发图来激活场景, 建议先使用IMU的, 比较直观的看到效果
这是跟踪类的case, 需要一张对应的触发图来激活场景, 建议先使用IMU的, 比较直观的看到效果
我参照的是2D Tracking
具体是哪个sample ? 如果是目前github上放的sample 应该都是我们测试过的 不会有问题
你好,我已经把制作的内容及存储都删了,你可能在后台找不到。
我是根据samples文件夹下的示例制作的资源包,你说的资源包有问题是格式问题还是?
1. 这里点击下载的资源包既是你上传的资源包
2. 解析失败证明上传的资源包有问题
3. 如果你是接入SDK的话, 只能将资源传到平台, 本地不行
你的项目上传的渠道应该是你自己的、我稍后通过后台看看你的资源包
上传完自己的主资源包后,在管理后台有这个主资源包的下载链接,可是我下载下来后里面没有我之前上传的资源。
最关键的是在客户端app上一直是资源解析失败,没办法进行ar识别。
还有,如果我做本地识别,需要在内容平台上传资源吗?如果不需要,本地识别的资源应该放哪?
你上传平台以后, 应该会有两个资源包 你说的应该是训练成的跟踪模型文件, 主资源包是你自己上传的, 系统不会生成主资源包