PicoVR眼镜在XR融合现实显示模式下无法显示粒子问题

PicoVR眼镜开启XR融合现实显示模式下,Unity3D粒子效果无法显示问题,其原因是XR融合显示模式下,Unity3D应用显示层在最终合成到眼镜显示器时,驱动层先渲染摄像机画面,再以Alpha透明方式渲染应用层画面,问题就出在Alpha通道上:粒子显示位置的Alpha值为0。

究其原因,Unity3D在设置PicoXR视频融合模式时,需要将Camera设置为背景模式,背景色全黑,且背景色的Alpha值也为0。背景色的设置其实就是在BeginDraw时,用背景色清空渲染画布,值为0x00000000的背景色,初始画布为全黑透明画布。

渲染普通实体时,除了在画布上渲染颜色,还会将Alpha设置为255。而粒子一般用Additive叠加模式,其只会叠加画布颜色,不会修改画布Alpha透明度,导致最终合成时,粒子渲染颜色被替换为背景摄像机画面,看到的就是粒子画面全透明了,只有在实体表面才会有存留。

解决办法有两个:

其一是修改粒子的shader,让粒子shader渲染颜色同时,修改Alpha值。但这种方法要修改的东西很多,需要修改每个粒子的shader,工作量很大,而且不通用。

其二是增加一个后期shader,由后期shader统一处理最终提交给驱动的渲染画布。

操作如下:

1、创建一个后期着色器,在后期着色器中统一将有颜色的像素,根据色彩值修改Alpha值

c 复制代码
Shader "Hidden/AlphaByColor" {
    Properties {
        _MainTex ("Base (RGB)", 2D) = "white" {}
        _Threshold ("Alpha Threshold", Range(0,1)) = 0.05
    }

    SubShader {
        Cull Off ZWrite Off ZTest Always

        Pass {
            CGPROGRAM
            #pragma vertex vert
            #pragma fragment frag
            #include "UnityCG.cginc"

            struct v2f {
                float4 pos : SV_POSITION;
                float2 uv : TEXCOORD0;
            };

            sampler2D _MainTex;
            float _Threshold;

            v2f vert (appdata_img v) {
                v2f o;
                o.pos = UnityObjectToClipPos(v.vertex);
                o.uv = v.texcoord;
                return o;
            }

            fixed4 frag (v2f i) : SV_Target {
                fixed4 col = tex2D(_MainTex, i.uv);
                
                // 方法1:亮度检测
                float luminance = dot(col.rgb, float3(0.299, 0.587, 0.114));
                float newAlpha = smoothstep(_Threshold, _Threshold + 0.1, luminance);
                col.a = max(col.a, newAlpha);
                
                // 方法2:颜色通道检测(二选一)
                // float colorPresence = max(col.r, max(col.g, col.b));
                // col.a = step(_Threshold, colorPresence);
                
                return col;
            }
            ENDCG
        }
    }
}

2、挂载后期处理脚本

csharp 复制代码
using UnityEngine;

[ExecuteInEditMode]
public class AlphaPostProcess : MonoBehaviour
{
  public Material postProcessMaterial;
  [Range(0, 1)] public float threshold = 0.05f;

  void OnRenderImage(RenderTexture src, RenderTexture dest)
  {
    postProcessMaterial.SetFloat("_Threshold", threshold);
    Graphics.Blit(src, dest, postProcessMaterial);
  }
}

这样处理以后,粒子就可以正常叠加在实景画面上了。

相关推荐
学困昇2 分钟前
C++中的异常
android·java·c++
dotent·12 分钟前
C#基于WPF UI框架的通用基础上位机测试WPF框架
ui·c#·wpf
Jerry17 分钟前
问题记录 - Android IdleHandler 没有执行
android
没有了遇见33 分钟前
Android ButterKnife Android 35情况下 适配 Gradle 8.+
android
合作小小程序员小小店37 分钟前
桌面开发,超市管理系统开发,基于C#,winform,sql server数据库
开发语言·数据库·sql·microsoft·sqlserver·c#
方白羽1 小时前
Android多层嵌套RecyclerView滚动
android·java·kotlin
合作小小程序员小小店2 小时前
桌面开发,在线%超市销售管理%系统,基于vs2022,c#,winform,sql server数据
开发语言·数据库·microsoft·c#
菜就多学2 小时前
SurfaceControlViewHost 实现跨进程UI渲染
android·设计
2501_915106322 小时前
iOS App 测试工具全景分析,构建从开发调试到线上监控的多阶段工具链体系
android·测试工具·ios·小程序·uni-app·iphone·webview