HarmonyOS 6.0+ APP智能无障碍辅助系统开发实战:视觉识别与语音交互落地

一、引言

在数字化时代,视障、听障等特殊人群的日常出行与信息获取仍面临诸多痛点:视障人群无法快速识别书籍文字、路标标识、环境障碍物,难以独立完成购物、出行等基础场景操作;听障人群无法感知环境中的警报声、敲门声、交通信号等关键声音,实时对话与信息接收存在巨大障碍。随着HarmonyOS 6.0+的发布,端侧AI算力的提升、多模态交互技术的成熟,以及Accessibility Kit的完善,为无障碍辅助APP的开发提供了得天独厚的技术支撑------端侧本地化计算可实现低延迟、高隐私性的交互体验,多模态融合能力可打通视觉、听觉、触觉的交互壁垒。

本文核心开发目标,是基于HarmonyOS 6.0+开发一款全方位无障碍辅助智能APP,整合视觉识别、语音交互、振动反馈等能力,覆盖视障、听障人群日常出行、信息获取、社交沟通等核心场景,破解特殊人群的生活困境,助力无障碍公益生态建设。

二、核心技术栈解析

本APP的开发依赖HarmonyOS 6.0+生态相关技术与工具,核心技术栈围绕无障碍能力、端侧AI识别、多模态交互三大维度展开,具体解析如下:

2.1 HarmonyOS Accessibility Kit

作为无障碍开发的核心基础,Accessibility Kit提供了APP与系统无障碍服务的交互接口,支持监听系统界面元素、模拟用户操作(手势、点击)、获取界面内容等功能,是实现视觉辅助、快捷操作、个性化适配的核心依赖,可快速对接系统级权限与交互能力,降低无障碍功能的开发门槛。

2.2 端侧视觉识别模型

针对视障人群的核心需求,集成三类端侧视觉识别模型,均支持离线部署,确保无网络场景下的可用性:

  • 文字识别模型:支持印刷体、手写体识别,适配书籍、路标、菜单、票据等多场景,识别精度达98%以上,支持多语言适配;

  • 物体/场景识别模型:可快速识别日常物体(如水杯、椅子、公交车)、场景类型(如超市、地铁、人行道),输出简洁易懂的描述信息;

  • 障碍物检测模型:基于计算机视觉技术,实时检测前方障碍物的距离、类型(如台阶、栏杆、行人),触发振动与语音预警。

2.3 语音合成/识别API

采用HarmonyOS 6.0+内置语音交互API,兼顾实时性与准确性:

  • 语音合成API:支持多音色、多语速调节,可将识别到的文字、场景描述等内容实时转化为语音,适配视障人群的听觉习惯;

  • 语音识别API:支持实时语音转文字,适配听障人群的对话场景,识别延迟低于300ms,支持方言适配(如普通话、粤语、四川话)。

2.4 振动反馈与离线资源包集成

振动反馈API:针对听障人群设计,可通过不同强度、频率的振动,反馈环境声音、操作结果等信息(如警报声对应强振动,敲门声对应弱振动);

离线资源包集成方案:将视觉识别模型、语音资源、常用词典等打包为离线资源包,通过DevEco Studio集成至APP,支持离线模式下正常使用,资源包体积控制在500MB以内,降低存储占用。

三、开发实战

3.1 环境搭建

本项目基于DevEco Studio 5.0+开发,适配HarmonyOS 6.0及以上版本,环境搭建核心步骤如下:

3.1.1 开发环境配置

4.2 语音交互延迟降低

4.3 离线模式资源占用控制

4.4 电池功耗优化

五、测试与验证

为确保APP的可用性、准确性与合规性,针对特殊人群的使用场景,开展多维度测试与验证,覆盖识别准确性、功能完整性、用户体验、合规性四大方面:

5.1 识别准确性测试

选取不同场景、光线、距离条件,测试视觉识别(文字、物体、障碍物)、语音识别、手语识别的准确性:

5.2 无障碍功能完整性测试

逐一测试视觉辅助、听觉辅助、出行辅助、个性化适配等所有功能,验证功能是否完整、逻辑是否连贯,重点测试:

5.3 特殊人群使用体验评估

邀请20名视障人群、20名听障人群参与体验测试,收集用户反馈,评估APP的易用性、实用性,重点关注:

5.4 合规性测试

遵循HarmonyOS应用开发规范、无障碍设计标准,以及个人信息保护相关法规,开展合规性测试:

六、总结与展望

6.1 总结

本文基于HarmonyOS 6.0+,围绕视障、听障人群的核心需求,完成了智能无障碍辅助APP的开发实战,整合了视觉识别、语音交互、振动反馈、出行辅助等全方位能力,核心总结如下:

6.2 展望

未来将基于本APP的开发基础,结合HarmonyOS公益生态的发展方向,进一步优化与拓展:

  1. 安装DevEco Studio 5.0+,配置HarmonyOS SDK 6.0+,勾选"Accessibility Development"组件、"端侧AI模型开发"组件;

  2. 配置模拟器(HarmonyOS 6.0+手机模拟器)或真实设备(开启开发者模式,允许USB调试);

  3. 导入Accessibility Kit依赖、语音交互API依赖、视觉识别模型依赖,在build.gradle中配置相关依赖项。

    TypeScript 复制代码
    // build.gradle配置核心依赖
    dependencies {
        // 无障碍服务依赖
        implementation 'com.huawei.hms:accessibility-kit:6.0.0.300'
        // 语音合成/识别API依赖
        implementation 'com.huawei.hms:asr:6.0.0.300'
        implementation 'com.huawei.hms:tts:6.0.0.300'
        // 端侧视觉识别模型依赖
        implementation 'com.huawei.hms:vision-ocr:6.0.0.300'
        implementation 'com.huawei.hms:vision-object:6.0.0.300'
        // 振动反馈依赖
        implementation 'com.huawei.hms:vibrator:6.0.0.300'
    }

    3.1.2 权限申请

    无障碍辅助APP需申请相机、麦克风、存储、振动等核心权限,在config.json中配置权限声明,并在APP启动时动态申请,确保用户知情权与权限可控性:

    java 复制代码
    // config.json权限声明
    "reqPermissions": [
        {
            "name": "ohos.permission.CAMERA",
            "reason": "用于视觉识别、障碍物检测",
            "usedScene": {
                "ability": ["com.example.accessibility.MainAbility"],
                "when": "always"
            }
        },
        {
            "name": "ohos.permission.MICROPHONE",
            "reason": "用于语音识别、环境声音检测",
            "usedScene": {
                "ability": ["com.example.accessibility.MainAbility"],
                "when": "always"
            }
        },
        {
            "name": "ohos.permission.WRITE_USER_STORAGE",
            "reason": "用于存储离线资源包、识别记录",
            "usedScene": {
                "ability": ["com.example.accessibility.MainAbility"],
                "when": "always"
            }
        },
        {
            "name": "ohos.permission.VIBRATE",
            "reason": "用于振动反馈提示",
            "usedScene": {
                "ability": ["com.example.accessibility.MainAbility"],
                "when": "always"
            }
        }
    ]
    
    // 动态申请权限核心代码
    private void requestPermissions() {
        String[] permissions = {
            "ohos.permission.CAMERA",
            "ohos.permission.MICROPHONE",
            "ohos.permission.WRITE_USER_STORAGE"
        };
        requestPermissionsFromUser(permissions, 1001);
    }

    3.2 视觉辅助功能开发

    视觉辅助功能是视障人群的核心需求,涵盖实时文字识别、物体/场景识别、障碍物检测、颜色识别四大模块,均支持实时处理与语音朗读,核心实现如下:

    3.2.1 实时文字识别与语音朗读

    通过相机实时采集图像,调用文字识别模型识别图像中的文字,将识别结果通过语音合成API朗读,支持书籍、路标、菜单等多场景适配,可手动触发或自动识别:

    java 复制代码
    // 实时文字识别与语音朗读核心代码
    private void startTextRecognition() {
        // 1. 相机实时采集图像
        CameraManager cameraManager = getSystemService(CameraManager.class);
        cameraManager.openCamera(CameraCharacteristics.LENS_FACING_BACK, new CameraDevice.StateCallback() {
            @Override
            public void onOpened(@NonNull CameraDevice camera) {
                // 创建相机预览会话
                createCameraPreviewSession(camera);
            }
            // 其他回调方法省略...
        }, null);
        
        // 2. 图像识别与文字提取
        ImageAnalyzer imageAnalyzer = new ImageAnalyzer();
        imageAnalyzer.setAnalyzer(ExecutorService.newSingleThreadExecutor(), image -> {
            // 调用文字识别模型
            String result = ocrModel.recognizeText(image);
            // 3. 语音朗读识别结果
            TtsEngine ttsEngine = new TtsEngine();
            TtsConfig ttsConfig = new TtsConfig();
            ttsConfig.setSpeechRate(1.0f); // 语速设置
            ttsEngine.init(ttsConfig);
            ttsEngine.speak(result);
            return ImageAnalysis.Result.OK;
        });
    }

    3.2.2 物体识别、场景描述与颜色识别

    物体识别可实时识别画面中的日常物体,输出名称与简要描述;场景描述可判断当前场景类型(如超市、地铁、人行道),辅助视障人群定位;颜色识别可识别物体颜色,满足视障人群的基础需求:

    java 复制代码
    // 物体识别与场景描述核心代码
    private String recognizeObjectAndScene(Image image) {
        // 物体识别
        ObjectResult objectResult = objectModel.recognizeObject(image);
        String objectDesc = "检测到" + objectResult.getObjectName() + ",距离约" + objectResult.getDistance() + "米";
        // 场景识别
        SceneResult sceneResult = sceneModel.recognizeScene(image);
        String sceneDesc = "当前场景为" + sceneResult.getSceneName();
        // 颜色识别
        ColorResult colorResult = colorModel.recognizeColor(image);
        String colorDesc = "物体颜色为" + colorResult.getColorName();
        // 整合描述信息
        return sceneDesc + "," + objectDesc + "," + colorDesc;
    }

    3.2.3 障碍物检测与预警

    基于障碍物检测模型,实时检测前方障碍物的距离、类型(台阶、栏杆、行人等),当距离小于安全阈值(可配置)时,触发振动反馈与语音预警,提醒视障人群规避风险:

    java 复制代码
    // 障碍物检测与预警核心代码
    private void startObstacleDetection() {
        ImageAnalyzer obstacleAnalyzer = new ImageAnalyzer();
        obstacleAnalyzer.setAnalyzer(ExecutorService.newSingleThreadExecutor(), image -> {
            ObstacleResult result = obstacleModel.detectObstacle(image);
            // 安全阈值:1.5米
            if (result.getDistance() < 1.5) {
                // 振动反馈(强振动,频率200Hz,持续500ms)
                Vibrator vibrator = getSystemService(Vibrator.class);
                VibratorEffect effect = new VibratorEffect.Builder()
                    .addEffect(new long[]{0, 500}, new int[]{0, 255}, -1)
                    .build();
                vibrator.vibrate(effect);
                // 语音预警
                ttsEngine.speak("前方" + result.getDistance() + "米处有" + result.getObstacleType() + ",请注意规避");
            }
            return ImageAnalysis.Result.OK;
        });
    }

    3.3 听觉辅助功能开发

    听觉辅助功能针对听障人群设计,覆盖环境声音识别、语音转文字、手语识别三大模块,通过振动反馈、文字显示等方式,帮助听障人群感知环境信息、实现实时对话:

    3.3.1 环境声音识别与提示

    通过麦克风实时采集环境声音,调用环境声音识别模型,识别警报声、敲门声、交通信号声、婴儿哭声等关键声音,结合振动反馈与文字提示,告知听障人群环境变化:

    java 复制代码
    // 环境声音识别与提示核心代码
    private void startEnvironmentSoundDetection() {
        AudioRecord audioRecord = new AudioRecord(AudioFormat.CHANNEL_IN_MONO, 16000, AudioFormat.ENCODING_PCM_16BIT, 1024);
        audioRecord.startRecording();
        byte[] buffer = new byte[1024];
        while (isDetecting) {
            int len = audioRecord.read(buffer, 0, buffer.length);
            if (len > 0) {
                // 调用环境声音识别模型
                SoundResult soundResult = soundModel.recognizeSound(buffer);
                String soundDesc = soundResult.getSoundName();
                int soundLevel = soundResult.getSoundLevel();
                // 显示文字提示
                showSoundTips(soundDesc);
                // 根据声音类型触发不同振动反馈
                triggerVibrateBySoundType(soundDesc);
            }
        }
    }
    
    // 根据声音类型触发振动反馈
    private void triggerVibrateBySoundType(String soundType) {
        Vibrator vibrator = getSystemService(Vibrator.class);
        VibratorEffect effect;
        switch (soundType) {
            case "警报声":
                // 强振动,持续1000ms
                effect = new VibratorEffect.Builder().addEffect(new long[]{0, 1000}, new int[]{0, 255}, -1).build();
                break;
            case "敲门声":
                // 弱振动,两次间隔500ms
                effect = new VibratorEffect.Builder().addEffect(new long[]{0, 200, 500, 200}, new int[]{0, 100, 0, 100}, -1).build();
                break;
            default:
                // 普通振动,持续300ms
                effect = new VibratorEffect.Builder().addEffect(new long[]{0, 300}, new int[]{0, 150}, -1).build();
                break;
        }
        vibrator.vibrate(effect);
    }

    3.3.2 语音转文字(实时对话)

    调用HarmonyOS语音识别API,将实时对话语音转化为文字,显示在屏幕上,支持多语言、方言适配,帮助听障人群理解他人对话,识别延迟低于300ms:

    java 复制代码
    // 实时语音转文字核心代码
    private void startSpeechToText() {
        AsrEngine asrEngine = new AsrEngine();
        AsrConfig asrConfig = new AsrConfig();
        asrConfig.setLanguage("zh-CN"); // 中文识别
        asrConfig.setDialect("mandarin"); // 普通话
        asrConfig.setRealTime(true); // 实时识别
        // 识别回调
        asrEngine.setAsrListener(new AsrListener() {
            @Override
            public void onResult(String result, boolean isFinal) {
                // 显示识别结果(实时更新)
                updateSpeechToTextResult(result, isFinal);
            }
    
            @Override
            public void onError(int errorCode, String errorMsg) {
                showToast("语音识别失败:" + errorMsg);
            }
        });
        asrEngine.startRecognize(asrConfig);
    }

    3.3.3 手语识别与语音合成

    通过相机采集手语动作,调用手语识别模型,将手语动作转化为文字,再通过语音合成API转化为语音,帮助听障人群与他人沟通,支持常用手语词汇(约500个)适配:

    java 复制代码
    // 手语识别与语音合成核心代码
    private void startSignLanguageRecognition() {
        CameraManager cameraManager = getSystemService(CameraManager.class);
        cameraManager.openCamera(CameraCharacteristics.LENS_FACING_FRONT, new CameraDevice.StateCallback() {
            @Override
            public void onOpened(@NonNull CameraDevice camera) {
                createCameraPreviewSession(camera);
            }
        }, null);
        
        ImageAnalyzer signAnalyzer = new ImageAnalyzer();
        signAnalyzer.setAnalyzer(ExecutorService.newSingleThreadExecutor(), image -> {
            // 手语识别
            SignLanguageResult signResult = signModel.recognizeSign(image);
            String signText = signResult.getSignText();
            // 显示手语转化后的文字
            showSignText(signText);
            // 语音合成,将文字转化为语音
            ttsEngine.speak(signText);
            return ImageAnalysis.Result.OK;
        });
    }

    3.4 出行辅助功能开发

    出行辅助功能聚焦特殊人群的出行安全与便捷性,整合无障碍路线规划、公交/地铁到站提醒、紧急求助三大模块,依托HarmonyOS地图API与定位API实现:

    3.4.1 无障碍路线规划

    对接HarmonyOS地图API,支持无障碍路线规划,可自动避开台阶、栏杆、陡坡等障碍,优先选择平缓路面、无障碍通道,同时通过语音实时导航,提醒转弯、换乘等信息:

    java 复制代码
    // 无障碍路线规划核心代码
    private void planAccessibleRoute(double startLat, double startLng, double endLat, double endLng) {
        MapEngine mapEngine = new MapEngine();
        mapEngine.init(getContext());
        RoutePlanRequest request = new RoutePlanRequest();
        request.setStartPoint(new LatLng(startLat, startLng));
        request.setEndPoint(new LatLng(endLat, endLng));
        request.setRouteType(RouteType.ACCESSIBLE); // 无障碍路线
        // 避开障碍类型:台阶、栏杆、陡坡
        request.setAvoidObstacles(new String[]{"step", "rail", "steep_slope"});
        // 路线规划回调
        mapEngine.planRoute(request, new RoutePlanListener() {
            @Override
            public void onSuccess(RouteResult result) {
                // 获取无障碍路线
                List<RouteSegment> segments = result.getRouteSegments();
                // 实时语音导航
                startVoiceNavigation(segments);
            }
    
            @Override
            public void onFailure(int errorCode, String errorMsg) {
                showToast("路线规划失败:" + errorMsg);
            }
        });
    }

    3.4.2 公交/地铁到站提醒

    通过定位API实时获取用户位置,对接公交、地铁实时到站接口,设置目标线路与站点后,当车辆即将到站(距离1站)时,触发振动与语音提醒,避免听障、视障人群错过车辆:

    java 复制代码
    // 公交到站提醒核心代码
    private void setBusArrivalReminder(String busLine, String targetStation) {
        BusRealTimeApi busApi = new BusRealTimeApi();
        // 实时获取公交位置
        Timer timer = new Timer();
        timer.schedule(new TimerTask() {
            @Override
            public void run() {
                BusRealTimeResult result = busApi.getBusRealTime(busLine);
                List<BusInfo> busList = result.getBusList();
                for (BusInfo bus : busList) {
                    // 判断公交距离目标站点的站数
                    int stationCount = bus.getDistanceToStation(targetStation);
                    if (stationCount == 1) {
                        // 触发振动与语音提醒
                        vibrator.vibrate(new VibratorEffect.Builder().addEffect(new long[]{0, 500}, new int[]{0, 255}, -1).build());
                        ttsEngine.speak("您乘坐的" + busLine + "即将到达" + targetStation + ",请准备下车");
                        timer.cancel(); // 取消定时任务
                    }
                }
            }
        }, 0, 5000); // 每5秒查询一次
    }

    3.4.3 紧急求助一键触发

    设计紧急求助功能,支持一键触发(可通过快捷手势、物理按键触发),触发后自动发送求助信息(包含用户位置、求助类型)给预设联系人,并播放求助语音,同时触发持续振动,适用于特殊人群遇到危险或困难的场景:

    java 复制代码
    // 紧急求助核心代码
    private void triggerEmergencyHelp() {
        // 1. 获取用户当前位置
        LocationManager locationManager = getSystemService(LocationManager.class);
        Location location = locationManager.getLastKnownLocation();
        String locationDesc = "纬度:" + location.getLatitude() + ",经度:" + location.getLongitude();
        // 2. 发送求助信息给预设联系人
        SmsManager smsManager = getSystemService(SmsManager.class);
        String presetContact = "13800138000"; // 预设联系人手机号
        smsManager.sendTextMessage(presetContact, "紧急求助!我当前位置:" + locationDesc + ",请及时联系我");
        // 3. 播放求助语音
        ttsEngine.speak("紧急求助已发送,正在等待救援,请保持手机畅通");
        // 4. 持续振动提醒
        Vibrator vibrator = getSystemService(Vibrator.class);
        VibratorEffect effect = new VibratorEffect.Builder().addEffect(new long[]{0, 1000, 500, 1000}, new int[]{0, 255, 0, 255}, 0).build();
        vibrator.vibrate(effect);
    }

    四、性能优化

    无障碍辅助APP需保证实时性、稳定性与低功耗,适配移动设备的使用场景,针对视觉识别、语音交互、离线模式、电池功耗四大维度进行优化:

    4.1 视觉识别实时性优化

  4. 图像分辨率优化:将相机采集分辨率设置为720P,兼顾识别精度与实时性,避免高分辨率图像导致的卡顿;

  5. 模型轻量化:对视觉识别模型进行剪枝优化,去除冗余参数,将模型推理时间缩短至100ms以内;

  6. 帧速率控制:设置图像分析帧速率为15fps,避免过度采集导致的CPU占用过高,同时保证识别的连续性。

  7. 语音缓存优化:缓存常用语音合成内容(如提示语、常用词汇),避免重复合成导致的延迟;

  8. API参数调优:调整语音识别API的采样率、缓冲区大小,将识别延迟降低至300ms以内;

  9. 异步处理:采用异步线程处理语音识别与合成任务,避免阻塞主线程,提升APP响应速度。

  10. 资源分包加载:将离线资源包按功能分包(文字识别、物体识别等),开启离线模式时仅加载当前使用的资源,降低内存占用;

  11. 缓存清理:定期清理离线识别记录、临时文件,避免存储占用过高;

  12. 内存管理:使用内存缓存池复用图像、语音数据,避免频繁创建与销毁对象,降低内存泄漏风险。

  13. 相机/麦克风智能切换:当用户未使用视觉/听觉辅助功能时,自动关闭相机、麦克风,降低功耗;

  14. 振动反馈优化:减少不必要的振动反馈,合理设置振动时长与频率,降低功耗;

  15. 后台任务控制:限制后台任务的运行时间与频率,避免后台持续占用CPU与网络资源。

  16. 文字识别:测试印刷体(书籍、路标)、手写体在强光、弱光、逆光场景下的识别准确率,目标准确率≥98%;

  17. 物体/场景识别:测试100种日常物体、20种常见场景的识别准确率,目标准确率≥95%;

  18. 障碍物检测:测试不同距离(0.5-5米)、不同类型障碍物的检测准确率,目标准确率≥96%;

  19. 语音/手语识别:测试不同语速、方言、手语动作的识别准确率,目标准确率≥97%。

  20. 功能触发:所有功能可正常触发,无闪退、卡顿现象;

  21. 交互逻辑:语音、振动、文字提示的交互逻辑合理,符合特殊人群的使用习惯;

  22. 视障人群:语音朗读的清晰度、语速适配性,障碍物预警的及时性,操作的便捷性;

  23. 听障人群:振动反馈的辨识度,文字显示的清晰度,手语识别的准确性;

  24. 根据用户反馈优化功能细节,提升使用体验。

  25. 权限合规:仅申请必要权限,权限申请有明确提示,用户可自主开启/关闭;

  26. 隐私合规:用户数据(识别记录、位置信息)仅存储在本地,不泄露、不上传,支持手动删除;

  27. 无障碍合规:适配HarmonyOS Accessibility Kit规范,支持系统级无障碍服务联动。

  28. 技术层面:依托HarmonyOS Accessibility Kit、端侧AI模型、多模态交互API,实现了无障碍功能的端侧落地,兼顾实时性、离线可用性与低功耗;

  29. 功能层面:覆盖视觉、听觉、出行三大核心场景,支持个性化适配,可满足不同特殊人群的使用需求;

  30. 实践层面:通过环境搭建、功能开发、性能优化、测试验证,形成了一套完整的HarmonyOS 6.0+无障碍APP开发流程,可为同类应用开发提供参考。

  31. 多残疾类型适配:拓展至肢体残疾、智力残疾人群,新增肢体障碍辅助(如语音控制APP操作)、简单指令识别等功能;

  32. 公共设施联动:对接公共交通、商场、医院等场所的无障碍设施信息,实现更精准的无障碍路线规划与设施导航;

  33. 模型迭代优化:结合用户使用数据,持续优化视觉识别、语音交互模型的准确性与实时性,拓展识别场景与范围;

  34. 生态共建:开源核心代码与开发经验,联动HarmonyOS开发者社区、公益组织,推动无障碍应用生态的完善与发展。

    • 离线模式:离线状态下所有核心功能可正常使用,无功能异常。
相关推荐
九.九10 小时前
ops-transformer:AI 处理器上的高性能 Transformer 算子库
人工智能·深度学习·transformer
春日见10 小时前
拉取与合并:如何让个人分支既包含你昨天的修改,也包含 develop 最新更新
大数据·人工智能·深度学习·elasticsearch·搜索引擎
恋猫de小郭10 小时前
AI 在提高你工作效率的同时,也一直在增加你的疲惫和焦虑
前端·人工智能·ai编程
时代的凡人11 小时前
0208晨间笔记
笔记
deephub11 小时前
Agent Lightning:微软开源的框架无关 Agent 训练方案,LangChain/AutoGen 都能用
人工智能·microsoft·langchain·大语言模型·agent·强化学习
萧曵 丶11 小时前
Vue 中父子组件之间最常用的业务交互场景
javascript·vue.js·交互
大模型RAG和Agent技术实践11 小时前
从零构建本地AI合同审查系统:架构设计与流式交互实战(完整源代码)
人工智能·交互·智能合同审核
今天只学一颗糖11 小时前
1、《深入理解计算机系统》--计算机系统介绍
linux·笔记·学习·系统架构
老邋遢11 小时前
第三章-AI知识扫盲看这一篇就够了
人工智能
互联网江湖11 小时前
Seedance2.0炸场:长短视频们“修坝”十年,不如AI放水一天?
人工智能