HarmonyOS鸿蒙Next中安全评估问题,如何过滤图片和敏感信息

HarmonyOS鸿蒙Next中安全评估问题,如何过滤图片和敏感信息 【问题描述】:安全评估问题:要过滤敏感信息和涉黄毒的图片,这个我没有这种开发技术,请问其他APP是采用什么方式解决的呢?官网有个内容风控服务但是我开发的不是元服务,是应用

【问题现象】:咨询方案,在app里有什么方法可以实现过滤敏感信息和涉黄毒的图片

场景:把文字,图片通过APP发布出来。安全评估要求我对文字的敏感词处理,对图片的涉黄处理才通过安全评估

【版本信息】:6.0.0

【复现代码】:NA

【尝试解决方案】:NA


更多关于HarmonyOS鸿蒙Next中安全评估问题,如何过滤图片和敏感信息的实战教程也可以访问 https://www.itying.com/category-93-b0.html

3 回复

这个一般都是服务器端进行过滤的;你提交的信息到了服务端,服务端进行审核和过滤,一般有个状态,审核中,审核成功后显示;

更多关于HarmonyOS鸿蒙Next中安全评估问题,如何过滤图片和敏感信息的实战系列教程也可以访问 https://www.itying.com/category-93-b0.html


在HarmonyOS Next中,安全评估过滤图片和敏感信息主要通过系统级安全框架实现。系统内置了内容安全检测服务,可自动识别并过滤敏感图片与文本。开发者可通过HarmonyOS SDK中的安全API调用这些能力,无需自行开发复杂的过滤算法。系统会基于设备本地AI模型进行实时分析,确保用户隐私和数据安全。

针对你的HarmonyOS Next应用内容安全过滤需求,即使不是元服务,也有成熟的解决方案。

核心方案:集成华为内容审核服务(Content Moderation Service)

你提到的官网链接是正确方向。该服务完全支持HarmonyOS应用集成,并非仅限于元服务。主要能力包括:

  • 文本内容审核:检测涉黄、涉政、暴恐、辱骂、广告等违规文本。
  • 图像内容审核:检测涉黄、涉暴、政治敏感等违规图片。

实现路径:

  1. 开通服务:在华为开发者联盟为你的应用开通“内容审核服务”。
  2. 集成SDK:在应用的build.gradle文件中添加内容审核服务的依赖。
    dependencies {
        implementation 'com.huawei.hms:ml-computer-vision-cloud:3.11.0.301'
        // 文本审核可能需要单独的SDK,请根据最新文档确认
    }
    
  3. 调用API:在用户发布内容时,调用对应的审核API。
    • 文本审核示例(伪代码):
      // 初始化文本审核器
      MLTextAnalyzer analyzer = MLTextAnalyzerFactory.getInstance().getTextAnalyzer();
      // 设置审核配置(如过滤场景)
      MLTextAnalyzerSetting setting = new MLTextAnalyzerSetting.Factory()
          .setPatternType(MLTextAnalyzerSetting.REGEX)
          .create();
      // 执行审核
      MLText text = new MLText.TextFactory().setText(userInputText).create();
      Task<MLText> task = analyzer.asyncAnalyseFrame(text);
      task.addOnSuccessListener(mlText -> {
          // 审核通过,处理发布逻辑
      }).addOnFailureListener(e -> {
          // 审核失败或内容违规,拦截发布并提示
      });
      
    • 图片审核示例(伪代码):
      // 初始化图片审核器
      MLImageAnalyzer analyzer = MLImageAnalyzerFactory.getInstance().getImageAnalyzer();
      // 配置审核项(如色情、政治敏感检测)
      MLImageAnalyzerSetting setting = new MLImageAnalyzerSetting.Factory()
          .setDetectType(MLImageAnalyzerSetting.TYPE_IMAGE_PORN | MLImageAnalyzerSetting.TYPE_IMAGE_POLITICS)
          .create();
      // 执行审核(bitmap为待审核图片)
      MLFrame frame = MLFrame.fromBitmap(bitmap);
      Task<MLImageAnalysisResult> task = analyzer.asyncAnalyseFrame(frame);
      task.addOnSuccessListener(result -> {
          if (result.getSuggestion() == MLImageAnalysisResult.SUGGESTION_PASS) {
              // 审核通过
          } else {
              // 审核不通过,根据result.getAnalysedList()获取具体违规类型
          }
      });
      

关键点:

  • 审核应在内容发布同步或异步进行,拦截违规内容。
  • 需处理网络异常等失败情况,建议失败时默认拦截发布。
  • 服务调用可能产生费用,具体计费标准需参考官方文档。
  • 确保应用已正确配置agconnect-services.json文件并完成必要的权限声明。

此方案能直接满足安全评估对文本和图片的过滤要求。

回到顶部