Flutter语音识别插件frame_flutter_stt_host的使用

Flutter语音识别插件frame_flutter_stt_host的使用

frame_flutter_stt_host (离线语音转文字,实时字幕)

该插件连接到Frame设备,从主机(手机)麦克风获取音频流(目前仅支持此功能,Frame麦克风流即将支持),通过主机设备上的本地Vosk语音转文字引擎进行处理(遗憾的是,Flutter包目前仅支持Android),并在Frame显示屏上显示实时文本。

可以通过替换另一种Vosk模型 来实现除英语之外的语言的语音转文字功能(默认包含vosk-model-small-en-us-0.15)。由于Frame仅支持拉丁字符集语言,发送到Frame之前可能需要对文本进行调整。模型名称在main.dartpubspec.yaml中指定。

由于它使用的是一个小型的(40MB)本地模型,词汇量有一定的限制。非常长的语句可能会导致问题(包括当前的屏幕外文本渲染),因此建议在句子之间留有短暂的停顿以获得最佳效果。

截图

Frame截图1

Frame截图1

截图1

截图1

架构

架构

参考资料


完整示例代码

以下是一个完整的示例代码,展示如何使用frame_flutter_stt_host插件实现语音转文字功能:

import 'package:flutter/material.dart';
import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart'; // 导入插件
import 'package:vosk_flutter/vosk_flutter.dart'; // 导入Vosk引擎

void main() {
  runApp(MyApp());
}

class MyApp extends StatelessWidget {
  [@override](/user/override)
  Widget build(BuildContext context) {
    return MaterialApp(
      home: VoiceToTextPage(),
    );
  }
}

class VoiceToTextPage extends StatefulWidget {
  [@override](/user/override)
  _VoiceToTextPageState createState() => _VoiceToTextPageState();
}

class _VoiceToTextPageState extends State<VoiceToTextPage> {
  final _sttHost = FrameSTTHost(); // 初始化STT主机
  String _textResult = ''; // 存储语音转文字的结果

  [@override](/user/override)
  void initState() {
    super.initState();
    _initializeSTT(); // 初始化语音识别
  }

  Future<void> _initializeSTT() async {
    await _sttHost.initialize(); // 初始化STT主机
    _sttHost.startListening((result) { // 开始监听并处理结果
      setState(() {
        _textResult = result; // 更新UI
      });
    });
  }

  [@override](/user/override)
  Widget build(BuildContext context) {
    return Scaffold(
      appBar: AppBar(
        title: Text('语音转文字示例'),
      ),
      body: Center(
        child: Column(
          mainAxisAlignment: MainAxisAlignment.center,
          children: [
            Text(
              '语音转文字结果:',
              style: TextStyle(fontSize: 20),
            ),
            SizedBox(height: 20),
            Text(
              _textResult, // 显示语音转文字的结果
              style: TextStyle(fontSize: 18, color: Colors.blue),
            ),
          ],
        ),
      ),
    );
  }

  [@override](/user/override)
  void dispose() {
    _sttHost.stopListening(); // 停止监听
    _sttHost.dispose(); // 释放资源
    super.dispose();
  }
}

代码说明

  1. 导入插件

    import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart'; // 导入插件
    import 'package:vosk_flutter/vosk_flutter.dart'; // 导入Vosk引擎
  2. 初始化STT主机

    final _sttHost = FrameSTTHost(); // 初始化STT主机
  3. 开始监听并处理结果

    _sttHost.startListening((result) { // 开始监听并处理结果
      setState(() {
        _textResult = result; // 更新UI
      });
    });
  4. 停止监听并释放资源

    [@override](/user/override)
    void dispose() {
      _sttHost.stopListening(); // 停止监听
      _sttHost.dispose(); // 释放资源
      super.dispose();
    }
1 回复

更多关于Flutter语音识别插件frame_flutter_stt_host的使用的实战系列教程也可以访问 https://www.itying.com/category-92-b0.html


frame_flutter_stt_host 是一个用于Flutter的语音识别插件,它允许开发者在Flutter应用中集成语音识别功能。以下是如何在Flutter项目中使用 frame_flutter_stt_host 插件的基本步骤:

1. 添加依赖

首先,你需要在 pubspec.yaml 文件中添加 frame_flutter_stt_host 插件的依赖:

dependencies:
  flutter:
    sdk: flutter
  frame_flutter_stt_host: ^版本号

请将 ^版本号 替换为最新的插件版本号。

2. 导入插件

在你的Dart文件中导入插件:

import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart';

3. 初始化语音识别

在使用语音识别功能之前,需要初始化插件。通常可以在 initState 方法中进行初始化:

class MyApp extends StatefulWidget {
  [@override](/user/override)
  _MyAppState createState() => _MyAppState();
}

class _MyAppState extends State<MyApp> {
  FrameFlutterSttHost _sttHost;

  [@override](/user/override)
  void initState() {
    super.initState();
    _sttHost = FrameFlutterSttHost();
    _sttHost.initialize().then((_) {
      print("语音识别初始化成功");
    }).catchError((error) {
      print("语音识别初始化失败: $error");
    });
  }

  [@override](/user/override)
  Widget build(BuildContext context) {
    return MaterialApp(
      home: Scaffold(
        appBar: AppBar(title: Text('语音识别示例')),
        body: Center(
          child: ElevatedButton(
            onPressed: _startListening,
            child: Text('开始语音识别'),
          ),
        ),
      ),
    );
  }

  void _startListening() async {
    try {
      String result = await _sttHost.startListening();
      print("识别结果: $result");
    } catch (e) {
      print("语音识别失败: $e");
    }
  }
}

4. 启动语音识别

_startListening 方法中,调用 _sttHost.startListening() 来启动语音识别。该方法会返回识别到的文本。

5. 处理识别结果

你可以将识别结果显示在UI上,或者根据识别结果执行其他操作。

6. 释放资源

在应用关闭时,记得释放语音识别的资源:

[@override](/user/override)
void dispose() {
  _sttHost.dispose();
  super.dispose();
}

7. 处理权限

确保在应用中请求麦克风权限。你可以使用 permission_handler 插件来请求权限:

dependencies:
  permission_handler: ^版本号

然后在代码中请求权限:

import 'package:permission_handler/permission_handler.dart';

void _checkPermissions() async {
  var status = await Permission.microphone.status;
  if (!status.isGranted) {
    await Permission.microphone.request();
  }
}

initState 中调用 _checkPermissions() 来确保应用有麦克风权限。

8. 处理错误

在语音识别过程中可能会出现错误,建议在 try-catch 块中处理这些错误,并提供适当的用户反馈。

9. 自定义配置

根据插件的文档,你可能还可以配置语音识别的语言、识别模式等。请参考插件的官方文档以获取更多高级功能。

示例代码

以下是完整的示例代码:

import 'package:flutter/material.dart';
import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart';
import 'package:permission_handler/permission_handler.dart';

void main() {
  runApp(MyApp());
}

class MyApp extends StatefulWidget {
  [@override](/user/override)
  _MyAppState createState() => _MyAppState();
}

class _MyAppState extends State<MyApp> {
  FrameFlutterSttHost _sttHost;

  [@override](/user/override)
  void initState() {
    super.initState();
    _sttHost = FrameFlutterSttHost();
    _initializeStt();
    _checkPermissions();
  }

  void _initializeStt() async {
    try {
      await _sttHost.initialize();
      print("语音识别初始化成功");
    } catch (error) {
      print("语音识别初始化失败: $error");
    }
  }

  void _checkPermissions() async {
    var status = await Permission.microphone.status;
    if (!status.isGranted) {
      await Permission.microphone.request();
    }
  }

  [@override](/user/override)
  Widget build(BuildContext context) {
    return MaterialApp(
      home: Scaffold(
        appBar: AppBar(title: Text('语音识别示例')),
        body: Center(
          child: ElevatedButton(
            onPressed: _startListening,
            child: Text('开始语音识别'),
          ),
        ),
      ),
    );
  }

  void _startListening() async {
    try {
      String result = await _sttHost.startListening();
      print("识别结果: $result");
    } catch (e) {
      print("语音识别失败: $e");
    }
  }

  [@override](/user/override)
  void dispose() {
    _sttHost.dispose();
    super.dispose();
  }
}
回到顶部
AI 助手
你好,我是IT营的 AI 助手
您可以尝试点击下方的快捷入口开启体验!