Flutter语音识别插件frame_flutter_stt_host的使用
Flutter语音识别插件frame_flutter_stt_host的使用
frame_flutter_stt_host (离线语音转文字,实时字幕)
该插件连接到Frame设备,从主机(手机)麦克风获取音频流(目前仅支持此功能,Frame麦克风流即将支持),通过主机设备上的本地Vosk语音转文字引擎进行处理(遗憾的是,Flutter包目前仅支持Android),并在Frame显示屏上显示实时文本。
可以通过替换另一种Vosk模型 来实现除英语之外的语言的语音转文字功能(默认包含vosk-model-small-en-us-0.15
)。由于Frame仅支持拉丁字符集语言,发送到Frame之前可能需要对文本进行调整。模型名称在main.dart
和pubspec.yaml
中指定。
由于它使用的是一个小型的(40MB)本地模型,词汇量有一定的限制。非常长的语句可能会导致问题(包括当前的屏幕外文本渲染),因此建议在句子之间留有短暂的停顿以获得最佳效果。
截图
Frame截图1
截图1
架构
参考资料
完整示例代码
以下是一个完整的示例代码,展示如何使用frame_flutter_stt_host
插件实现语音转文字功能:
import 'package:flutter/material.dart';
import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart'; // 导入插件
import 'package:vosk_flutter/vosk_flutter.dart'; // 导入Vosk引擎
void main() {
runApp(MyApp());
}
class MyApp extends StatelessWidget {
[@override](/user/override)
Widget build(BuildContext context) {
return MaterialApp(
home: VoiceToTextPage(),
);
}
}
class VoiceToTextPage extends StatefulWidget {
[@override](/user/override)
_VoiceToTextPageState createState() => _VoiceToTextPageState();
}
class _VoiceToTextPageState extends State<VoiceToTextPage> {
final _sttHost = FrameSTTHost(); // 初始化STT主机
String _textResult = ''; // 存储语音转文字的结果
[@override](/user/override)
void initState() {
super.initState();
_initializeSTT(); // 初始化语音识别
}
Future<void> _initializeSTT() async {
await _sttHost.initialize(); // 初始化STT主机
_sttHost.startListening((result) { // 开始监听并处理结果
setState(() {
_textResult = result; // 更新UI
});
});
}
[@override](/user/override)
Widget build(BuildContext context) {
return Scaffold(
appBar: AppBar(
title: Text('语音转文字示例'),
),
body: Center(
child: Column(
mainAxisAlignment: MainAxisAlignment.center,
children: [
Text(
'语音转文字结果:',
style: TextStyle(fontSize: 20),
),
SizedBox(height: 20),
Text(
_textResult, // 显示语音转文字的结果
style: TextStyle(fontSize: 18, color: Colors.blue),
),
],
),
),
);
}
[@override](/user/override)
void dispose() {
_sttHost.stopListening(); // 停止监听
_sttHost.dispose(); // 释放资源
super.dispose();
}
}
代码说明
-
导入插件:
import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart'; // 导入插件 import 'package:vosk_flutter/vosk_flutter.dart'; // 导入Vosk引擎
-
初始化STT主机:
final _sttHost = FrameSTTHost(); // 初始化STT主机
-
开始监听并处理结果:
_sttHost.startListening((result) { // 开始监听并处理结果 setState(() { _textResult = result; // 更新UI }); });
-
停止监听并释放资源:
[@override](/user/override) void dispose() { _sttHost.stopListening(); // 停止监听 _sttHost.dispose(); // 释放资源 super.dispose(); }
更多关于Flutter语音识别插件frame_flutter_stt_host的使用的实战系列教程也可以访问 https://www.itying.com/category-92-b0.html
frame_flutter_stt_host
是一个用于Flutter的语音识别插件,它允许开发者在Flutter应用中集成语音识别功能。以下是如何在Flutter项目中使用 frame_flutter_stt_host
插件的基本步骤:
1. 添加依赖
首先,你需要在 pubspec.yaml
文件中添加 frame_flutter_stt_host
插件的依赖:
dependencies:
flutter:
sdk: flutter
frame_flutter_stt_host: ^版本号
请将 ^版本号
替换为最新的插件版本号。
2. 导入插件
在你的Dart文件中导入插件:
import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart';
3. 初始化语音识别
在使用语音识别功能之前,需要初始化插件。通常可以在 initState
方法中进行初始化:
class MyApp extends StatefulWidget {
[@override](/user/override)
_MyAppState createState() => _MyAppState();
}
class _MyAppState extends State<MyApp> {
FrameFlutterSttHost _sttHost;
[@override](/user/override)
void initState() {
super.initState();
_sttHost = FrameFlutterSttHost();
_sttHost.initialize().then((_) {
print("语音识别初始化成功");
}).catchError((error) {
print("语音识别初始化失败: $error");
});
}
[@override](/user/override)
Widget build(BuildContext context) {
return MaterialApp(
home: Scaffold(
appBar: AppBar(title: Text('语音识别示例')),
body: Center(
child: ElevatedButton(
onPressed: _startListening,
child: Text('开始语音识别'),
),
),
),
);
}
void _startListening() async {
try {
String result = await _sttHost.startListening();
print("识别结果: $result");
} catch (e) {
print("语音识别失败: $e");
}
}
}
4. 启动语音识别
在 _startListening
方法中,调用 _sttHost.startListening()
来启动语音识别。该方法会返回识别到的文本。
5. 处理识别结果
你可以将识别结果显示在UI上,或者根据识别结果执行其他操作。
6. 释放资源
在应用关闭时,记得释放语音识别的资源:
[@override](/user/override)
void dispose() {
_sttHost.dispose();
super.dispose();
}
7. 处理权限
确保在应用中请求麦克风权限。你可以使用 permission_handler
插件来请求权限:
dependencies:
permission_handler: ^版本号
然后在代码中请求权限:
import 'package:permission_handler/permission_handler.dart';
void _checkPermissions() async {
var status = await Permission.microphone.status;
if (!status.isGranted) {
await Permission.microphone.request();
}
}
在 initState
中调用 _checkPermissions()
来确保应用有麦克风权限。
8. 处理错误
在语音识别过程中可能会出现错误,建议在 try-catch
块中处理这些错误,并提供适当的用户反馈。
9. 自定义配置
根据插件的文档,你可能还可以配置语音识别的语言、识别模式等。请参考插件的官方文档以获取更多高级功能。
示例代码
以下是完整的示例代码:
import 'package:flutter/material.dart';
import 'package:frame_flutter_stt_host/frame_flutter_stt_host.dart';
import 'package:permission_handler/permission_handler.dart';
void main() {
runApp(MyApp());
}
class MyApp extends StatefulWidget {
[@override](/user/override)
_MyAppState createState() => _MyAppState();
}
class _MyAppState extends State<MyApp> {
FrameFlutterSttHost _sttHost;
[@override](/user/override)
void initState() {
super.initState();
_sttHost = FrameFlutterSttHost();
_initializeStt();
_checkPermissions();
}
void _initializeStt() async {
try {
await _sttHost.initialize();
print("语音识别初始化成功");
} catch (error) {
print("语音识别初始化失败: $error");
}
}
void _checkPermissions() async {
var status = await Permission.microphone.status;
if (!status.isGranted) {
await Permission.microphone.request();
}
}
[@override](/user/override)
Widget build(BuildContext context) {
return MaterialApp(
home: Scaffold(
appBar: AppBar(title: Text('语音识别示例')),
body: Center(
child: ElevatedButton(
onPressed: _startListening,
child: Text('开始语音识别'),
),
),
),
);
}
void _startListening() async {
try {
String result = await _sttHost.startListening();
print("识别结果: $result");
} catch (e) {
print("语音识别失败: $e");
}
}
[@override](/user/override)
void dispose() {
_sttHost.dispose();
super.dispose();
}
}