Flutter语音识别与交互插件flutter_witai的使用

发布于 1周前 作者 itying888 来自 Flutter

Flutter语音识别与交互插件flutter_witai的使用

wit.ai 是一个用于将语句转化为结构化数据的自然语言接口。此插件帮助从wit.ai控制台获取根据训练语料生成的结构化数据。你可以在这里阅读更多关于wit.ai及其文档。

如果你有任何问题或对该插件有进一步的改进意见,请随时提交PR。

开始使用

首先,在你的dart文件中导入该插件:

import 'package:flutter_witai/flutter_witai.dart';

创建一个从WitManager选项中创建的对象witWitManager有三个参数,分别是paramsutteranceheaders

utterance中添加你想要生成数据的语句文本,并在headers中添加你的服务器访问令牌,可以从wit.ai设置控制台中获取。params是用于访问各种HTTP API的GET参数。各种HTTP API的检索参数可以在下面查看。

final wit = WitManager(
    params: "message",
    utterance: "hello",
    headers: "YOUR_SERVER_ACCESS_TOKEN"); // 替换为你的服务器访问令牌

通过执行以下代码来检索HTTP API:

wit.fetchLink();

要验证检索是否成功,可以将检索到的API值打印到控制台:

dynamic response = await wit.fetchLink();
print(response);

HTTP API 参数

  • message:用于从句子中提取出含义。
  • language:返回文本消息的顶级检测到的语言。
  • intents:检索所有意图的列表。
  • entities:返回所有实体的列表。
  • traits:返回所有特征的列表。

你可以在wit.ai的文档网站上阅读更多关于HTTP API的信息 这里

截图

示例代码

以下是完整的示例代码,演示如何在Flutter应用中使用flutter_witai插件:

import 'package:flutter/material.dart';
import 'package:flutter_witai/flutter_witai.dart';

void main() {
  runApp(MyApp());
}

class MyApp extends StatefulWidget {
  const MyApp({Key? key}) : super(key: key);

  [@override](/user/override)
  _MyAppState createState() => _MyAppState();
}

class _MyAppState extends State<MyApp> {
  final searchController = TextEditingController();
  dynamic response;
  dynamic newResponse;
  var textValue = 'null';
  var httpHandlers = 'null';

  void getValues() async {
    final wit = WitManager(
        utterance: searchController.text,
        params: 'message',
        headers: "XXXXXXXXXXX"); // 替换为你的服务器访问令牌
    response = await wit.fetchLink();
    setState(() {
      textValue = response.toString();
    });
  }

  [@override](/user/override)
  Widget build(BuildContext context) {
    return MaterialApp(
      debugShowCheckedModeBanner: false,
      home: Scaffold(
        appBar: AppBar(
          title: Text('wit.ai Demo'),
        ),
        body: Column(
          crossAxisAlignment: CrossAxisAlignment.start,
          children: [
            Padding(
              padding: const EdgeInsets.all(10.0),
              child: Container(
                child: Row(
                  children: [
                    Expanded(
                        child: TextField(
                      controller: searchController,
                    )),
                    TextButton(
                        onPressed: () {
                          getValues();
                        },
                        child: Icon(Icons.search))
                  ],
                ),
              ),
            ),
            Padding(
              padding: const EdgeInsets.all(10.0),
              child: Text(textValue),
            ),
          ],
        ),
      ),
    );
  }
}

更多关于Flutter语音识别与交互插件flutter_witai的使用的实战系列教程也可以访问 https://www.itying.com/category-92-b0.html

1 回复

更多关于Flutter语音识别与交互插件flutter_witai的使用的实战系列教程也可以访问 https://www.itying.com/category-92-b0.html


当然,关于Flutter中如何使用flutter_witai插件进行语音识别与交互,以下是一个简单的代码示例,展示了如何集成和使用flutter_witai插件。请注意,你需要先确保已经在你的Flutter项目中添加了flutter_witai依赖,并且已经配置好了Wit.ai服务的API密钥。

首先,在你的pubspec.yaml文件中添加flutter_witai依赖:

dependencies:
  flutter:
    sdk: flutter
  flutter_witai: ^最新版本号  # 请替换为实际可用的最新版本号

然后运行flutter pub get来安装依赖。

接下来,是一个简单的Flutter应用示例,展示了如何使用flutter_witai插件进行语音识别与交互:

import 'package:flutter/material.dart';
import 'package:flutter_witai/flutter_witai.dart';

void main() {
  runApp(MyApp());
}

class MyApp extends StatelessWidget {
  @override
  Widget build(BuildContext context) {
    return MaterialApp(
      title: 'Flutter Wit.ai Example',
      theme: ThemeData(
        primarySwatch: Colors.blue,
      ),
      home: MyHomePage(),
    );
  }
}

class MyHomePage extends StatefulWidget {
  @override
  _MyHomePageState createState() => _MyHomePageState();
}

class _MyHomePageState extends State<MyHomePage> {
  final WitAi _witAi = WitAi(
    accessToken: '你的Wit.ai API密钥',  // 请替换为你的Wit.ai API密钥
  );

  String _responseText = '';

  @override
  Widget build(BuildContext context) {
    return Scaffold(
      appBar: AppBar(
        title: Text('Flutter Wit.ai Example'),
      ),
      body: Padding(
        padding: const EdgeInsets.all(16.0),
        child: Column(
          crossAxisAlignment: CrossAxisAlignment.start,
          children: <Widget>[
            TextField(
              decoration: InputDecoration(
                labelText: '输入语音(文本模拟)',
                hintText: '这里可以输入模拟的文本,实际使用时替换为语音识别结果',
              ),
              onChanged: (text) async {
                // 这里模拟语音识别的输入,实际使用时应该调用语音识别API
                setState(() {
                  _responseText = await _sendMessage(text);
                });
              },
            ),
            SizedBox(height: 16),
            Text(
              '响应:',
              style: TextStyle(fontWeight: FontWeight.bold),
            ),
            Text(_responseText),
          ],
        ),
      ),
      floatingActionButton: FloatingActionButton(
        onPressed: () async {
          // 这里可以触发语音识别,假设已经有一个语音识别功能返回了文本结果
          String recognizedText = 'Hello, how can I help you?';  // 模拟语音识别结果
          setState(() {
            _responseText = await _sendMessage(recognizedText);
          });
        },
        tooltip: '发送语音',
        child: Icon(Icons.mic),
      ),
    );
  }

  Future<String> _sendMessage(String message) async {
    try {
      var response = await _witAi.sendMessage(message);
      // 这里可以根据返回的response数据进行进一步处理
      return response['text'];  // 假设返回的数据中包含一个简单的文本响应
    } catch (e) {
      return 'Error: $e';
    }
  }
}

注意

  1. 在实际项目中,你需要处理语音识别部分,这里为了简化,直接使用了文本输入来模拟语音识别结果。
  2. sendMessage方法会发送消息到Wit.ai并返回解析后的结果,你需要根据Wit.ai返回的JSON数据格式进行解析。
  3. 请确保你的Wit.ai服务已经正确配置,并且你的API密钥具有发送消息的权限。
  4. 由于flutter_witai插件可能会随着版本更新而变化,请参考最新的插件文档以确保代码的正确性。

这个示例展示了如何使用flutter_witai插件进行基本的语音识别与交互。实际项目中,你可能需要根据具体需求进行更多的定制和处理。

回到顶部