如何开发语音控制的 Android 应用架构?

问题描述

目标:为 Android 应用提供语音命令支持,以便当前使用触摸(使用按钮和导航的物理交互)执行的所有操作都可以使用 ASR(自动语音识别)执行。 >

查询 现在,我很擅长识别命令并找到操作意图的部分。但是,我使用的是 MVC 或 MVP 模式,并且 UI 与控制器或演示者连接,并且只有当我在特定屏幕上时才能执行操作 例如:假设我们在应用程序中有 10 个屏幕(活动/片段)

Screen 1 -> Presenter 1/ Controller 1
Screen 2 -> Presenter 2/ Controller 2
.
.
.
Screen 10 -> Presenter 10/ Controller 10

现在当任何语音命令被触发并且我在屏幕 1 上时,我只能从演示者 1/控制器 1 调用业务逻辑。如果触发的命令要求在屏幕 10 上执行操作怎么办。在这种情况下,我将无法从 Presenter 10/Controller 10 调用业务逻辑。

另外,如果应用程序在后台呢?在重用业务逻辑的应用中,如何设计业务逻辑既支持触摸模式又支持语音模式?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...