问题描述
我要制作的应用
我想制作Shazam之类的音频识别移动应用,
- 博览会
- Expo AV(https://docs.expo.io/versions/latest/sdk/audio)
- Tensorflow服务
- Socket.IO
我想每秒或每一个样本通过Socket.IO将记录数据发送到基于机器学习的识别服务器(也许每秒发送数据采样率次数过多),然后移动应用接收并显示预测结果
问题
如何从recordingInstance
进行记录时获取数据?我读了Expo音频文档,但不知道该怎么做。
到目前为止
我跑了两个例子:
现在我想混合两个例子。感谢您的阅读。如果我可以console.log
记录数据,那将会有很大帮助。
相关问题
-
https://forums.expo.io/t/measure-loudness-of-the-audio-in-realtime/18259
这可能是不可能的(播放动画?实时获取数据?) -
https://forums.expo.io/t/how-to-get-the-volume-while-recording-an-audio/44100
没有答案 -
https://forums.expo.io/t/stream-microphone-recording/4314
根据这个问题,
https://www.npmjs.com/package/react-native-recording
似乎是一种解决方案,但需要弹出。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)