4个月以来,我一直在使用mobile vision android进行一个项目。它只需要使用play服务和本教程[MVA]。不过,自本月初以来,谷歌推出了一款新版本的机器学习工具包,其中包括:
有了新的能力。
他们:
强烈鼓励我们试一试
我的问题是新的mlk是基地firebase。也就是说,我们必须使用一个google dev帐户,这个Codelab和很多与google紧密相关的东西(在我看来,如果我错了,请告诉我)。
我的第一个问题(由@ian barber回答)是:有没有一种方法可以在没有firebase的情况下使用mlk?或者像我使用mva那样使用它,仅仅实现一个依赖关系就行了?
编辑:
我的应用程序使用的是[MLK]Setup。这意味着我能够检测到视频流中的文本(从摄像机)。所有的帧捕获、处理等优化…被多个构造良好的线程考虑在内。但现在还没有使用Codelab进行视频处理的例子。如果没有MVA功能的支持,相机源和预览的实现几乎是不可能的。
我的第二个问题(根据迁移)是:如何使用camerasource,camerasourcepreview。就像我们在MVA中使用的在文本检测中使用相机源一样

最佳答案

关于你问题的第二部分:
如何使用camerasource,camerasourcepreview。就像我们在MVA中使用的文本检测相机源一样?
你能看看Android ML Kit Quickstart app吗?它包含示例应用程序代码,可以使用相机源和ml工具包预览。

07-26 01:43