谷歌近期发表的一篇学术论文显示,其正在开发名为“MultiModel”机器学习模型,并训练该模型完成一系列任务,包括翻译、语言分析、语音识别、图像识别和对象探测等。
谷歌推MultiModel机器学习(图片来自baidu)
谷歌研究员将这个机器学习模型称作“MultiModel”(多任务模型),这种系统可以得到更广泛的应用,或许也会更准确。例如,如果用可以胜任的所有任务来进行训练,那么相对于用单一任务进行训练,MultiModel在机器翻译、语音和分析任务方面的准确性会更高。
更重要的是,这些技术(及其衍生技术)有助于减少机器学习算法所需的训练数据量。该团队的研究结果表明,在用可以胜任的所有任务来进行训练时,准确性会随着训练数据的减少而提高。这点很重要,因为某些领域很难积累起足够多的训练数据。
然而,谷歌并没有宣称已找到一种可以学会所有任务的“主算法”。正如名称所暗示的,MultiModel网络包含为解决不同挑战而订制的系统,以及协助直接向这些专家算法提供输入的系统。谷歌采取的方法将有助于未来开发类似的系统,以解决不同领域的问题。
需要指出,这方面仍有许多测试需要去做。谷歌的研究结果尚未得到证实,目前也很难弄清,这项研究能否拓展至其他领域。作为TensorFlow开源项目的一部分,谷歌大脑团队已经发布了MultiModel的代码,而其他人可以尝试这个模型。