机器之心报道
机器之心编辑部
据机器之心消息,知名人工智能青年学者、华盛顿大学博士陈天奇于近期参与创建了创业公司OctoML,担任CTO一职。
随着人工智能的火热,创业成为了众多AI人才毕业后的选择。
近日,机器之心了解到,机器学习领域知名青年学者陈天奇毕业后也参与创建了全新创业公司OctoML,担任CTO一职。
陈天奇的领英资料界面。领英的公开信息显示,陈天奇目前担任OctoML的CTO。
从公司的注册信息我们了解到,这是一家数月前刚刚注册、位于西雅图的创业公司。公司主页介绍称,「OctoML拥有当前最先进的AI、系统、编程语言、编译器和架构技术,可以让机器学习系统的优化和部署变得更加容易。该公司致力于打造一个可扩展、开放、中立的端到端栈,用于深度学习模型的优化和部署。」
而在公司成员方面,华盛顿大学教授LuisCeze担任OctoML首席执行官(CEO)一职,他也是陈天奇在华盛顿大学读博期间合作较多的教授。JoshFromm、JaredRoesch等成员也都是华盛顿大学助理教授或者博士。
JasonKnight曾为英特尔AI产品团队的软件负责人,现担任OctoML联合创始人、CPO。
从公司主页来看,OctoML的创始团队几乎就是著名深度学习框架TVM的「原班人马」。而且,这家公司的愿景「让机器学习可以部署在所有硬件上」,也与后者几乎相同。这就不得不说到机器学习领域的重要工具TVM了。
新一代「机器学习系统」TVM
年8月,华盛顿大学陈天奇等人开源了深度学习自动代码生成方法TVM,对业界产生了深远的影响。利用这一工具,机器学习算法可以自动编译成可供下层硬件执行的机器语言,从而可以利用多种类型的算力。
TVM是一个全新的框架,它可以:
优化CPU、GPU和其他专业化硬件的常规深度学习的计算量自动转换计算图以最小化内存利用率,优化数据布局,融合计算模式提供从现有的前端框架到裸机硬件的端到端编译,一直到浏览器可执行的Javascript
TVM的诞生意味着新的深度学习芯片,以及新的深度学习硬件体系成为了可能。
深度学习模型可以识别图像、处理自然语言,以及在部分具有挑战性的策略游戏中击败人类。在其技术发展的过程中,现代硬件稳步推进的计算能力扮演了不可或缺的作用。很多目前最为流行的深度学习框架,如TensorFlow、MXNet、Caffe和PyTorch,支持在有限类型的服务器级GPU设备上获得加速,这种支持依赖于高度特化、供应商特定的GPU库。然而,专用深度学习加速器的种类越来越多,这意味着现代编译器与框架越来越难以覆盖所有的硬件。
陈天奇等人的最终目标是让深度学习负载可以轻松部署到所有硬件种类中:不仅包括GPU、FPGA和ASIC(如谷歌TPU),也包括嵌入式设备,这些硬件的内存组织与计算能力存在着显著的差异。考虑到这种需求的复杂性,开发一种能够将深度学习高级程序降低为适应任何硬件后端的低级优化代码的优化框架是最好的方法。
TVM是一个端到端优化堆栈,该端到端优化编译器堆栈可降低和调整深度学习工作负载,以适应多种硬件后端。TVM的设计目的是分离算法描述、调度和硬件接口。该原则受到Halide的计算/调度分离思想的启发,而且通过将调度与目标硬件内部函数分开而进行了扩展。这一额外分离使支持新型专用加速器及其对应新型内部函数成为可能。TVM具备两个优化层:计算图优化层和新型调度基元的张量优化层。通过结合这两种优化层,TVM从大部分深度学习框架中获取模型描述,执行高级和低级优化,生成特定硬件的后端优化代码,如树莓派、GPU和基于FPGA的专用加速器。
陈天奇表示,TVM尝试从更高的抽象层次上总结深度学习op的手工优化经验,使得用户可以快速地以自动或半自动的方法探索高效的op实现空间。
TVM堆栈图,这一工具支持多种深度学习框架以及主流CPU、GPU以及专用深度学习加速器。
陈天奇履历
陈天奇是机器学习领域著名的青年华人学者之一,本科毕业于上海交通大学ACM班,硕士阶段也就读于上海交通大学,博士毕业于华盛顿大学计算机系,研究方向为大规模机器学习。他曾参与开发了XGBoost、ApacheMxNet、ApacheTVM(