zz独家专访AI大神贾扬清:我为何选择加入阿里巴巴?

 

独家专访AI大神贾扬清:我为何选择加入阿里巴巴?

本文由 「AI前线」原创,原文连接:独家专访AI大神贾扬清:我为何选择加入阿里巴巴?前端

做者 | 蔡芳芳
受访嘉宾 | 贾扬清

AI 前线导读:刚满 35 周岁的贾扬清是出生于浙江绍兴上虞的青年科学家,是业内主流 AI 框架 Caffe 的创始人、TensorFlow 的做者之1、PyTorch 1.0 的共同创始人,是全球最受关注的 AI 科学家之一。他曾任谷歌大脑研究科学家、Facebook AI 架构总监,于 2019 年 3 月正式加入阿里巴巴。在阿里巴巴,贾扬清的新 Title 是阿里巴巴集团副总裁、阿里云智能计算平台事业部总裁,不过内部更为流行的叫法是“阿里计算平台掌门人”。在 7 月 24 日于上海世博中心召开的阿里云峰会·上海 开发者大会现场,InfoQ 记者很是荣幸获得了对贾扬清进行一对一专访的机会,这也是贾扬清加入阿里以后首次接受国内媒体专访。算法

更多优质内容请关注微信公众号“AI 前线”(ID:ai-front)编程

真正跟贾扬清近距离接触后笔者发现,这位被不少人称为“AI 架构大神”的 80 后青年科学家,更像一位温柔且平易近人的邻家“学霸”,虽然技能全面碾压但丝毫没有架子。加入阿里以来,贾扬清一直忙于了解集团覆盖范围极广的各项产品和业务,近两个月才开始在一些重要活动上以新身份亮相。他在访谈中直言,阿里很是大、方向很是多,短短几个月还未能所有了解完。虽然离职时多家媒体均报道贾扬清的 base 地是阿里硅谷研究院,但因为团队基本都在国内,贾扬清加入阿里后在杭州待的时间更多。新的身份给他带来了不少挑战,忙到没时间理发、一个月倒三次时差、参加活动大半天没吃上饭。但身为阿里集团副总裁的同时,贾扬清依然是典型的技术人,在聊到他最熟悉的 AI 技术和平台时会由于兴奋而语速加快。性能优化

在此次访谈中,贾扬清向咱们透露了他加入阿里的缘由,并对他目前在阿里主要负责的工做作了详细说明,他不只回顾了过去 6 年 AI 框架领域发生的变化,也分享了本身对于 AI 领域现状的观察和对将来发展的思考。结合本身的经验,贾扬清也给出了一些针对 AI 方向选择和我的职业发展的建议,对于 AI 从业者来讲有很多可借鉴之处。微信

从 Facebook 到阿里巴巴

被内部称为“阿里计算平台掌门人”的贾扬清目前直接领导阿里云智能计算平台事业部,而计算平台事业部同时负责大数据和人工智能两大平台,其中大数据方面包括 Flink、Spark 以及从阿里本身作起来的 MaxCompute 大数据平台,人工智能平台则包括底层资源管理、中间层 AI 框架开发等一系列工做。网络

相比原来在 Facebook 所负责的 AI 框架和 AI 平台相关工做,贾扬清如今在阿里所负责的工做范围更加宽泛。用贾扬清本身的话说,原来在 Facebook 他更可能是大数据的用户,只是在 AI 训练的时候须要大数据平台提供支持;而在阿里计算平台事业部,他须要同时支持人工智能和大数据这两块。在贾扬清看来,阿里云智能计算平台事业部是全球少数的几个把大数据和人工智能放在一块儿的部门,但他认为大数据和人工智能自己就是紧密结合的,所以这两块放在一个事业部作很是有道理。架构

过去几年深度学习得以快速发展,很大程度上要归功于数据,而今天的人工智能在必定程度上其实能够说是“数据智能”,即 AI 须要大量的数据才可以提炼出来咱们所谓的模型。因而,大规模人工智能能够概括为两种计算模式,第一个是“智能计算”,就像 AI 工程师熟知的训练、模型迭代等,另一个是“数据计算”,就是怎么样把大量的数据灌到人工智能训练和推理的链路里面。“数据计算”是大数据一直以来擅长的事情,把这两个计算结合到一块的时候,大量的数据处理跟高性能的数据链路,再加上如今人工智能的算法、高性能计算等一系列技术,才能把整个的解决方案给作出来。从这个角度来讲,贾扬清认为人工智能跟大数据是天生结合在一块儿的。框架

除了技术范围不一样,从 Facebook 到阿里巴巴也给贾扬清带来了另外一个新挑战,那就是岗位角色的变化。早期仍是研究员的时候,贾扬清只须要关注技术,后来升任 Facebook AI 架构总监后他转型技术管理,到如今成为计算平台事业部总裁,贾扬清须要管理技术、产品和业务,后二者对于他来讲是更大的挑战,但也是颇有意思的挑战。贾扬清告诉 InfoQ 记者:“就像开源要商业化落地同样,技术最后也须要通过产品和商业的锤炼,这是必定程度上我来阿里的缘由。另外,云原声接下来是整个 IT 产业大势所趋的方向,在云上,技术确定会有新一轮的进化,这个时候对于我来讲是接受新挑战的一个很是好的时机。”机器学习

与阿里一块儿将开源进行到底

除了上文提到的 Title,贾扬清现在也同时支持阿里巴巴的一系列开源工做,所以他在此次开发者大会上所作的演讲主要也是围绕开源这个话题来展开。对于开发者社区工做,贾扬清有很是大的热情,他但愿本身加入阿里以后可以更好地推进国内开源的发展。编程语言

在采访中,贾扬清向咱们详细介绍了阿里巴巴接下来在开源层面的几个重点策略。阿里巴巴但愿在如下三个方面作比较完整的梳理并和社区合做推动: 

  1. 底层操做系统,阿里有飞天操做系统底座,同时也应用过不少像 Linux 这样自己就开源的系统,前段时间阿里就刚刚发布了本身的 Alibaba Cloud Linux 2 OS,接下来阿里会考虑如何将本身在这方面的能力以最优的方式贡献给社区。另一块是再往上层的云原生,这一层能够广义地叫作操做系统,在必定程度上跟应用比较相关,好比 AI 平台、大数据平台,在上云的状况下能够认为他们也是大规模云原生的操做系统底座。接下来阿里在 K8s 等云原生系统上也会深刻跟一些开源组织合做,增强 Flink、Spark 等开源大数据产品的输出。
  2. 前端,相比底层系统的开发模式,前端更偏向设计和交互,蚂蚁金服的 AntDesign 是其中作得很是好的一个表明项目,在前端领域很是受欢迎。
  3. 工具层也是阿里巴巴一直以来很是感兴趣的一个方向,好比怎么用开源的项目和解决方案,来帮助开源的开发作得更有效率,这其中又包括测试部署工具,源代码管理工具,项目交流平台,等等。这一块国外社区相对来讲作得更好,所以将来如何在国内推进创建更好的工程师交流平台和文化,也是阿里巴巴开源层面关注的重点。

在贾扬清看来,应用开源项目的时候,跟社区的紧密程度每每决定了整个应用的成败。过去业界经常出现一种状况,每一个公司都对开源社区版本有所谓的改动,最后社区的能力和公司的能力分别发展,很难融合回去。但今天你们已经从过去的经验教训中学到了与社区对接更好的方法。以计算平台事业部当前投入大量精力运营的实时计算引擎 Apache Flink 项目为例,一方面,公司会深刻参与到一些功能的开发和优化当中,另外一方面,你们会把软件上的能力和系统架构上的思路都贡献到开源社区,避免每一个人把开源拿到公司内部本身又改一通这种作法,进而推进开源项目更好地发展。对于公司来讲的话,反过来也可以更加有效地利用开源最新的成果。

除了集团层面的开源策略,对 Apache Flink 开源社区,贾扬清也透露了接下来的一些规划。

目前 Flink 对于流计算的使用场景已经支持得很是好了,接下来阿里依然会从用户的需求出发,继续对 Flink 作优化和改进。同时,阿里会继续开展 Flink Forward 大会这样的活动,经过这些活动和开发者互动,向你们传达 Flink 接下来的 Roadmap 等;另外也但愿经过这种方式和社区对接,来得到更多的关于 Flink 接下去应该怎么走的系统设计,包括 Roadmap 上的一些输入。贾扬清表示,对一个比较健康的开源项目来讲,本身的系统设计跟用户需求的输入这两方面都是必不可少的。 因此不少开源项目都会有一个对应的开发者大会做为跟开发者互动的媒介,Flink 也不会例外。

AI 技术的现状和将来

Caffe 是“以前的表明做”

做为 AI 架构大神,不少人知道贾扬清是由于他写的 AI 框架 Caffe,但那也已是 6 年前的事情了。在聊到 Caffe 这个表明做时,贾扬清特地停下来强调,“是 以前的表明做”。由于 6 年前尚未框架能够知足需求,因此贾扬清为了解决论文研究中遇到的问题本身开发了 Caffe。贾扬清认为,那个时候仍是相对比较刀耕火种的时代,你们更多只是出一些科研论文,对于工程上软件框架怎么作、怎么适配都比较早期。但随着深度学习的兴起和发展,工业界的输入愈来愈多,现在像 TensorFlow、PyTorch 等主流 AI 框架在解决图像、天然语言处理、语音等一系列建模问题时,已经比当年作得好不少,现阶段主流框架要解决的问题比 6 年前贾扬清本身研发 Caffe 框架时想要解决的问题也更大了。

贾扬清将 Caffe、Theano、Torch 定义为上一代 AI 框架,这些早期框架带有很强的学术界的烙印,作的更多的是针对科研方向的一些尝试。而现在的第二代 AI 框架如 TensorFlow、PyTorch 已经把框架的概念扩得更宽,不光只是作深度学习的神经网络建模,更多的是怎么设计一个通用的科学计算引擎,同时探索编译器、软硬件协同设计和更复杂的建模的上层框架等方向。“6 年前所说的框架在今天看来,可能只是整个软件栈里面很窄的一部分。”

Caffe 推出之初,贾扬清但愿它能成为“机器学习和深度学习领域的 Hadoop”,如今回过头来再看当时定下的目标,贾扬清以为其中有一些巧合特别有意思。当初定下这个目标,是但愿 Caffe 可以像 Hadoop 同样普遍普及,没想到后来两者真的在发展路线上经历了相似的状况。从大数据的角度来讲,今天大数据已经从 Hadoop 进化到 Spark、Flink 这样更为复杂的引擎。当年 Hadoop 主要的计算模式就是 MapReduce,而现在的 Spark、Flink 都使用了更复杂的作法。好比 Spark 使用 Directed Acyclic Graph(DAG)对 RDD 的关系进行建模,描述了 RDD 的依赖关系,它的计算模型比 MapReduce 更加灵活。Caffe 跟如今的新一代框架相比也有相似的状况,Caffe 等以前的框架的设计很是针对神经网络,它的系统设计中有一个叫 Network 的概念,而后里头还有一个 Layer 的概念,作前向和后向计算,比较固化,有点像 MapReduce 同样。而今天的主流框架如 TensorFlow、PyTorch、Caffe2 等,使用的是更加通用的计算图模型。能够说 AI 框架和大数据框架经历了相似的发展历程,都有一个从第一代向第二代往前进化的状况。

AI 框架应该关注重复造轮子以外的挑战

在早前阿里一次内部演讲中,贾扬清表达了这样一个观点,他认为“AI 框架的同质化说明技术的挑战在其余更普遍的方向”。对于作出如此判断的理由,贾扬清向 InfoQ 记者作了更详细的说明。

贾扬清将当前 AI 框架的用途归结为最重要的两点,一是支持在框架之上简单灵活地建模,也能够叫作开发的灵活性;另外一点是实现更高效的计算,由于一旦把 AI 算法应用到工程上,基础架构的效率会变得很是重要,好比推荐系统可能要跑在几万台甚至几十万台机器上,性能优化就必须作好。当前大多数框架都在朝这两个方向努力,包括 TensorFlow 2.0 加入了 Eager Mode 和 PyTorch 1.0 将旧版本的 PyTorch 和 Caffe 合并,都是在逐渐解决前面提到的这两个问题,补齐本身的短板。其实目前已有的框架都在互相学习和借鉴,你们要解决的问题已经开始逐渐变得清晰和明朗化,你们的设计也在朝着同一个方向走。“这个时候,从必定程度上来讲,从新造一个轮子到底有多大的意义呢?这是 AI 工程师须要深刻考虑的问题。”

更深地说,几年前,你们说到 AI 的时候有点将 AI 等同于 AI 框架这样的状况,但到了今天,整个 AI 工程的解决方案作出来,其实框架是里面很薄的一部分。贾扬清认为 AI 框架就好像计算机编程语言,好比 C++ 是一个比较好用的语言,但光有它是不够的,框架真正能体现价值的缘由,在于它有很是好的生态,并且有很是多的科学计算和外部服务等。因此从框架开始,往上跟往下都有很是多新的战场或者说更多的领域须要咱们关注。

往下可能包括系统上的创新,好比怎么作高性能计算、怎么作软硬件协同设计等;往上作的话,框架自己可能没有作太多大规模训练、模型迭代等工做的完整工具链。所以阿里如今关注的第一个是拥抱框架,第二是把 AI 整个链路作出来,好比前段时间阿里开源了一个 MNN 引擎,它可让咱们更好地在手机端、嵌入式端运行模型。另外,阿里还有一个开源项目叫 XDL,XDL 的一个想法是怎么构建大规模稀疏化的推荐系统,稀疏化建模是不少通用框架上很是缺的一层:在基本的框架上面,须要有一个高层的抽象,或者是更加跟业务相关的工具平台来解决这个问题。为何大规模稀疏的系统有用呢?由于全部的推荐系统都是跟它有关系的,好比说阿里巴巴怎么样来作推荐,用户在不一样的新闻网站上面感兴趣的新闻是什么,都涉及到稀疏数据,因此这一块光有通用计算框架解决不了,AI 端到端的工程须要在整个栈上发力。

软硬件协同设计

在贾扬清看来,AI 编译器是接下来比较有趣而且很是重要的一个研究方向。首先,深度学习框架以前每每须要手写各类算子的实现,若是有一个新硬件版本出来,这些函数每每须要从新优化;其次,作优化的时候,这些手写函数究竟是不是最优的,即便是专家,是否能穷尽全部可能的办法找到性能最优解,都是不必定的。而像 XLA、TVM 这样的 AI 编译器就是在解决这些问题。

AI 编译器属于软硬件协同设计的范畴,旨在最大化芯片能力。当前新的芯片产品层出不穷,咱们原来这种来一个硬件在上面手写设计软件的模式已经开始逐渐的跟不上了。如今的应用愈来愈复杂,结构也愈来愈复杂,咱们也不知道手写的设计是否是最优的,这个时候就开始要考虑怎么作 AI Guided Compilation 或 Performance Guided Compilation,把硬件的能力跟软件的灵活性更好地结合在一块儿。以 TVM 这个项目为例,它能够在运行时的时候,经过计算模式跟硬件特征来设计或者生成最优的运行代码。这些都是软硬件协同设计正在探索的方向,已经变成比框架更有意义的方向,不管从科研仍是应用上来讲都是如此。

但软硬件协同设计要作好难度很大,须要对体系结构有丰富经验的人才行,这样的工程师不多并且培养也很是困难。若是咱们可以将体系结构建模成一个可优化的问题,那么机器学习就能够派上用场了

AI 与计算机系统架构

Jeff Dean 等人从 2018 年 3 月开始发起 SysML 会议,聚焦于机器学习 / 深度学习相关的硬件基础设施和计算机系统。那么 AI 到底可以给计算机系统架构带来哪些新的机会?贾扬清认为能够从两个方面来看。

Jeff Dean 在提到 SysML 的时候,其实提过这样一个概念,就是 Machine Learning for Systems and Systems for Machine Learning。今天咱们作的更多的是 System for MachineLearning,指的是当机器学习有这样一个需求的时候,咱们怎么去构建一个系统来知足它的需求。另外一方面,在计算机系统构建的过程当中,咱们还能够考虑怎么经过机器学习的方法跟数据驱动的方法来优化和设计系统,解决原来系统设计对人的经验的依赖问题,这是 MachineLearning for System 能够解决的事情,不过目前这方面还处于相对比较早期的探索阶段,也是人工智能接下来还须要突破的瓶颈之一。

AI 商业化落地

工业界落地是贾扬清现阶段重点关注的另外一个方向。与初入 AI 领域的时候相比,贾扬清认为如今 AI 领域最大的一个变化就是工业界对于 AI 的应用需求和算法输入变得愈来愈多了。最先在 2000 年初的时候,业内你们会有一个感受:机器学习在 80% 的时候可以以 80% 的准确率解决 80% 的问题。这其实意味着它没有跨过能够实际商用的门槛。但到了如今,深度学习在不一样领域取得了至关亮眼的成果,不少算法的准确度提高到了能够落地应用的阈值之上,如此一来工业界开始大量地使用算法,反过来又推进算法进一步发展,愈来愈多工业界的场景需求被反馈到科研上,同时也使 AI 研发人群数量有了一个很是大的增加。

但与此同时,人工智能在实际落地的时候依然存在行业壁垒。如何把人工智能的通用性作好,使 AI+ 行业可以真正地推进下去,这在贾扬清看来是人工智能领域目前面临的另一个瓶颈。

从科研的角度来讲,人工智能领域也存在很多待解决的问题,好比智能的本质究竟是什么,咱们如今更多在作的仍是预测问题,那么怎么作因果关系和因果推理,怎么作可解释的人工智能,等等。

如何选择 AI 研究方向?

最近知乎上有一个问题很是火爆,题主的问题是“当前(2019 年)机器学习中有哪些研究方向特别的坑?有哪些小方向实用性不好或者很难作?或者有哪些小方向是只有圈子内的人能发?”咱们把这个问题也抛给了贾扬清,请他来回答。不过扬清大神表示预测将来太不靠谱,当初他刚开始搞机器学习的时候你们都认为神经网络确定没戏,“因此这事谁也说不清楚。但有一点是比较确定的:不要再写老框架了,而是要看看新的方向。”

贾扬清直言,若是如今再去写个 Caffe 框架就没意思了,但若是你是想看到 TensorFlow 和 PyTorch 的长处和短处,并写出一个无论是编程语言仍是系统角度跟他们有差别化优势的更好的框架,仍是能够作。总之就是:不要 Follow,而要想些新的问题。 好比谷歌最近有一个叫作 JAX 的项目就很是受欢迎,首先它可以很是天然地跟 Python 结合到一块儿,同时应用底层编译器的能力来作优化,这些是科研上颇有意思的新方向。虽然贾扬清不认为 JAX 会立刻替换掉 TensorFlow,也不认为它必定能解决全部问题,但它确实是一个很好的探索方向,就像 2008 年的 Theano、2013 年的 Caffe 同样,是值得一看的新东西。

另外,贾扬清也表示最近看到偏网络调参的论文有点多,他认为经过手工调参使性能获得一点提高这样的研究价值正在逐渐降低。研究人员更应该去关注是否有更好的方法论来实现自动网络调优。也就是说“越偏手工的科研方向是越低价值的方向,越可以提炼出通用的方法论并用到大规模系统上的研究可能更加有意思。”

也谈大数据计算平台

当前深度学习其实仍是很是依赖大数据量,随着互联网和终端设备的快速发展,产生的数据不只量大并且变化也很是快,那么如何快速将最新的数据输入进来、处理并生成更为精准的算法模型?这给 AI 基础设施,包括大数据计算平台,提出了新的要求。

早前像 Hadoop 这样的系统是将计算、存储都放在一块儿,后来业内开始更多提倡计算与存储分离,便于实现弹性的扩缩容。当时说计算跟存储分离,更多在说的是存储跟大数据计算,而今天咱们又有了新的计算,就是 AI 训练带来的异构计算。贾扬清将对应的新系统称为存储、数据计算和科学计算三者分离:存储主要解决分布式存储大量数据、稳定性、Throughput 这一系列的问题;数据计算解决怎么作数据的预处理、数据的清洗、数据的变换这一类问题;科学计算解决怎么利用硬件的性能来快速解决大量数学表达式的运算和计算模式问题。这样一个系统,怎么进行模块化设计,怎么将不一样模块有机地联合起来,这是对于大数据系统设计提出的新挑战。

对于大数据计算平台将来须要重点发力的方向,贾扬清认为主要是如何进一步对接场景、提升效率以及优化用户体验等。他表示,大数据计算如今主要有四个场景,第一个是传统的批计算,第二个是像 Flink 这样的流计算,第三个是怎么作秒级甚至毫秒级的交互式查询,第四个是怎么把大数据链路跟 AI 打通,来作大规模的智能模型的训练和部署。

流计算这几年愈来愈受重视,Flink 一直主打流批统一,对此,贾扬清也有本身的见解。

”批和流在大数据领域面对的场景仍是很不同的,个人观点是,批和流这两个场景是根据底层的系统设计天然出现的,不一样的引擎有些擅长批,有些擅长流,Flink 在流上面就是无出其右的,作批流统一是为了给用户提供更加完整的体验。

如今你们常常讨论批和流统一的问题,实际上是由于有比较实际的背景。你们更多场景是以流计算为主,有时候须要有一些批计算的应用,但不须要过高的效率。这个时候若是彻底整个换一套引擎,开销太大,这时候引擎就要考虑怎么去补齐短板,为应用提供一个端到端的体验,不须要在计算过程当中由于不一样需求把全部数据都挪一遍。在批流统一上,我认为 Flink 仍是会继续增强本身在流计算上面领先的地位,同时对于批计算、交互式查询作补齐,使用户在一个以流为主、相对比较综合的场景下,就可以很快地构建本身的解决方案。

如今咱们看见愈来愈多的流计算、交互式计算这两个应用场景出现。至于将来是以流计算为主仍是以批计算为主,我我的以为接下来很长一段时间这两类计算仍是会同时存在,并且针对不一样的场景优化其实仍是比较独特的,很难用一套来解决全部的问题。“

给 AI 从业者的建议

做为 AI 科学家中的佼佼者,贾扬清在短短几年里完成了从工程师、研究人员到技术管理者的蜕变,在职业发展生涯的不一样阶段,大神也会面临不一样的挑战。在采访的最后一小段时间,贾扬清跟咱们分享了他从本身的职业发展生涯总结的几点小经验,但愿对你们有所帮助。

持续学习,多和同行交流

AI 技术发展突飞猛进,对于开发者、工程师来讲,最头疼的多是天天都会不断涌现出新的技术、新的框架、新的算法模型等,一不留神可能本身掌握的知识就过期了,并且这也使研究方向的选择变得愈来愈困难(有多难、可否出新的成果、有没有别人作过了等都要考虑)。

贾扬清强调,AI 领域的工程师必定要主动吸取学习新的信息和技术成果,持续进行知识迭代。像 HackerNews、Reddit 的 Machine Learning 板块等都是很好的信息渠道。如今也有不少媒体在推进 AI 领域前沿一些新想法、新成果和新的科研方向的传播,这也是一件很好的事情。

至于研究方向的选择,贾扬清认为两条原则就够了,一个是兴趣,另外一个是多和同行交流。

让本身成为技术多面手

正如前面提到观点,在贾扬清看来,如今 AI 框架已经再也不是 AI 工程师的桎梏了,AI 工程师的岗位职责也会相应的发生一些变化,将来你们须要把本身的关注点更多地放在跟实际应用场景相结合上。接下来最大的机遇是怎么把 AI 真正落地,对于工程师来讲,他就须要从单纯只作 AI 转变成具有全栈能力,包括怎么对接 IoT 设备、怎么把 AI 能力作到汽车上去等。工程师除了要增强本身的 AI 能力之外,也要把本身的技术能力培养得更加多面手一些。

贾扬清坦言,在必定程度上,其实“AI 工程师”这个称谓有点被滥用了,更多仍是由于 AI 比较热而催生出来的角色。

“其实今天没有只是作 Java 的 Java 工程师,由于 Java 只是一个工具,AI 其实也只是一个工具,更重要的仍是你拿它来作什么。就像每一个工程师都得会编程,或者说每一个工程师都得会基本的一些工程能力,AI 也是一项基本的工程能力。

对于普通开发者,无论是哪一个领域的的开者,将来均可以学一学 AI 的应用,不必定须要学到知道怎么构建 AI 框架这个程度,只须要学会怎么把 AI 当成 Excel、Java 这样的工具来用,这是加强本身能力的一个比较有意思的方向。对于专门作 AI 的工程师或者科研人员来讲,更多的仍是须要在本身的领域深挖。”

从一线开发到管理者:学会后退一步,成就他人

贾扬清刚刚从一线开发转到管理岗位的第一年,依旧埋头写代码,产出的代码量在组里头不是第一就是第二,但这使他在对团队的支持和培养方面的投入捉襟见肘。对于一线开发这或许是个不错的表现,但对于一个管理人员来讲就未必了。由于做为管理者,他并没能给团队的成长提供足够多的价值。人的精力是有限的,哪怕他当时工做时间从上午九点到晚上十二点,甚至更晚,也没法作到兼顾写代码和支持团队。

这一年发生的事情对贾扬清的触动很大,他后来才意识到做为管理者真正须要作的是帮助团队其余人最大化本身的能力,而不是说像单纯搞技术开发的时候那样本身一我的往前冲就能够了。管理者要学会本身日后退一步,提供必要的指导和赋能,相信别人并为他们创造空间,让一线的同窗可以获得更多的锻炼,心态得从本身钻技术转变为支持团队 Scale 技术。

本文为 AI 前线(ID:ai-front)原创文章,未经受权请勿转载。

发布于 2019-07-29
相关文章
相关标签/搜索