你是成熟的 AI 了,应该本身学会补全代码

在项目开发中,优秀的代码自动补全工具能够提高工做效率。然而,近来的 IDE 基本都使用搜索方法进行补全,在一些场景下效果不佳。html

近日,有开源项目用深度学习模型进行代码补全,显示出很是有潜力的效果。python

近日,Reddit 上的一篇帖子引发了网友的热议。帖子做者「mlvpj」称:git

「咱们使用深度学习完成了一个简单的项目,能够自动进行 Python 代码补全。」github

根据介绍,该项目基于 LSTM 模型,训练后,负责对代码的缺失部分进行补全。评价模型的方法是判断节省了多少的按键信息——即模型给出长度为 L 的代码建议,若是和真实的代码匹配,则节省 L - 1 个键入操做。实验结果说明,大约有 30%-50% 的键入成本能够节省下来。面试

做者在帖子中表示,他们接下来会尝试不一样的架构,并提升推断的表现。而如今的模型推断很慢,不能实际使用。做者已在 GitHub 开源了项目代码:服务器

连接地址: https://github.com/vpj/python...架构

和 IDE 的自动补全有什么区别机器学习

该项目对 Python 代码的自动补全与传统 IDE(如 PyCharm)等不一样。IDE 补全基于检索方法,须要从已有代码中进行搜索。函数

以 PyCharm 中的基本补全(Basic Completion)方法为例。基本补全可帮助补全可见区域的类、方法、关键词代码。使用时,PyCharm 会分析补全使用状况,并提供当前位置可能的选择。若是是对空间、参数或变量声明进行补全,则 PyCharm 会基于类别提供一系列可能的命名。工具

当出现已定义的类、函数、模块和变量时,基本补全就会启动。

此外,PyCharm 也提供智能补全等其余补全功能,但基本上都须要对已有文本进行搜索,根据位置和类型判断补全的方法。这些方法都没有配置机器学习模型。

Pycharm 的自动补全介绍:https://www.jetbrains.com/hel...

深度学习怎样脑补缺失 TF 代码

最经常使用的 PyCharm 自动补全也能省不少功夫,但它须要 IDE 能检索到你的代码文件或库,并且补全会提供多个可能的选项。可是在本项目实验的工具中,LSTM 会根据上下文语义肯定最可能调用的函数,所以它能节省更多的成本。做者表示若是使用束搜索,那么一次能预测 10 多个字符,不过这样对于实际使用仍是有点低效。

在训练深度补全模型前,咱们须要先创建训练集。开发者会在清洗评论、标注和空行后,构建比较干净的 Python 代码。而后,模型会在这些数据上进行训练与预测。在数据预处理上,开发者发现经过 tokenizing Python 代码,模型效果比经过 BPE 编码的字符级预测效果还要好。做者提供了一个简单的预训练模型,它是在整个 TensorFlow 项目的 models 代码中训练的。

下图就是做者在验证集中测试的验证样本。绿色的字符表示自动补全的起始位置,用户须要按下 Tab 键选择开始补全。绿色及后面高亮的灰色字符是自动补全的结果。

如上所示为验证样本中的自动补全效果。与代码生成相似,粗略看起来,彷佛效果很是不错,但实际上会有不少不合理的地方。不过有意思的是,自动补全中全部字符串都只有一个占位操做,这也是很是合理的处理方法。

样本中自动补全的起始和结束位置都是随机的,也就是说代码可能补全到「tensorfl」就结束了,并不会补全完整的标识符「tensorflow」。这在实际场景中用处很是有限,所以做者将生成结束位置限制为终止 token 而修复问题。目前自动补全能完成多种 operator,且当咱们增长束搜索的长度时,它完成的代码长度会更多。

整个模型的主体都是 LSTM,它在 TensorFlow 模型代码库训练后能捕捉很是丰富的 TensorFlow API。以下所示为自动补全模型的主体代码,基本上简单的一个 LSTM 就能搞定:

网友评价

项目开源后,有些网友对做者提出了质疑:

「咱们已经有不少很好用的自动补全工具了,好比 kite(一个能够在 IDE 上使用的插件),为何还要费心搞个机器学习模型?」

在讨论中,有人提出,一些无良的自动补全工具会悄悄上传代码到他们的服务器中,(而自行训练的深度学习模型不存在这个问题)。

也有人提出,其实不必定要用 LSTM 模型,隐马尔科夫模型在处理序列数据上效果也很好。

此外,也有网友建议使用 CuDNN 加速 LSTM 的推断过程。这样能大大提高推断速度,集成到 IDE 中也就有了可能。

读者福利限时分享

Android开发资料+面试架构资料 免费分享 点击连接 便可领取

《Android架构师必备学习资源免费领取(架构视频+面试专题文档+学习笔记)》

相关文章
相关标签/搜索