第一次迭代开发心得

基于pytorch图像识别的enas 啥也不会还作机器学习前端

 

思考总结

 

设想和目标

 

  1. 咱们的软件要解决什么问题?是否认义得很清楚?是否对典型用户和典型场景有清晰的描述?
    • 软件功能:借助微信平台搭建一个图像识别的小程序,能够进行实时识别,返回结果,而且收集用户评价。
      • 前端是用小程序web开发者工具。
      • 后台要求:基于pytorch框架搭建CNN模型,其中CNN模型要求是由Google提出的enas(高效神经架构搜索)获得的。
    • 典型用户:微信用户
    • 典型场景:微信小程序
  2. 咱们达到目标了么(原计划的功能作到了几个? 按照原计划交付时间交付了么? 原计划达到的用户数量达到了么?)?
    • 原计划功能:实如今微信小程序上对手写体阿拉伯数字的识别。
    • 实现状况:所有完成。
    • 交付和用户:软件功能基本实现,但数据库还未完成,目前CNN模型还很是基础,会根据第二次迭代中经过enas获得的模型结果进行更换,暂时没法投入使用。
  3. 用户量, 用户对重要功能的接受程度和咱们事先的预想一致么? 咱们离目标更近了么?
    • 暂未投入使用,用户实际接受成度未知
    • 离目标更近了
  4. 有什么经验教训? 若是历史重来一遍, 咱们会作什么改进?
    • 项目的重难点是enas,先对论文作复现弄懂模型参数共享,再根据这个思想去搜索出咱们须要的CNN模型(论文中作的是RNN)。这个项目跟作普通的web,app项目差异较大,没有那么多页面设计和功能需求,可是对知识深度的要求比较高,实现难度大,重点是它跟咱们平时学的知识密切程度低。若是重来一遍,应该会提议下降这个项目在图像识别方面的难度,而后增多一些功能,多一点用户交互之类的。(固然这些只是我的见解...)

 

计划

 

  1. 是否有充足的时间来作计划?
    • 有,老师让咱们把前八周重心放在计划需求上
  2. 团队在计划阶段是如何解决同事们对于计划的不一样意见的?
    • 计划阶段主要是刚开始咱们跟指导老师讨论肯定了主要方向,而后后面基本上碰到问题一块儿讨论解决,不多有不一样意见。
  3. 你原计划的工做是否最后都作完了? 若是有没作完的,为何?
    • 团队总体项目推动很顺利,alpha版本的计划都作完了
  4. 有没有发现你作了一些过后看来不必或没多大价值的事?
    • 目前没有。
  5. 是否每一项任务都有清楚定义和衡量的交付件?
    • 是的,尤为在模块对接时,你们会提早说明本身须要接收或者传出什么样的接口或者数据。
  6. 是否项目的整个过程都按照计划进行,项目出了什么意外?有什么风险是当时没有估计到的,为何没有估计到?
    • 彻底按照计划进行,可是最重的模块在了第二次迭代,如今你们内心压力有点大。
  7. 在计划中有没有留下缓冲区,缓冲区有做用么?
  8. 未来的计划会作什么修改?(例如:缓冲区的定义,加班)
    • 可能加班时间会增多
  9. 咱们学到了什么? 若是历史重来一遍, 咱们会作什么改进?
    • 感受学到了挺多的...深度学习方面补了不少基础知识(eg:pytorch基础,线性、Logistic回归模型,优化算法(SGD,Adam),神经网络(CNN,RNN)搭建,训练...),基础的图像处理,微信小程序也了解了基础的页面制做和API接口使用。刚开始学习具备盲目性,网上资料、视频太多了,前两周学得不扎实,重来一次的话,应该会先去找一本适合本身的书作指导,把书上的例子都敲敲代码体会一下,而后结合几个比较官方的视频学习。

 

资源

 

  1. 咱们有足够的资源来完成各项任务么?
    • 咱们完成了任务,但资源明显不够,后面会提到
  2. 各项任务所需的时间和其余资源是如何估计的,精度如何?
    • 时间通常按实际状况决定(有些周其余学习任务轻,可能效率高,有些周比较忙,效率确定有影响)
    • 精度还不错吧...你们作事都不会拖拉,能力也挺强的
  3. 测试的时间,人力和软件/硬件资源是否足够? 对于那些不须要编程的资源 (美工设计/文案)是否低估难度?
    • 测试没有详细的安排,通常是本身作完本身的会进行测试,而后最后拼接完,再一块儿进行测试
    • 没有合适的数据集,目前用的都是网上公开的
    • 咱们本身买的服务器比较简陋,应该不会用于训练模型
    • 平时训练模型你们都用的是本身的笔记本(性能不够好,大部分无法安GPU,对于复杂的网络结构计算慢,爆内存)
  4. 你有没有感到你作的事情可让别人来作(更有效率)?
    • 这个问题很奇怪...
  5. 有什么经验教训? 若是历史重来一遍, 咱们会作什么改进?
    • 资源上有些尴尬,下阶段可能会向老师寻求帮助,或者借助于某些能够进行GPU计算的平台进行模型搜索和训练

 

变动管理

 

  1. 每一个相关的员工都及时知道了变动的消息?
    • 是的,通常有变更都会在群里或者开会的时候说
  2. 咱们采用了什么办法决定“推迟”和“必须实现”的功能?
    • 一开始就决定了主体功能,主体功能必须实现,目前没有推迟什么功能,都按照计划实行
  3. 项目的出口条件(Exit Criteria – 什么叫“作好了”)有清晰的定义么?
    • 能识别用户图片,而且识别准确率较高,用户可接受范围
    • 实现方法是基于项目需求
    • (我的理解)
  4. 对于可能的变动是否能制定应急计划?
    • 没有提早制定应急计划,但有变动时会及时作出反应和调整
  5. 员工是否可以有效地处理意料以外的工做请求?
    • 你们的及时调整都很好,对于意外状况能较快找出缘由,找到解决方案
  6. 咱们学到了什么? 若是历史重来一遍, 咱们会作什么改进?
    • 项目的团体协做比较重要,作模块以前要沟通好,中途发现困难相互帮助,测试时发现问题应该与组员商议后再作出调整

 

设计/实现

 

  1. 设计工做在何时,由谁来完成的?是合适的时间,合适的人么?
    • 整个模式的设计是在项目初期,全组人员和老师沟通商定的
  2. 设计工做有没有碰到模棱两可的状况,团队是如何解决的?
    • 没有
  3. 团队是否运用单元测试(unit test),测试驱动的开发(TDD)、UML, 或者其余工具来帮助设计和实现?这些工具备效么?
    • 有UML图来帮助设计
  4. 比较项目开始的 UML 文档和如今的状态有什么区别?这些区别如何产生的?是否要更新 UML 文档?
    • 目前没有进行需求调整,
  5. 什么功能产生的Bug最多,为何?在发布以后发现了什么重要的bug? 为何咱们在设计/开发的时候没有想到这些状况?
    • 目前好像没bug,瑕疵的话会有一点,实际图片上传后,会在后台压缩成28*28的大小,这样图片精度会有损失,这个受限于数据集
  6. 代码复审(Code Review)是如何进行的,是否严格执行了代码规范?
    • 代码比较规范,可是跟老师文档中提出的要求会有些出入

 

测试/发布

 

  1. 团队是否有一个测试计划?为何没有?
    • 没有详细的测试计划
    • 缘由:项目的功能模块较少,你们在作本身模块时,都会边作边测试,最后模块对接好,会一块儿进行测试
  2. 是否进行了正式的验收测试?
    • 第一次迭代验收完成
  3. 团队是否有测试工具来帮助测试?
    • 暂未考虑,通常是先看该模型在数据集中的准确率,在比较满意状况下,你们再进行手写数字上传进行测试
  4. 团队是如何测量并跟踪软件的效能的?从软件实际运行的结果来看,这些测试工做有用么?应该有哪些改进?
    • 暂未考虑
  5. 在发布的过程当中发现了哪些意外问题?
    • 还未发布
  6. 咱们学到了什么? 若是历史重来一遍, 咱们会作什么改进?
    • 项目作的过程当中就会有不少次测试,若是第二次迭代开发有剩余时间,你们可能会制定比较详细的测试方案

 

团队的角色,管理,合做

 

  1. 团队的每一个角色是如何肯定的,是否是人尽其才?
    • 你们都挺努力地在学,项目功能模块少,难度大,分工可能有点尬,有没有人尽其才不清楚...
  2. 团队成员之间有互相帮助么?
    • 固然,你们一块儿帮忙解决的问题还挺多的
  3. 当出现项目管理、合做方面的问题时,团队成员如何解决问题?
    • 不多出现这些问题,你们都颇有合做精神,作事效率也不错,遇到困难都会相互帮忙解决

总结

 1.你以为团队目前的状态属于 CMM/CMMI 中的哪一个档次?web

  • 属于CMMI一级,完成级

  2. 你以为团队目前处于 萌芽/磨合/规范/创造 阶段的哪个阶段?算法

  • 规范

  3.你以为团队在这个里程碑相比前一个里程碑有什么改进? 数据库

  • 相互配合的效率会更高

  4.你以为目前最须要改进的一个方面是什么?编程

  • 编码规范

  5.对照敏捷开发的原则, 你以为大家小组作得最好的是哪几个原则? 请列出具体的事例。 小程序

  • 每周都会进行例会,进行总结和发布新任务
  • 消息传递及时,遇到问题或者须要改动的部分,都会面对面沟通或者QQ交流
相关文章
相关标签/搜索