WWDC第一天内容汇总,keynote+各平台总体状态介绍

keynote

keynote部分在上午,总时长两个小时。库克船长刚开始就说了,“today is all about software”。因此,这是一次纯软件的升级演示。ios

我挑一些印象深入的点,和你们说一说。git

  1. ARkit2,看起来这是一次很是了不得的升级,从演示的measure应用和乐高游戏也能大概看出来一些,特别棒的是乐高游戏,其效果和交互让人有很大的想象空间。为了让AR有更好的可用性和更多的场景,苹果还联合皮克斯开发了一种新的model数据格式而且支持和常见格式(好比.obj)的转换。不少流行的建模软件也将会支持该格式。
  2. iOS12多了几个强大的应用,我认为最强的应该是整合后的workflow。workflow曾经得到过苹果的创意设计奖,深受用户(特别是开发者)的喜好。苹果收购了 workflow,现在将它整合到iOS,而且和siri无缝集成,为用户提供很是棒的工做流自定义体验,能够用于提升你的平常工做效率。
  3. 增长了几个新的animoji,而且还支持本身定义本身的memoji,这个有点像不少游戏里面的捏脸系统,但它人脸部分的动做不少,苹果在软件层面应该作了不少工做来完成这一点。animoji还能够和人脸识别相结合,应用在了imessage和facetime中,其实时捕捉脸部用animoji替换的效果很是赞。能够说是一个极具创新性的设计和实现了。
  4. facetime最多可支持32人同时视频,其中不少细节设计的很是人性化,很精巧。这个idea不是首创性的,微信也早就支持,但这种产品的体验和细节很是的重要,苹果在不少地方都是跟随者,但最后是它把体验作到了极致。对于视频通话来讲,效果是最重要的。从演示来看很是不错。
  5. apple tv全新升级,支持一种杜比的音效,现场体验效果很是爆炸,还有片源的质量升级等;还简化了一个验证步骤。最主要是介绍的小姐姐颜值和声音都圈粉,这里就不上图了,你们能够去看一下video。
  6. 发布了watchOS5,增长了一些功能(好比按住说话)。
  7. iOS12 能够支持全部的设备,只要你的机器能够运行iOS11。因此这是一个老用户的福音,而且性能方面获得了全面提高。个人iphone6已经第一时间升级,大部分应用运行都没有问题,且性能获得了必定的提高。根据苹果的说法,性能的优化主要得益于machine learning技术,其对cpu时间的使用更具备效率、更智能。
  8. machine learning获得了大大强化,推出新的工具帮助咱们直接在mac上建模,使用swift语言。而不须要先从诸如tensorflow之类的工具生成在转换了。还推出了一些新的ml相关的api。

最后,那个给开发者的小短片真的燃到我了,那个瞬间,我热泪盈眶。github

平台状态汇总(platform state union)介绍

这个是下午的内容,也是对开发者来讲可能比keynote更重要的东西。由于全部的展现基本上都附有代码和demo,让开发者很容易理解其中的含义和价值,而且对后面几天的全部session做了交代,让你们能够去选择。小程序

从上面这个图来看,是分为5大部分:xcode10,swift4.2, new ml, metal, arkit2。 但实际上还介绍了新的mac dev部分和siriShortcuts开发的内容。 按照presentation的顺序我来聊一聊这七个部分。swift

  1. mac dev。 mac 这一部分的更新绝对是爆炸性的。苹果承诺将在2019年对外开放这部分的能力(基于UIKit的mac应用UI构建),这意味着届时许多ipad应用能够经过改动较少的代码移植到mac上运行,苹果已经eat his own dogfood,在mac上有两三个应用就是基于ios移植而来。 这将极大丰富mac的软件生态,开发者也能够从中获益。
    此外,还演示了dark mode的使用和开发的体验,很nice。
    整体来讲,mac开发者对这一波应该评价比较正面(一块儿同行的mac开发者表示很满意)。
  2. xcode10 。从现场给出的数据看,xcode10对swift项目编译的提高简直是爆炸性的。速度广泛提高两倍或者以上,其缘由是整个xcode10编译器部分所有使用swift从新编写和优化了。
    xcode10的 playground 也获得了大大强化,它将再也不仅仅是一个初学者的玩具,而是进化成一个生产力工具,诸如ml任务、简单的idea验证工做、甚至是framework的readme和demo均可以经过它来完成。它支持外部框架引入,它还能够展现UI, 它比写一个脚手架demo更快速、更强大、更高效、更优雅。
  3. swift 4.2。swift并非个人主力开发语言,但它应该是iOS开发的将来。swift 4.2 的改进体如今不少方面,它合并了不少社区提交的内容。而且swift 5也将在之后和咱们见面, 最终苹果将解决兼容的问题,而且会将swift集成在系统中,这样会减小包的大小。
    具体的技术改进包括编译器支持、语法更新、性能优化等等,苹果但愿社区在beta阶段能够积极的提供反馈和提交,其核心团队最终决定社区的提交是否被合并进来。也就是说,swift的某一个特性将来如何,多是你说了算。
  4. new ML。苹果提供了create ml工具,用于直接在mac上建模;在最新的ml上,苹果还能够将特定模型的大小大幅度减少(好像是基于迁移学习来实现的,不知道我有没有get正确这个点)。苹果提供了新的特定领域的api用于图片分类检测、天然语言理解、好像还有一个点(抱歉凌晨三点的我实在想不起来了)。new ML对苹果来讲意义重大,on-device ml让苹果能够在保护用户数据隐私安全的状况下,也从ml中受益,iOS12的相册优化就基于该技术。
  5. metal。 一样的,这也是一个底层的技术,苹果旨在经过高度集成化、定制化的优点让metal能够在iOS设备上能够在图形图像以及gpu相关计算领域得到爆炸的性能。他们的目标是最终替代opengl/opencl等。metal支持的设备很是老,这体现了苹果的野心。
    从现场给出的benchmark数据来看,metal作到了它想要作到的,它支持多个平台,还能够从扩展gpu中获得很大的性能提高。
  6. Sirishortcuts。 这里主要是给你们展现了一遍整个流程,建立shortcuts须要开发者作什么之类的,从演示的代码来看应该不难,具体的坑什么的可能要在开发过程当中才能够体会。在微信小程序的一个新功能(大概是3月份左右的一个发布,具体名字不记得了)中,我感觉到了和这个相似的流程设计,不一样之处是一个经过搜索,一个经过语音。
  7. Arkit2。 从keynote的演示里,应该全部人已经对它印象深入了。这里主要介绍了他们是怎么作到这一点的,有哪些新的概念和api更新等等。值得一提的是,keynote演示中的facetime实时animoji头像就得益于arkit2的加强脸部捕捉技术。 关于arkit2后面有具体的session,推荐你们观看。

这一篇花了我两个小时,在凌晨3点的圣何塞。真的是有些累了,因此后面比较潦草。原本还想把今天的内容做一个总结来的,参加了6个session和1个lab,但实在写不动了,只能拖做业了。 感谢你们阅读个人文章~ 我会继续更新的微信小程序

github: https://github.com/dustturtle 欢迎follow,但愿能够一块儿交流技术问题。api

相关文章
相关标签/搜索