【月度文章集锦】2020年7月 AWS 人工智能精华内容一文速览

image

骄阳似火,就想待在空调房里哪都不去,那么不妨借此机会学学技术吧,也许正好能帮你解决工做中的棘手问题呢。2020年7月,咱们继续与你们分享了大量有关 Amazon Web Services (AWS)的AI、机器学习、深度学习等技术文章,是时候简单回顾一下了。算法

Amazon SageMaker

2020年4月,Amazon SageMaker 已经在由光环新网运营的 AWS 中国(北京)区域和由西云数据运营的 AWS 中国(宁夏)区域正式开放。做为一种机器学习平台服务,Amazon SageMaker 经过不断丰富的功能组件让数据科学家、算法工程师、业务开发者都能轻松驾驭机器学习。它功能到底有多强大?又有哪些企业应用 Amazon SageMaker 造就成功案例?欢迎阅读:机器学习时代的到来,他们用Amazon SageMaker来作这些!segmentfault

机器学习工做流是一个迭代过程,须要作出许多决策,而全部决策都将影响学习系统的结果。此外,咱们还须要结合实际需求,选择一种最适合的学习系统,究竟是监督学习仍是无监督学习?或者半监督学习?强化学习?整个流程涉及太多技术和决策,每每会让新手感到困惑。不妨经过一个实例,来完整了解一下机器学习的工做流程到底该如何构建吧。欢迎阅读:哪些餐厅评价最高?实例上手,了解机器学习工做流的构建。数组

机器学习

ERNIE(Enhanced Representation through Knowledge Integration)是一种语义理解框架,旨在使用纯文本捕获语义模式的基础之上,进一步经过知识加强的方式,结合语义中的知识关系来提供更加丰富的结构化表现。该框架在最近举办的全球最大规模语义评测比赛 SemEval 2020中,一举斩获了包括视觉媒体的关键文本片断挖掘、多语攻击性语言检测和混合语种的情感分析等在内的5项世界冠军!更棒的是,Amazon SageMaker 已提供了针对 ENRIE 2.0的全面支持!进一步了解:ERNIE | 「最棒」的语义理解框架,AWS 天然全力支持框架

建立一个可靠、高效的机器学习推理服务须要作不少投入,例如建立应用程序,打包和部署,模型的加载,终端节点的运行……其中不少环节都须要复杂的开发和运维任务。AWS 最近发布了适用于 Kubernetes 的 Amazon SageMaker Operator,能够帮助开发者用 SageMaker 托管的终端节点加强现有 Kubernetes 集群,大幅简化相关运维工做的负担和难度。欢迎阅读:Kubernetes 上的机器学习推理,能够经过这种方式进一步加强。运维

根据业务需求建立一种或几种 ML 模型,而后根据模型的推理得到业务所需的决策依据,这种基于群组或细分市场来创建模型的作法想必你们都很熟悉了。然而有些场景中,咱们可能须要基于个体用户的数据来创建模型,以便得到更准确的结果,但这种作法每每会致使部署模型的成本大幅提升,而且生产环境中,如此多的模型会变得难以管理。Amazon SageMaker 多模型终端节点功能解决了这个问题。欢迎阅读:给每一个用户建立一个独有 ML 模型,这是一种怎样的体验?机器学习

用过 AWS EC2 实例的用户可能都知道,EC2 有一种 Spot 实例,能够将 AWS 中暂未使用的 EC2 容量提供给用户,相比按需实例,最多可享受90%的价格折扣。相似的,最近 Amazon SageMaker 开始提供托管 Spot 训练功能。这是一个基于 Amazon EC2 Spot 实例的新功能,与在 Amazon SageMaker 中使用按需实例相比,最高可节约90%的 ML 训练成本。进一步了解:用 Spot 实例训练ML模型,谁说训练成本降不下来!性能

机器学习的流程之因此如此艰难,部分缘由在于,这个领域存在许多经验丰富的从业者才知道的最佳实践。对于数据科学领域的新手,可能会花费大量时间践行一种自认为正确的方法。若是专家们能够将本身的最佳实践编纂成一个简单易用的软件包,供全部开发人员使用,结果会怎么样?这就是自动化机器学习(AutoML)背后的理念,也是 AutoGluon AutoML 库的设计理念,借此,咱们能够训练最早进的机器学习模型,以进行图像分类、对象检测、文本分类和表格式数据预测,而几乎无需具有机器学习方面的经验。详细了解:机器学习 | 呐,你已是成熟的机器了,学习问题请本身搞定!学习

构建和训练 ML 模型是科学和工艺的结合。从收集和准备数据集,到使用不一样算法进行实验以找出最佳训练参数,ML 从业者须要清除不少障碍才能提供高性能模型。然而在训练过程当中,不少人常常会遇到一些棘手的问题,致使模型没法正确提取或难以学习数据集中的模型,而且最终每每发现,这些问题大部分是因为不适当的参数初始化、糟糕的超参数组合、咱们本身代码中的设计问题等形成的。最近发布的 Amazon SageMaker Debugger 可自动识别机器学习(ML)训练做业中出现的复杂问题,帮助咱们更快速有效地建立模型。欢迎阅读:用调试器,让你的 ML 模型脱离墨菲定律困扰。人工智能

深度学习

在深度学习领域,推理是使用训练模型进行预测的过程。对于使用 PyTorch 等框架的深度学习应用程序,推理成本占计算成本的90%。因为深度学习模型须要不一样数量的 GPU、CPU 和内存资源,为推理选择适当的实例有必定难度。Amazon Elastic Inference 经过支持将适量 GPU 支持推理加速附加到任何 Amazon SageMaker 或 EC2 实例或 Amazon ECS 任务中,顺利解决了这个问题,借此帮助 Elastic Inference 用户在下降成本的同时,大幅改善 PyTorch 模型在 Amazon SageMaker上的延迟。进一步了解:PyTorch 模型推理,提速同时下降成本,这到底怎么作到的?spa

人工智能

随着机器学习技术的火热,人们发现用 GPU 来进行 ML 模型的训练是一种比较好的作法,速度更快,性能更强。然而毕竟 GPU 诞生的本意就是用于处理计算机图像的,并不是 AI 专用,那么有没有专供机器学习使用的芯片,能够实现比 GPU 训练更快的速度,以及更低的成本?针对这个问题,AWS 本身设计并打造了 Inferentia 芯片,具有高性能、低延迟、高易用等特色,可以以更低成本提供更高性能的机器学习推理能力。进一步了解:AWS 为机器学习推理开发的专用芯片,你不想体验一下?

image

相关文章
相关标签/搜索