亚马逊AWS官方博客

Localization Team

Author: Localization Team

推出 Amazon FreeRTOS – 使几十亿台设备能够安全地从云中受益

最近,我在 ReadWrite.com 上读到一篇标题为“IoT 设备的数量在成倍增长,2021 年将增长 200%”,虽然这篇文章提到了此增长给消费者和行业带来的好处,但文中的两个观点让我难以释怀。第一个是关于“研究人员警告说,IoT 技术的扩散将会带来大量新的挑战。对于最终用户和提供商来说,大规模的 IoT 部署特别麻烦。”的特定陈述。这句话不仅说得中肯,而且真正提出了在构建解决方案和部署这个令人兴奋的新技术领域时可能面临的一些挑战。文中让我感到担忧的第二个观点是安全问题数目可能会增加。 这篇文章让我开始思考,我们如何通过将低成本的、高效的微控制器与可轻松连接到云的安全操作系统结合使用来创建这些出色的 IoT 解决方案。幸运的是,我在一款由 AWS 提供的令人兴奋的、基于开放源的新产品中找到了答案,我很高兴今天能够向大家宣布这个消息。让我们欢迎 Amazon FreeRTOS 进入技术阶段。 Amazon FreeRTOS 是一个 IoT 微控制器操作系统,此操作系统简化了基于微控制器的边缘设备的开发、安全性、部署和维护。Amazon FreeRTOS 使用库扩展了 FreeRTOS 内核 (一种常用的实时操作系统),这些库支持本地和云连接、安全和无线更新 (即将推出)。 您会询问这款令人兴奋的新产品将带来哪些好处。好处如下: 轻松创建适用于低功率互联设备的解决方案:提供常见的操作系统 (OS) 和库,以便轻松地为设备开发常见 IoT 功能。例如,无线 (OTA) 更新 (即将推出) 和设备配置。 保护数据和设备连接:设备仅使用代码签名服务运行可信软件,Amazon FreeRTOS 使用 TLS 提供与 AWS 的安全连接以及在设备上安全存储密钥和敏感数据的功能。 广泛的生态系统:包含广泛的硬件和技术生态系统,使您能够选择各种合格的芯片集 (包括 Texas Instruments、Microchip、NXP Semiconductors 和 STMicroelectronics)。 云或本地连接:设备可直接连接到 AWS 云,也可以通过 AWS […]

Read More

正在准备阶段 – AWS IoT Device Defender – 保护您的 IoT 队列

在 IoT (物联网) 方面,规模有了一个全新的含义。去年,我有幸参观了一家大型工厂,厂内每平方米有一台环境传感器。这些环境传感器每秒将测量几次温度、湿度和空气纯度,并充当污染物的预警系统。我听说客户有兴趣部署数百万或数千万台支持 IoT 的消费设备。 按地理分布的方式部署强大耐用的设备后,管理安全挑战是至关重要的。不过,有限的本地计算能力和内存有时会限制使用加密和其他形式的数据保护的能力。 为了应对这些挑战并让我们的客户自信地大规模部署 IoT 设备,我们正在开发 IoT Device Defender。虽然细节可能在发布前有所改变,但 AWS IoT Device Defender 旨在提供以下好处: 持续审核 – AWS IoT Device Defender 监控与您的设备相关的策略以确保所需安全设置就绪。它将查找与最佳实践的偏离并支持自定义审核规则,以便您可检查特定于您的部署的条件。例如,您可检查受一台受损设备是否订阅了来自另一台设备的传感器数据。您可按计划运行审核或按需运行审核。 实时检测和提醒 – AWS IoT Device Defender 将查找可能来自受损设备的异常行为并快速告知您此情况。它通过监控类似设备的行为、寻找未经授权的访问尝试、连接模式的更改以及流量模式 (入站或出站) 的变化来做到这一点。 快速调查和缓解 – 如果您收到发生异常情况的提醒,AWS IoT Device Defender 将为您提供工具 (包括上下文信息) 来帮助您调查和缓解问题。设备信息、设备统计数据、诊断日志和以前的提醒都触手可及。您可选择重启设备、撤销其权限、将其重置为出厂默认值或推动安全修复。 保持关注 很快我将提供更多信息 (和实践文章),敬请保持关注! — Jeff;

Read More

介绍 AWS IoT Analytics:比以往任何时候都快地大规模交付 IoT Analytics

我非常喜欢的一个技术领域是物联网 (IoT)。甚至还是在我很小的时候,我就常常惹怒我的父母,因为我会将他们买的玩具拆开,想看看工具的工作原理以及我是否能够设法将玩具重新组装在一起。似乎我注定最终要从事充满艰难而且不断变化的技术领域的工作。因此,毫不奇怪,我现在真的非常喜欢学习和摆弄 IoT 设备和技术。这融合了我对开发和软件工程的喜爱以及我对电路、控制器以及电气工程学科的其他方面的好奇心;即使我算不上是一个电气工程师。 尽管有通过部署 IoT 设备和解决方案收集的各种信息,但老实说,我从未真正考虑过需要分析、搜索和处理这些数据,直到我遇到了一种异常情况,对于发生的异常,通过大量传感器数据进行搜索和查询的能力变得至关重要。当然,我清楚分析对于企业的重要性,它们有助于做出准确的决策和预测以推动组织的发展。但是我一开始并没有想到,使分析成为我的 IoT 解决方案的不可或缺的一部分是如此重要。是的,我及时吸取了教训,因为此 re:Invent 服务的发布使任何人均可以更轻松地处理和分析 IoT 信息和设备数据。 你好,AWS IoT Analytics!AWS IoT Analytics 是 AWS IoT 的一项完全托管服务,可提供对从您的 IoT 设备中收集的数据的高级数据分析。利用 AWS IoT Analytics 服务,您可以处理消息、收集和存储大量设备数据以及查询数据。此外,新的 AWS IoT Analytics 服务功能集成了用于可视化数据的 Amazon Quicksight,并通过与 Jupyter Notebooks 的集成引入了机器学习的功能。 AWS IoT Analytics 的优势 通过提供对预构建的分析功能的访问,帮助预测分析数据。 提供将来自服务的分析输出可视化的功能 提供清理数据的工具 可帮助识别收集的数据的模式 了解情况:IoT Analytics 概念 通道:存档未经处理的原始消息并收集来自 MQTT 主题的数据。 管道:使用来自通道的消息并允许消息处理。 活动:针对您的消息执行转换,包括筛选属性和调用 Lambda 函数高级处理。 […]

Read More

宣布推出 ONNX 1.0

今天,Amazon Web Services (AWS)、Facebook 和 Microsoft 很高兴宣布:开放神经网络交换 (ONNX) 格式已可用于生产环境。 ONNX 是深度学习模型的开放标准格式,实现深度学习框架 (如 Apache MXNet、Caffe2、Microsoft Cognitive 工具包和 PyTorch) 之间的互操作性。ONNX 1.0 使用户能够在框架之间移动深度学习模型,从而使其更容易投入生产。例如,开发人员可以使用 PyTorch 等框架构建复杂的计算机视觉模型,并使用 Microsoft Cognitive 工具包或 Apache MXNet 运行它们以进行推理。 自 9 月份 ONNX 首次发布以来,社区支持和参与的增长和发展势头都十分喜人。包括高通、华为和英特尔在内的众多硬件合作伙伴宣布,他们的硬件平台支持 ONNX 格式,使用户更容易在不同的硬件平台上运行模型。我们非常感谢那些为新功能提供代码和支持的贡献者社区。 我们将继续与 ONNX 合作伙伴和社区合作,共同发展 ONNX,确保开发人员获得最新的研究成果,以便将先进的模型集成到生产应用程序中。 相关公告 Facebook – 发布了 ONNX V1 Microsoft – 宣布推出 ONNX 1.0 – 适用于 AI 的开放生态系统 作者简介 […]

Read More

AWS 中国 (宁夏) 区域现已开放

今天,我们推出全球第 17 个、中国第二个区域。由宁夏西云数据科技有限公司 (NWCD) 运营的 AWS 中国 (宁夏) 区域现已正式推出,为客户提供了在中国 AWS 上运行应用程序和存储数据的另一种选择。 详细信息 由 NWCD 运营的全新中国 (宁夏) 区域在推出之际支持以下服务:Auto Scaling、AWS Config、AWS CloudFormation、AWS CloudTrail、Amazon CloudWatch、CloudWatch Events、Amazon CloudWatch Logs、AWS CodeDeploy、AWS Direct Connect、Amazon DynamoDB、Amazon Elastic Compute Cloud (EC2)、Amazon Elastic Block Store (EBS)、Amazon EC2 Systems Manager、AWS Elastic Beanstalk、Amazon ElastiCache、Amazon Elasticsearch Service、Elastic Load Balancing、Amazon EMR、Amazon Glacier、AWS Identity and Access Management (IAM)、Amazon Kinesis […]

Read More

推出适用于 Apache MXNet 的模型服务器

本周早些时候,AWS 宣布推出适用于 Apache MXNet 的模型服务器,这是构建于 Apache MXNet 上的开源组件,用于处理深度学习模型。Apache MXNet 是一种可快速进行训练和推理的可扩展框架,具有易于使用、简明扼要的机器学习 API。工程师们现在可以利用适用于 Apache MXNet 的模型服务器,轻松、快速地对 MXNet 模型进行大规模处理。 什么是适用于 Apache MXNet 的模型服务器? 适用于 Apache MXNet 的模型服务器 (MMS) 是一种开源组件,旨在简化深度学习推理模型的大规模部署任务。部署推理模型并不是无关紧要的任务。它需要收集各种模型构件、设置处理堆栈、初始化并配置深度学习框架、公开终端节点、发送实时指标,以及运行自定义预处理和后处理代码,而这只是众多工程任务中的几项。虽然每项任务都不是特别复杂,但与部署模型相关的所有工作足以使部署过程变得缓慢而繁琐。 MMS 是 AWS 贡献的一款适用于 Apache MXNet 的开源工程工具集,可以极大地简化部署深度学习模型的过程。如果您使用 MMS 部署模型,可以使用以下主要功能: 将所有模型构件打包并导出为单一“模型存档”文件 (其中封装了处理 MXNet 模型的所有必要内容) 的工具作业。 自动设置处理堆栈,其中包括 HTTP 推理终端节点、基于 MXNet 的引擎,所有组件均根据处理的具体模型进行自动配置。 预配置的 Docker 镜像,利用 NGINX、MXNet 和 MMS 进行设置,以实现可扩展的模型处理。 能够自定义推理执行管道中的每个步骤,从模型初始化到预处理和推理,再到对模型输出的后处理。 用于监控推理服务和终端节点的实时运行指标,涵盖延迟、资源利用率和错误。 支持 […]

Read More

re:Invent 回顾—通过 Windows 促进企业创新的公告

我的同事 Sandy Carter 上周在 AWS re:Invent 大会上发表了“企业创新报告”(Enterprise Innovation State of the Union) 演讲。她写了下面这篇客座文章,回顾她在舞台上发布的消息。 — Jeff; “我希望我的公司进行创新,但我不确信我们能否成功执行。”在我职业生涯的不同阶段,听到过太多次高管人员流露出的这种恐惧。事实上,Price Waterhouse Coopers 公司发布的最新研究结果表明,虽然 93% 的高管依靠创新来推动增长,但对超过一半的人而言,将创新理念以可扩展的方式迅速推向市场仍是一项挑战。 许多客户都在为如何推动企业创新而苦苦挣扎,我很高兴上周能与一些成功打破这种模式,推动企业创新的高管在 AWS re:Invent 上同台演讲。在此,我要特别感谢 Johnson & Johnson 的 Parag Karnik、Hess Corporation 的 Bill Rothe、Just Eat 的 Dave Williams 以及 Pitney Bowes 的 Olga Lagunova 分享他们关于创新、创意和坚定执行的故事。 在过去一周 AWS 的许多新公告中,让我感到特别兴奋的是我在 re:Invent 上宣布的以下新发布的 AWS 产品和计划,它们可以推动我们企业客户的创新: AI:EC2 Windows […]

Read More

Amazon SageMaker – 加快机器学习进程

机器学习是许多初创公司和企业的关键技术。尽管经历了数十年的投入和改进,开发、训练和维护机器学习模型的过程仍然繁琐且欠缺通用性。将机器学习技术集成到应用程序中的过程往往需要一个专家团队进行为期数月的调整和修补,而且设置还不一致。企业和开发人员需要一个端到端、开发到生产的机器学习管道。 Amazon SageMaker 简介 Amazon SageMaker 是一种完全托管的端到端机器学习服务,数据科研人员、开发人员和机器学习专家可以快速、大规模地构建、训练和托管机器学习模型。这极大地推进了您所有的机器学习工作,让您能够将机器学习技术迅速融入生产应用程序。 Amazon SageMaker 包含三个主要组件: 编写:零设置托管式 Jupyter 笔记本 IDE,可进行数据探索、清理和预处理。您可以在一般实例类型或 GPU 驱动实例上运行上述功能。 模型训练:分布式模型构建、训练和验证服务。您可以使用内置的通用监督式和非监督式学习算法和框架,也可以借助 Docker 容器创建自己的训练。训练可以扩展到数十个实例以支持更快的模型构建。从 S3 读取训练数据,并将模型构件存放到 S3。模型构件是数据相关的模型参数,而不是允许您从模型进行推理的代码。这种问题隔离策略简化了将经过 Amazon SageMaker 培训的模型部署到物联网设备等其他平台的过程。 模型托管:一种模型托管服务,可通过 HTTPS 终端节点调用模型获取实时推理。这些终端节点能够扩展以支持流量,允许您同时对多个模型进行 A/B 测试。同样,您可以使用内置软件开发工具包构建这些终端节点,也可以利用 Docker 镜像提供自定义配置。 这些组件中的每一个都可以独立使用,这使得使用 Amazon SageMaker 填补现有管道中的空白变得极其简单。也就是说,在端到端管道中使用此服务时,您可以获得一些非常强大的功能。 使用 SageMaker 我打算构建、训练和部署一个基于 Apache MXNet 的图像分类器。我将使用 Gluon 语言、CIFAR-10 数据集和 ResNet V2 模型架构。 使用 Jupyter 笔记本编写 创建笔记本实例时,它会启动一个 ML 计算实例,其中包含深度学习应用中常见的 Anaconda […]

Read More

Amazon Rekognition Video 发布:基于深度学习技术的视频识别功能

在去年这个时候举办的 re:Invent 2016 大会上,Jeff 宣布推出 Amazon Rekognition 服务。我非常高兴能参与此项服务的开发工作,以构建图像识别解决方案。您可能已经知道,Amazon Rekognition Image 是一种利用深度学习技术提供可扩展的图像识别和分析功能的云服务。Amazon Rekognition Image 让您能够在应用程序和系统中构建和集成对象及场景检测、实时面部识别、名人识别、图片审阅和文本识别功能。 Amazon Rekognition Image 服务使用深度学习神经网络模型创建,基于与 Prime Photos 相同的技术 (此项技术使 Prime Photos 具备了每天分析数十亿张图像的强大能力)。发布之初,Rekognition 的关注点在于提供可扩展、自动化的图像分析、搜索和分类功能。今天,我很高兴地向大家宣布,此服务增加了一些新功能。 你好,Amazon Rekognition Video 大家好,这是我的新朋友,Amazon Rekognition Video。对,你们猜得没错,我一开始写的是《疤面煞星》里的台词:“来跟我的小朋友问个好”。但我最终没有这样写,而是走了一条“新路”,所以大家必须给我的创新精神点个赞。好了,言归正传,我们来讨论一下这项令人兴奋的新人工智能服务功能 – Amazon Rekognition Video。 Amazon Rekognition Video 是一种新的视频分析服务功能,可为 S3 存储的视频以及实时视频流提供可扩展的计算机视觉分析能力。借助 Rekognition video,您可以准确检测、跟踪、识别、提取和审阅视频中的数千个对象、面部和内容。对于这项新功能,我认为更棒的是,它不仅能够提供有关视频中对象的准确信息,而且还是同类中第一个能够使用完整的视频内影像、时间和动作上下文执行活动检测和人员跟踪的视频分析服务。因此,借助其基于深度学习的功能,您可获得有关视频中正在执行什么活动的更完整的见解。例如,此服务功能可以识别视频中的人、车、树,以及推断出视频中的男子正在跑向汽车。这很酷,对吧!您可以想象一下,这项功能可为客户带来多么广阔的应用场景。 使用异步 Amazon Rekognition Video API 进行视频分析的过程如下: 对 .mp4 或 .mov 视频调用 Rekognition Video Start […]

Read More

AWS DeepLens – 通过新式摄像机获得深度学习实践经验

我以前说过,“活到老,学到老”是我的人生信条之一。技术变革的速度越来越快,您也需要加快学习速度,迅速掌握全新技能。 在我职业生涯的大部分时间里,人工智能一直是一个学术课题,实际应用和实际部署始终是“若即若离”。但随着机器学习 (包括计算机视觉和深度学习) 实际应用的不断增多,可以肯定地说,现在是获得实践经验和掌握新技能的时候了!此外,物联网和无服务器计算也备受瞩目。虽然这两者的提出时间不算早,但它们必将在未来占据一席之地,是您最该掌握的众多技能之一。 新的 AWS DeepLens 今天我将跟大家介绍一下 AWS DeepLens – 一种直接在设备上运行深度学习模型的新式视频摄像机。您可以使用它构建炫酷的应用程序,同时获得人工智能、物联网和无服务器计算方面的实践经验。AWS DeepLens 结合了先进的硬件和精密的机载软件,让您能够在应用程序中使用 AWS Greengrass、AWS Lambda、其他 AWS AI 及基础设施服务。 我们先从硬件谈起。此设备包含众多强大功能。它配备一个可拍摄 1080P 视频的 400 万像素摄像头,以及一个 2D 麦克风阵列。其搭载的 Intel Atom® 处理器提供超过 100 GLOPS 的计算能力,每秒足以通过机载深度学习模型对数十帧传入视频进行运算。DeepLens 具有完善的连接能力,提供双频 Wi-Fi、USB 及微型 HDMI 端口。最后,这部小巧的设备具有 8 GB 内存,能够运行您的预训练模型和代码,提供无与伦比的强大能力。 在软件方面,AWS DeepLens 运行的是 Ubuntu 16.04,预装 Greengrass Core (Lambda 运行时、消息管理器等)。它还提供专为此设备优化的 MXNet 版本,并具备使用 TensorFlow、Caffe2 等其他框架的灵活性。Intel® clDNN […]

Read More