亚马逊AWS官方博客
OpenSource | 使用 Kubeless 在 AWS 上的 Kubernetes 集群中运行 FaaS
借助无服务器计算技术,无需预置、扩展或管理任何服务器即可构建和运行应用程序和服务。FaaS(函数即服务)是一种运行时服务,它通过在需要时启动代码位(函数)实现无服务器计算,让开发人员无需管理基础设施,并让开发人员可以简单地编写业务逻辑代码。随着 Kubernetes 的兴起,多个开放源 FaaS 平台也应运而生。此博文分为两部分,将介绍一个此种 FaaS、Kubeless 以及如何在 AWS 上的 Kubeless 集群上安装和运行它。
全站加速,Amazon CloudFront 配置不求人
本文适合希望使用 CloudFront 对网站、视频进行加速的初始用户及有一定使用经验的用户,涵盖如何配置及优化,内容难度200~300。
OpenSource | Kube-AWS 更好管理 AWS 上的 Kubernetes 集群
管理 AWS 上的 Kubernetes集群的方式有很多。Kube-AWS 是一个 Kubernetes 孵化器项目,它允许您在 AWS 上创建、更新和部署具有高可扩展性和高可用性的 Kubernetes 集群。它可以与 KMS、Auto Scaling 组、Spot 队列、节点池等多个 AWS 功能无缝集成。完整的项目资料请访问 github.com/kubernetes-incubator/kube-aws,项目创建人 Yusuke Kuoka 撰写的此博文可帮助您很好地了解如何开始使用 kube-aws,以及如何就进一步的问题参与项目。
OpenSource | 控制对 AWS 云中运行的 Amazon EKS 集群的访问
在此博文中,我们演示了 AWS Microsoft Active Directory 中的身份如何通过 AWS SSO 扮演 AWS IAM 角色,以使用 AWS CLI 进行身份验证。然后,AWS IAM 角色可以通过 K8s configMap、集群角色和角色约束映射到 Kubernetes RBAC,以向活动目录用户授予对 kubernetes 命名空间的访问权限。
最新推出 – Amazon Elastic File System (EFS) 预置吞吐量
Amazon Elastic File System 允许您创建 PB 级的文件系统,这种文件系统可以从成百上千个 Amazon Elastic Compute Cloud (EC2) 服务器和本地资源大规模并行访问,按需扩展且不会发生应用程序中断的问题。在这种强大功能的背后,是跨多个可用区和冗余存储服务器分布式存储,从而为您提供具有可扩展性、持久性和高可用性的文件系统。按需分配空间和收费,从而让您可以根据需求使用资源,同时确保成本与实际使用量相符。应用程序可以实现极高的总吞吐量和 IOPS,同时保持稳定的低延迟。我们的客户利用可以直接将现有基于文件的应用程序和工作流迁移到云的能力优势,将 EFS 用于广泛的使用案例,包括媒体处理工作流、大数据与分析作业、代码存储库、解析树和内容管理存储库等。
AWS IoT Device Defender 现已推出 – 确保互联设备安全
今天,我想为大家介绍一下 AWS IoT Device Defender。这一全新的完全托管式服务(最初在 re:Invent 大会上发布)将帮助您确保互联设备安全无忧。它会审核您的设备机组、检测异常行为,并针对发现的任何问题推荐缓解措施。它支持大规模工作,支持包含多种类型设备的环境。
OpenSource | 使 Helm 达到企业就绪
部署到 Kubernetes 的典型应用程序由多个清单组成,例如每个微服务的部署与服务清单。部署这些单独的清单可能极具挑战 — 这是 Helm 等包装管理器将发挥作用的地方。此博文由 JFrog 的 Baruch Sadogursky 撰写,介绍了为使 Helm 达到企业就绪而正在实施的工作以及您如何为它做贡献。
OpenSource | 现已推出 aws-record-generator gem 开发人员预览版
我们非常高兴地宣布 aws-record-generator gem 现已推出开发人员预览版,可供您试用。此 gem 允许您通过 Rails 命令行生成所有的 aws-record 模型,我们预计这将极大地简化新项目的设置时间!
利用 AWS GreenGrass ML Inference 为你的物联网赋予智能
机器学习的训练需要大量计算资源,因此它非常适合云计算,AWS的sagemaker使得云端的训练变得非常的简单。 然而,许多客户希望运行更接近数据源的推理,以最大限度地减少等待时间以及通往云端的往返带宽问题。利用边缘计算机器学习推理的Greengrass ML inference,可以使得在设备上部署和运行ML模型变得更快,更容易。 这项新功能可以将推理模型应用到本地生成的数据,而无需往返云端。AWS Greengrass ML inference可以与云端的sagemaker良好集成,从而实现云端训练,本地推理的完整解决方案。而且,用户可以通过向Greengrass发送指令要求它将收集到的数据上传到云端,在云端进一步训练完成模型的更新,通过AWS IOT将新的模型以及新的推理代码推送到设备端,从而实现一个不断迭代和进化的机器学习生态系统。
Amazon Aurora 在西云数据运营的 AWS 中国(宁夏)区域落地
Amazon 企业级云数据库 Amazon Aurora 服务在中国宁夏区域的落地,将很大程度帮助这些有性能瓶颈的用户。Amazon Aurora 是 AWS 打造的一款能兼容 MySQL 的新一代企业级数据库,她基于云设计了一套全新架构,使数据库的性能大大的优化,每秒钟能完成数十万甚至上百万的读写事务。她有商业数据库的性能和可靠性,有非常灵活的横向及纵向扩展能力,而成本只有商业数据库的1/10,让广大开发者在开发应用时有了一个新的选择。









