Amazon Web Services ブログ
大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ
本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。
低コストで高性能な生成系 AI 推論用の Amazon EC2 Inf2 インスタンスが一般公開されました
深層学習 (DL) のイノベーション、特に大規模言語モデル (LLM) の急速な成長は、業界を席巻しました。D […]
個人で無料で使用できる Amazon CodeWhisperer が一般公開されました
現在、リアルタイム AI コーディングのコンパニオンである Amazon CodeWhisperer が一般公 […]
週刊AWS – 2023/4/10週
週刊AWS 2023/4/10週号: Amazon Bedrockの限定プレビュー開始、Amazon EC2 Inf2/Trn1nインスタンスの一般利用開始、Amazon CodeWispererの一般利用開始と個人開発者への無料化、などなどを取り上げています
トークンベースアクセスを使用した Amazon Managed Blockchain Ethereum Node API への接続方法のご紹介
このブログは、Everton Fraga によって書かれた Introducing token-based a […]
Amazon S3 File Gateway による大規模データ移行とコスト削減
データをクラウドに移行するには、さまざまなタイプのデータ移行経験や、ソースデータ構造やメタデータを保持する仕組みが必要です。お客様はオンプレミスのファイルデータを従来のファイルサーバーに格納する際、データライフサイクル管理等の理由でデータ作成時のタイムスタンプを併せて保持することが多くあります。一方でお客様は、データ構造やメタデータを保持しハイブリッドクラウド構成をサポートするような、クラウドへの移行方法を悩まれているのではないでしょうか。その結果として、お客様はコストやパフォーマンス、スケールなど、クラウドストレージのメリットを最大限享受できなくなります。
AWS で生成系 AI を使用した構築のための新ツールを発表
本日 AWS は Amazon Bedrock を発表しました。これは AI21 Labs、Anthropic, Stability AI および Amazon の基盤モデルを API で利用できるようにする新しいサービスです。Bedrock はお客様が基盤モデルを使って生成系AIベースのアプリケーションを構築・拡張する最も簡単な手法であり、すべてのアプリケーション開発者が利用できます。また、選択できるモデルの一つとして、Amazon が開発している基盤モデルである Amazon Titan を本日発表しました。
Amazon EKS が Kubernetes 1.26 のサポートを開始
Amazon Elastic Kubernetes Service (Amazon EKS) チームは、Amazon EKS および Amazon EKS Distro の Kubernetes バージョン 1.26 のサポートを発表できることを嬉しく思います。Amazon EKS Anywhere (リリース 0.15.1) も Kubernetes 1.26 をサポートします。この記事では、Kubernetes バージョン 1.26 の主な変更点について説明し、AWS コミュニティが注目するいくつかのエキサイティングな機能について紹介します。
AWS for Games at GDC 2023
この記事は、” AWS for Games at GDC 2023 ” を翻訳したものです。 3月20日から2 […]
AWS Summit Tokyo 開催直前 見どころをご紹介
延べ 35,000 人が参加する日本最大の 「AWS を学ぶイベント」、 AWS Summit Tokyo が […]