AWS Thai Blog

ใช้ประโยชน์จากพลังของข้อมูลด้วย AWS Analytics

ปี 2020-2022 ได้เตือนเราถึงความจำเป็นของการมีความคล่องตัวเมื่อเผชิญกับการเปลี่ยนแปลงอย่างต่อเนื่องและกะทันหัน ลูกค้าทุกรายที่ผมคุยด้วยในปีนี้ต้องทำสิ่งต่าง ๆ ที่แตกต่างออกไปเนื่องจากการระบาดใหญ่ ลูกค้าบางรายกำลังมุ่งเน้นไปที่การขับเคลื่อนประสิทธิภาพในการดำเนินงานเพิ่มขึ้น และลูกค้าบางรายกำลังเติบโตอย่างมาก โดยรวมแล้ว ผมเห็นองค์กรต่างๆ ที่ต้องการใช้ข้อมูลของตนเพื่อตัดสินใจได้ดีขึ้นอย่างรวดเร็วเมื่อมีการเปลี่ยนแปลงเกิดขึ้น ความคล่องตัวดังกล่าวกำหนดให้พวกเขาต้องรวบรวมข้อมูลจำนวนหลายเทราไบต์ เพทาไบต์ และเอ็กซาไบต์ที่เคยถูกเก็บแยกไว้ก่อนหน้านี้ เพื่อให้ได้มุมมองที่สมบูรณ์เกี่ยวกับลูกค้าและการดำเนินธุรกิจของตน โซลูชันการวิเคราะห์ข้อมูลภายในองค์กรแบบดั้งเดิมไม่สามารถจัดการกับแนวทางนี้ได้ เนื่องจากไม่สามารถปรับขนาดได้เพียงพอและมีราคาสูงเกินไป ด้วยเหตุนี้ เราจึงเห็นว่าลูกค้าเร่งปรับปรุงข้อมูลและโครงสร้างพื้นฐานด้านการวิเคราะห์ให้ทันสมัยโดยการย้ายไปใช้ระบบคลาวด์

ข้อมูลลูกค้าใน Real world

ในการวิเคราะห์ข้อมูลจำนวนมหาศาลเหล่านี้ บริษัทหลายแห่งกำลังย้ายข้อมูลทั้งหมดจาก silo ต่างๆ ไปยังสถานที่เดียว ซึ่งมักถูกเรียกว่า Data Lake เพื่อดำเนินการวิเคราะห์และใช้งาน Machine learning บริษัทเหล่านี้ยังจัดเก็บข้อมูลในพื้นที่จัดเก็บข้อมูลที่สร้างขึ้นตามวัตถุประสงค์เพื่อประสิทธิภาพ การปรับขนาด และข้อได้เปรียบด้านต้นทุนสำหรับการใช้งานเฉพาะเจาะจง ตัวอย่างของพื้นที่จัดเก็บข้อมูลดังกล่าว ได้แก่ data warehouse เพื่อให้ได้ผลลัพธ์ที่รวดเร็วสำหรับการสืบค้นที่ซับซ้อนสำหรับข้อมูลแบบ structured และเทคโนโลยี เช่น Elasticsearch และ OpenSearch เพื่อค้นหาและวิเคราะห์ข้อมูลอย่างรวดเร็วเพื่อตรวจสอบความสมบูรณ์ของระบบการผลิต ซึ่ง One-size-fits-all หรือแนวทางเดียวในการวิเคราะห์ข้อมูลจะใช้ไม่ได้ผลอีกต่อไป เพราะไม่รองรับการ scale และไม่สามารถใช้งานได้เต็มประสิทธิภาพ

เพื่อให้ได้ประโยชน์สูงสุดจาก Data Lake และพื้นที่จัดเก็บข้อมูลที่สร้างขึ้นตามวัตถุประสงค์ หรือลูกค้าต้องย้ายข้อมูลระหว่างระบบเหล่านี้สะดวก ตัวอย่างเช่น ข้อมูล clickstream จากเว็บแอปพลิเคชันสามารถถูกเก็บรวบรวมได้โดยตรงใน Data Lake และสามารถย้ายข้อมูลส่วนหนึ่งไปยัง data warehouse เพื่อการรายงานประจำวัน เราเห็นว่าแนวคิดนี้เป็นการย้ายข้อมูลแบบ inside-out หรือจากภายในสู่ภายนอก

ในทำนองเดียวกัน ลูกค้าย้ายข้อมูลไปในทิศทางอื่น: outside-in จากภายนอกสู่ภายใน ตัวอย่างเช่น ลูกค้าต้องการ copy ผลลัพธ์การสืบค้นสำหรับการขายผลิตภัณฑ์ในภูมิภาคที่กำหนดจาก data warehouse ไปยัง Data Lake เพื่อเรียกใช้อัลกอริทึมการแนะนำผลิตภัณฑ์กับชุดข้อมูลขนาดใหญ่ขึ้นโดยใช้ machine learning

สุดท้ายในสถานการณ์อื่นๆ ลูกค้าต้องการย้ายข้อมูลจากพื้นที่จัดเก็บข้อมูลที่สร้างขึ้นตามวัตถุประสงค์แห่งหนึ่งไปยังอีกแห่งหนึ่ง: around-the-perimeter หรือรอบขอบเขต ตัวอย่างเช่น ลูกค้าอาจ copy ข้อมูลแค็ตตาล็อกผลิตภัณฑ์ที่จัดเก็บไว้ในฐานข้อมูลของตนไปยังบริการสืบค้นของตน เพื่อให้ง่ายต่อการดูผ่านแค็ตตาล็อกผลิตภัณฑ์และ offload งานการสืบค้นจากฐานข้อมูล

เนื่องจากข้อมูลใน Data Lake และ purpose-built stores หรือพื้นที่จัดเก็บข้อมูลที่สร้างขึ้นตามวัตถุประสงค์เหล่านี้ มีปริมาณของข้อมูลเพิ่มขึ้นอย่างต่อเนื่อง การย้ายข้อมูลดังกล่าวทั้งหมดจึงยากขึ้น ซึ่งเราเรียกว่า data gravity หรือ แรงโน้มถ่วงของข้อมูล

เพื่อตัดสินใจด้วยความรวดเร็วและความคล่องตัว ลูกค้าต้องสามารถใช้ Data Lake ส่วนกลางและบริการข้อมูลที่สร้างขึ้นตามวัตถุประสงค์รอบ Data Lake ได้ ลูกค้ายังต้องยอมรับแรงโน้มถ่วงของข้อมูลด้วยการย้ายข้อมูลที่ต้องการระหว่างพื้นที่จัดเก็บข้อมูลดังกล่าวอย่างง่ายดายด้วยวิธีที่ปลอดภัยและได้รับการควบคุม

เพื่อตอบสนองความต้องการเหล่านี้ ลูกค้าต้องการ data architecture หรือสถาปัตยกรรมข้อมูลที่รองรับสิ่งต่อไปนี้:

  • การสร้าง Data Lake ที่สามารถ scale หรือปรับขนาดได้อย่างรวดเร็ว
  • การใช้บริการข้อมูลที่สร้างขึ้นตามวัตถุประสงค์ในเชิงกว้างและเชิงลึกและครอบคลุม ซึ่งให้ประสิทธิภาพที่จำเป็นสำหรับการใช้งาน เช่น interactive dashboard หรือ แดชบอร์ดที่สื่อสารโต้ตอบได้และการวิเคราะห์ข้อมูล log
  • การย้ายข้อมูลอย่างราบรื่นระหว่าง Data Lake และบริการข้อมูลที่สร้างขึ้นตามวัตถุประสงค์ และระหว่างบริการข้อมูลที่สร้างขึ้นตามวัตถุประสงค์ต่างๆ
  • ตรวจสอบการปฏิบัติตามผ่าน unified way หรือวิธีการแบบครบวงจรเพื่อรักษาความปลอดภัย ตรวจสอบ และจัดการการเข้าถึงข้อมูล
  • ระบบการปรับขนาดด้วยต้นทุนต่ำโดยไม่ลดทอนประสิทธิภาพ

เราเรียกวิธีการที่ทันสมัยในการวิเคราะห์นี้ว่า Lake House Architecture

Lake House Architecture บน AWS

Lake House Architecture ยอมรับแนวคิดที่ว่าการใช้แนวทางการวิเคราะห์แบบ one-size-fits-all จะนำไปสู่การเข้าถึงและใช้ข้อมูลอย่างไม่เต็มประสิทธิภาพ ซึ่งไม่ใช่การนำ data lake และ data warehouse มาใช้งานร่วมกันเพียงอย่างเดียว แต่คือการนำทั้ง data lake, data warehouse และ purpose-built stores ซึ่งจะช่วยให้เกิด unified governance การกำกับดูแลที่เป็นอันหนึ่งอันเดียวกันและการเคลื่อนย้ายข้อมูลได้ง่าย แผนภาพด้านล่างแสดง Lake House Architecture ใน AWS

มาดูกันว่า Lake House Architecture ใน AWS และความสามารถใหม่บางประการที่เราได้ประกาศใน re:Invent ช่วยให้ลูกค้าปฏิบัติตามข้อกำหนดข้างต้นได้อย่างไร

Scalable data lakes (Data lake ที่สามารถปรับขนาดได้)

Amazon Simple Storage Service (Amazon S3) เป็นเซอร์วิสที่ดีที่สุดในการสร้าง Data Lake เนื่องจากมีความทนทาน ความพร้อมใช้งาน และความสามารถในการปรับขนาดแบบ virtually unlimited ความสามารถในการรักษาความปลอดภัย การปฏิบัติตามข้อกำหนด และความสามารถด้านการตรวจสอบที่ดีที่สุด ประสิทธิภาพที่เร็วที่สุดด้วยต้นทุนต่ำสุด วิธีที่ดีที่สุดในการนำเข้าข้อมูล และการรวมบริการจาก partner มากที่สุด

อย่างไรก็ตาม การตั้งค่าและการจัดการ Data Lake เกี่ยวข้องกับงานที่ต้องดำเนินการเองและใช้เวลามาก เช่น การโหลดข้อมูลจากแหล่งต่างๆ, การตรวจสอบ data flow, การจัดการ partion, การเปิดการเข้ารหัสและการจัดการคีย์, การจัดระเบียบข้อมูลใหม่ให้อยู่ในรูปแบบ columnar (การจัดข้อมูลในรูปแบบ column เพื่อประโยชน์ในการวิเคราะห์, aggregate function) และ การอนุญาตและการตรวจสอบการเข้าใช้ระบบ เพื่อช่วยให้สิ่งเหล่านี้ง่ายขึ้น เราได้สร้าง AWS Lake Formation ซึ่ง Lake Formation ช่วยให้ลูกค้า สร้าง Data Lake ที่ปลอดภัยในระบบคลาวด์ภายในเวลาไม่กี่วันแทนที่จะใช้เวลาเป็นเดือน Lake Formation รวบรวมและจัดข้อมูลจากฐานข้อมูลและ object storage หรือพื้นที่จัดเก็บข้อมูลแบบวัตถุ, การย้ายข้อมูลไปยัง Data Lake ของ Amazon S3 เพื่อ clean และ classify (จัดหมวดหมู่) โดยใช้อัลกอริทึม machine learning และรักษาความปลอดภัยในการเข้าถึง sensitive data หรือข้อมูลที่ละเอียดอ่อน

นอกจากนี้ เราได้ประกาศความสามารถใหม่สามประการสำหรับ AWS Lake Formation: ACID transaction (การทำ transaction ที่รองรับ atomicity, consistency, isolation, durability) และ governed table สำหรับการอัปเดตพร้อมกันและผลลัพธ์ของคิวรีที่สอดคล้องกันและการเร่งความเร็วของคิวรีผ่านการย่อไฟล์อัตโนมัติ ใน preview นี้ได้แนะนำ API ใหม่ที่รองรับ atomic, consistent, isolated, and durable (ACID) transactions โดยใช้รูปแบบ data lake table type ที่เรียกว่า a governed table ซึ่งจะอนุญาตให้ผู้ใช้หลายคน insert, delete และ modify row ใน table ได้พร้อมกัน ในขณะเดียวกันก็ยังอนุญาตให้ผู้ใช้รายอื่นเรียกใช้ analytical query และ machine learning model ในชุดข้อมูลเดียวกัน โดยจะทำ file compaction แบบอัตโนมัติ ซึ่งเป็นการรวมไฟล์ขนาดเล็กเป็นไฟล์ขนาดใหญ่ขึ้น เพื่อให้สามารถสืบค้นได้รวดเร็วขึ้นถึงเจ็ดเท่า

Purpose-built analytics services (เซอร์วิสการวิเคราะห์ที่สร้างขึ้นตามวัตถุประสงค์)

AWS นำเสนอเซอร์วิสด้านการวิเคราะห์ข้อมูล ซึ่งสร้างขึ้นตามวัตถุประสงค์ได้ครอบคลุมและลึกที่สุด ประกอบไปด้วย Amazon Athena, Amazon EMR, Amazon OpenSearch Service, Amazon Kinesis และ Amazon Redshift เซอร์วิสดังกล่าวทั้งหมดถูกสร้างขึ้นอย่างดีที่สุด ซึ่งหมายความว่าคุณไม่จำเป็นต้องกังวลเกี่ยวกับประสิทธิภาพ ขนาด หรือค่าใช้จ่ายเมื่อใช้บริการ ตัวอย่างเช่น Amazon Redshift มีค่าประสิทธิภาพต่อราคา สูงกว่า data warehouse ระบบคลาวด์อื่นๆถึงสามเท่า และ Apache Spark บน EMR ทำงานได้เร็วกว่า Apache Spark 3.0 มาตรฐาน 1.7 เท่า ซึ่งหมายความว่าสามารถทำการวิเคราะห์ในระดับเพตะไบต์ได้ในราคาที่น้อยกว่าครึ่งหนึ่งของโซลูชันภายในองค์กรแบบเดิม

เราสร้างสรรค์สิ่งใหม่ๆ อยู่เสมอเพื่อตอบสนองความต้องการของลูกค้าด้วยความสามารถและคุณสมบัติใหม่ๆ ในบริการที่สร้างขึ้นตามวัตถุประสงค์เหล่านี้ ตัวอย่างเช่น เพื่อช่วยในการประหยัดค่าใช้จ่ายเพิ่มเติมและความยืดหยุ่นในการนำไปใช้ วันนี้เราได้ประกาศความพร้อมใช้งานทั่วไปของ Amazon EMR บน Amazon Elastic Kubernetes Service (EKS) ซึ่งนำเสนอตัวเลือกการนำไปใช้ใหม่ของ Amazon EMR ที่มีการจัดการเต็มรูปแบบบน Amazon EKS จนถึงขณะนี้ ลูกค้าต้องเลือกระหว่างการเรียกใช้ Amazon EMR ที่ได้รับการจัดการบน EC2 และการจัดการ Apache Spark ของตนเองบน Amazon EKS ด้วยตนเอง ขณะนี้ สามารถรวมเวิร์คโหลดเชิงวิเคราะห์เข้ากับไมโครเซอร์วิสและแอปพลิเคชันบน Kubernetes อื่นๆ บนคลัสเตอร์ Amazon EKS เดียวกันได้ ซึ่งช่วยให้เกิดการใช้ทรัพยากรที่ได้รับการปรับปรุง การจัดการโครงสร้างพื้นฐานที่ง่ายขึ้น และความสามารถในการใช้เครื่องมือชุดเดียวสำหรับการ monitor

เพื่อประสิทธิภาพการจัดเก็บข้อมูลที่เร็วขึ้น เราได้ประกาศความพร้อมใช้งานทั่วไปของ Automatic Table Optimizations (ATO) for Amazon Redshift ซึ่ง ATO ช่วยลดความยุ่งยากในการปรับประสิทธิภาพของ data warehouse Amazon Redshift โดยใช้ machine learning เพื่อทำให้การปรับให้เหมาะสมสามารถดำเนินการได้โดยอัตโนมัติ เช่น การตั้งค่า distribution และ sort key เพื่อให้คุณได้รับประสิทธิภาพที่ดีที่สุดโดยไม่ต้องเสียค่าใช้จ่ายในการปรับประสิทธิภาพด้วยตนเอง

นอกจากนี้ เราได้ประกาศความพร้อมใช้งานทั่วไปของ Amazon QuickSight Q เพื่อให้ผู้ใช้เชิงธุรกิจของคุณได้รับข้อมูลเชิงลึกจากข้อมูลได้ง่ายและรวดเร็วยิ่งขึ้น QuickSight Q ซึ่งใช้ machine learning เพื่อสร้าง data model ที่เข้าใจความหมายและความสัมพันธ์ของข้อมูลธุรกิจโดยอัตโนมัติ โดยช่วยให้ผู้ใช้สามารถถามคำถามเฉพาะกิจเกี่ยวกับข้อมูลธุรกิจในภาษาที่อังกฤษที่สามารถอ่านได้ และได้รับคำตอบที่ถูกต้องภายในไม่กี่วินาที ด้วยเหตุนี้ ผู้ใช้เชิงธุรกิจจึงสามารถได้รับคำตอบสำหรับคำถามของตนได้ทันที โดยไม่ต้องรอการสร้าง data model โดยทีมข้อมูลเชิงธุรกิจ (BI) ที่มีพนักงานจำนวนไม่มาก

Seamless data movement (การย้ายข้อมูลอย่างราบรื่น)

ด้วยข้อมูลที่จัดเก็บไว้ในระบบที่แตกต่างกันจำนวนมาก ลูกค้าจำเป็นต้องสามารถย้ายข้อมูลดังกล่าวระหว่างบริการและพื้นที่จัดเก็บข้อมูลทั้งหมดของตนได้อย่างง่ายดาย ไม่ว่าจะเป็นการย้ายข้อมูลจากภายในสู่ภายนอก ภายนอกสู่ภายใน และขอบเขตโดยรอบ AWS Glue คือเซอร์วิส data integration รูปแบบ serverless ที่ช่วยให้คุณเตรียมข้อมูลสำหรับการวิเคราะห์, machine learning และการพัฒนาแอปพลิเคชันได้อย่างง่ายดาย AWS Glue มีความสามารถทั้งหมดที่จำเป็นสำหรับการทำ data integration สามารถค้นหาข้อมูลเชิงลึกได้ภายในเวลาไม่กี่นาทีแทนที่จะใช้เวลาเป็นเดือน ทั้ง Amazon Redshift และ Athena รองรับ federated query หรือการสืบค้นแบบรวมศูนย์ ความสามารถในการ query ข้อมูลระหว่าง data store ในฐานข้อมูลการดำเนินงาน data warehouse และ data lake เพื่อหาข้อมูลเชิงลึกในแหล่งข้อมูลหลายแห่งโดยไม่ต้องเคลื่อนย้ายข้อมูล และไม่จำเป็นต้องตั้งค่าและไม่จำเป็นดูแลจัดการ extract, transform และ load (ETL) pipeline ที่มีความซับซ้อน

เรายังได้ประกาศ Amazon Redshift data sharing การแชร์ข้อมูลเป็นวิธีที่ง่ายและปลอดภัยสำหรับการแชร์ live data ผ่าน คลัสเตอร์ Amazon Redshift หลายคลัสเตอร์ภายในและภายนอกองค์กรโดยไม่จำเป็นต้องทำสำเนาหรือย้ายข้อมูลที่ซับซ้อน ลูกค้าสามารถใช้การแชร์ข้อมูลเพื่อเรียกใช้เวิร์คโหลดเชิงวิเคราะห์ที่ใช้ข้อมูลเดียวกันในคลัสเตอร์คอมพิวแยกกัน เพื่อให้เป็นไปตามข้อกำหนดด้านประสิทธิภาพของแต่ละเวิร์คโหลดและติดตามการใช้งานตามกลุ่มธุรกิจแต่ละกลุ่ม ตัวอย่างเช่น ลูกค้าสามารถตั้งค่าคลัสเตอร์ ETL ส่วนกลางและแชร์ข้อมูลกับคลัสเตอร์ BI หลายคลัสเตอร์เพื่อแยกเวิร์คโหลดและคิดค่าใช้จ่ายตามหน่วยงาน

Unified governance (การกำกับดูแลแบบรวมศูนย์)

หนึ่งในส่วนที่สำคัญที่สุดของ modern analytics architecture หรือสถาปัตยกรรมเชิงวิเคราะห์สมัยใหม่ คือความสามารถในการอนุญาต จัดการ และตรวจสอบการเข้าถึงข้อมูล การเปิดใช้งานความสามารถดังกล่าวอาจเป็นเรื่องที่ท้าทาย เนื่องจากการจัดการความปลอดภัย การควบคุมการเข้าถึง และการตรวจสอบพื้นที่จัดเก็บข้อมูลทั้งหมดในองค์กรมีความซับซ้อนและใช้เวลานาน นอกจากนี้ อาจเกิดข้อผิดพลาดได้เนื่องจากต้องมีการดูแลรายการควบคุมการเข้าถึงและนโยบายการตรวจสอบด้วยตนเองสำหรับระบบจัดเก็บข้อมูลทั้งหมด โดยแต่ละระบบมีการรักษาความปลอดภัย การเข้าถึงข้อมูล และกลไกการตรวจสอบที่แตกต่างกัน

ด้วยความสามารถต่างๆ เช่น การควบคุมการเข้าถึงข้อมูลจากส่วนกลางและนโยบายต่างๆ พร้อมด้วยการกรองระดับคอลัมน์และแถว AWS ช่วยให้ลูกค้าสามารถดำเนินการควบคุมการเข้าถึงและการกำกับดูแลอย่างละเอียดเพื่อจัดการการเข้าถึงข้อมูลใน Data lake และพื้นที่จัดเก็บข้อมูลที่สร้างขึ้นตามวัตถุประสงค์จากจุดควบคุมเพียงจุดเดียว

ปัจจุบัน เราได้ประกาศ preview การรักษาความปลอดภัยของ row-level หรือระดับแถว สำหรับ AWS Lake Formation ซึ่งทำให้สามารถควบคุมการเข้าถึงสำหรับบุคคลและแอปพลิเคชันทั้งหมดที่จำเป็นต้องแชร์ข้อมูลได้ง่ายยิ่งขึ้น การรักษาความปลอดภัยระดับแถวช่วยให้สามารถกรองและตั้งค่านโยบายการเข้าถึงข้อมูลในระดับแถวได้ ตัวอย่างเช่น คุณสามารถกำหนดนโยบายที่อนุญาตให้ผู้จัดการฝ่ายขายประจำภูมิภาคเข้าถึงเฉพาะข้อมูลการขายสำหรับภูมิภาคของตนได้ การกรองระดับนี้ทำให้ไม่จำเป็นต้องจัดเก็บสำเนาของตาราง Data Lake ที่แตกต่างกันสำหรับกลุ่มผู้ใช้ต่างๆ จึงช่วยให้ท่านประหยัดค่าใช้จ่ายในการดำเนินการและค่าใช้จ่ายในการจัดเก็บที่ไม่จำเป็น

Performance and cost-effectiveness​ (ประสิทธิภาพและความคุ้มค่า)

ที่ AWS เรามุ่งมั่นที่จะให้บริการด้านการวิเคราะห์ทั้งหมดด้วยค่าใช้จ่ายต่ำที่สุด และเรายังสร้างสรรค์สิ่งใหม่ๆ เพื่อปรับปรุงประสิทธิภาพด้านราคาของเซอร์วิสของเราอย่างต่อเนื่อง นอกเหนือจากประสิทธิภาพด้านราคาระดับชั้นนำของอุตสาหกรรมสำหรับเซอร์วิสต่างๆ เช่น Amazon Redshift, Amazon EMR, Amazon S3 Intelligent Tiering ยังช่วยประหยัดค่าใช้จ่ายด้านพื้นที่จัดเก็บให้กับลูกค้าได้ถึง 40% สำหรับข้อมูลที่จัดเก็บไว้ใน Data lake และ Amazon EC2 ให้การเข้าถึงอินสแตนซ์มากกว่า 350 ประเภท เครือข่ายอีเทอร์เน็ตความเร็วสูงถึง 400Gbps และความสามารถในการเลือกระหว่างอินสแตนซ์แบบ On-Demand, Reserved และ Spot เราได้ประกาศการรองรับ Amazon EMR สำหรับ Amazon EC2 M6g อินสแตนซ์ ที่ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton2 ในเดือนตุลาคม โดยให้ทำให้ค่าใช้จ่ายลดลงสูงสุด 35% และประสิทธิภาพที่ดีขึ้นสูงสุด 15% ลูกค้าของเรายังสามารถใช้ประโยชน์จาก AWS Savings Plans ซึ่งเป็นรูปแบบราคาที่ยืดหยุ่นที่ช่วยประหยัดค่าใช้จ่ายได้ถึง 72% สำหรับการใช้งานการประมวลผลของ AWS

ในการกำหนดพื้นฐานสำหรับการ scale ของข้อมูล เราได้ประกาศ AQUA (Advanced Query Accelerator) for Amazon Redshift เปิดให้ใช้งานทั่วไป ซึ่ง AQUA เป็น distributed กระจายทำงานและเร่งความเร็วด้วยฮาร์ดแวร์รูปแบบใหม่ ซึ่งประมวลผลในระดับพื้นที่จัดเก็บข้อมูล และมอบประสิทธิภาพการสืบค้นที่เร็วขึ้นถึงสิบเท่าเมื่อเทียบกับ data warehouse บนระบบคลาวด์อื่นๆ โดย AQUA พร้อมใช้งานบน Amazon Redshift RA3 อินสแตนซ์ โดยไม่มีค่าใช้จ่ายเพิ่มเติม และลูกค้าสามารถใช้ประโยชน์จากการปรับปรุงประสิทธิภาพ AQUA ได้โดยไม่ต้องเปลี่ยนโค้ดใดๆ

เรียนรู้เพิ่มเติมและเริ่มต้นใช้งานวันนี้

AWS Analytics สามารถจัดหาโซลูชัน ไม่ว่าลูกค้าต้องการดำเนินการใดๆ กับข้อมูล เราให้บริการเชิงวิเคราะห์ซึ่งสร้างขึ้นตามวัตถุประสงค์ที่ครอบคลุมและลึกที่สุดเพื่อให้เกิด Lake House Architecture โดยพอร์ตโฟลิโอของเราประกอบด้วย Data lake ที่ scale หรือปรับขนาดได้มากที่สุด, purpose-built analytics services (บริการเชิงวิเคราะห์ที่สร้างขึ้นตามวัตถุประสงค์), seamless data movement หรือการย้ายข้อมูลอย่างสะดวก และ unified governance (การกำกับดูแลแบบรวมศูนย์) ซึ่งจัดหาให้ด้วยประสิทธิภาพที่ดีที่สุดและค่าใช้จ่ายต่ำที่สุด

อ่านประกาศทั้งหมดเกี่ยวกับ Analytics ได้ที่ What’s New และ preview เกี่ยวกับ Analytics โดยใช้ลิงก์ด้านล่าง สามารถศึกษาข้อมูลเพิ่มเติมโดยการรับชมเซสชันเกี่ยวกับ Analytics มากกว่า 40 รายการ ซึ่งเป็นส่วนหนึ่งของ AWS re:Invent เข้าไปที่ session catalog และเลือกแทร็ค Analytics เพื่อดูเซสชันที่ผ่านมา และเพิ่มรายการเซสชันในอนาคตในปฏิทินของคุณ

สุดท้ายคือการใช้ประโยชน์จาก AWS Data Lab ซึ่งมอบโอกาสต่างๆ สำหรับลูกค้า และทรัพยากรทางเทคนิคของ AWS ในการมีส่วนร่วมและเร่งให้เกิดความริเริ่มเพื่อปรับปรุงข้อมูลและการวิเคราะห์ให้ทันสมัย

Announcement (General available)