Ti aiutiamo a scegliere

Amazon Web Services (AWS) offre ai clienti la flessibilità di scegliere una strategia per creare applicazioni moderne che soddisfino le loro esigenze aziendali. I clienti che sviluppano una strategia per la creazione di app moderne su AWS spesso adottano uno dei due approcci di alto livello: un modello di strategia Serverless con AWS che utilizza AWS Lambda e container o Kubernetes su AWS.

AWS è progettato per fornirti l'accesso ai giusti servizi di elaborazione e di supporto (come database, messaggistica e orchestrazione) per i tuoi carichi di lavoro. AWS offre la possibilità di creare applicazioni serverless utilizzando un servizio di elaborazione basato su eventi come AWS Lambda e opzioni di container serverless come AWS Fargate e AWS App Runner. AWS offre modi per creare applicazioni container con opzioni Amazon Elastic Container Service (Amazon ECS) e Kubernetes come Amazon Elastic Kubernetes Service (Amazon EKS), il servizio Red Hat OpenShift su AWS (ROSA) e Kubernetes autogestito su Amazon Elastic Compute Cloud (Amazon EC2).

I seguenti contenuti ti aiuteranno a scegliere l'approccio più adatto al tuo ambiente e a iniziare a implementare il tuo approccio su AWS.

I vantaggi delle applicazioni moderne

Adotta modelli architettonici modulari e sfrutta i modelli operativi dei servizi gestiti.

Crea applicazioni più sostenibili dal punto di vista ambientale, scalabili e resilienti.

Accelera l'innovazione, riduci i rischi, accelera il time-to-market e riduci il costo totale di proprietà (TCO).

Preparati a iniziare a implementare carichi di lavoro di produzione nel cloud con passaggi successivi chiaramente definiti.

Fase 1: Determinare i criteri

Le applicazioni moderne sono realizzate con modelli architettonici modulari e possono sfruttare modelli operativi serverless per creare applicazioni più sostenibili, scalabili e resilienti. Consentono di innovare più velocemente, ridurre i rischi, accelerare il time-to-market e ridurre il TCO.  Quando si creano nuove applicazioni moderne o si modernizzano applicazioni esistenti, architetti e sviluppatori hanno a disposizione un gran numero di elementi costitutivi e uno dei più importanti è la scelta dei servizi di elaborazione. AWS è progettato per fornire accesso al servizio di elaborazione giusto per i loro carichi di lavoro, una scelta che supporta qualsiasi strategia di sviluppo di applicazioni moderne che decidi di adottare per soddisfare le tue esigenze.

Prima di determinare quale strategia moderna di sviluppo di app implementare, è necessario determinare i criteri in base alle dimensioni dei carichi di lavoro.

  • Le organizzazioni possono scegliere il cloud per ridurre i costi operativi standardizzando servizi gestiti che trasferiscono l'onere operativo su AWS. Livelli di astrazione più elevati consentono agli sviluppatori e agli operatori di concentrarsi sulle proprie attività a valore aggiunto uniche, anziché su attività indifferenziate.

    La creazione su AWS Serverless utilizza servizi con livelli di astrazione più elevati per trasferire il sovraccarico operativo della manutenzione dell'infrastruttura su AWS.

    AWS offre anche diverse offerte gestite per Kubernetes . Queste offerte si differenziano per il livello di tecnologia che l’organizzazione deve gestire in caso di adozione. AWS fornisce anche acceleratori, come componenti aggiuntivi e progetti EKS, per velocizzare la configurazione.

  • Molti clienti AWS si basano su tecnologie open source ampiamente supportate. L'open source può consentire a un'organizzazione di trovare le competenze giuste ed evitare il rischio di bloccarsi. Fare le scelte sbagliate in un ecosistema open source può portare a rimanere bloccati in astrazioni e integrazioni locali. Inoltre, la responsabilità di far funzionare insieme diversi componenti open source spetta spesso all'organizzazione che effettua la scelta. Molto frequentemente capita che le organizzazioni dedichino troppo tempo alla manutenzione delle integrazioni open source.

    Note:

    • Prendi in considerazione le fonti della comunità e il sostegno di imprese o fondazioni quando effettui questi investimenti. Un investimento in questi progetti non è solo finanziario. È anche necessario investire nel training e nella formazione del team sulle tecnologie utilizzate. 
    • Potresti anche incorrere in qualche debito tecnico (a causa del lavoro richiesto per la manutenzione di tali integrazioni) poiché questi componenti e le integrazioni associate richiedono in genere un aggiornamento.
    • Visita il blog AWS Open Source per ottenere idee sulle implementazioni open source.
  • Quando si sceglie una strategia di sviluppo di applicazioni moderna, è importante che la strategia soddisfi una varietà di modelli di carico di lavoro. Le scelte sull’architettura saranno più semplici se comprendi i modelli del tuo carico di lavoro. Ad esempio, applicazioni Web, microservizi basati su API, applicazioni basate su eventi, streaming e messaggistica, pipeline di dati, automazioni IT e altro ancora. Alcuni carichi di lavoro avranno prestazioni migliori o saranno più convenienti in un ambiente di elaborazione rispetto a un altro tipo.

    Quando vengono creati con AWS Serverless, i servizi come App Runner e Batch AWS sono progettati per supportare prontamente le esigenze di un determinato tipo di carico di lavoro. I carichi di lavoro che utilizzano questo approccio saranno più facili da creare, avranno prestazioni migliori o saranno più convenienti, sebbene ciò vada a scapito della flessibilità.

    Kubernetes fornisce coerenza tra cloud e ambienti on-premise, se richiesto dall'organizzazione.

  • I carichi di lavoro non vivono isolati. I carichi di lavoro sono supportati da tecnologie come database, messaggistica, streaming, orchestrazione e altri servizi. Un'efficace strategia di sviluppo di app moderne richiede l'integrazione con questi servizi. Le integrazioni gestite semplificano il sovraccarico operativo e la gestione dell'infrastruttura sottostante.

    Le opzioni AWS Serverless sono profondamente integrate nell'ecosistema AWS. AWS Lambda può iscriversi a eventi da oltre 200 altri servizi. Le estensioni di AWS Lambda, ad esempio, consentono l'integrazione con strumenti di monitoraggio, osservabilità, sicurezza e governance. Lambda richiama una determinata funzione in un ambiente di esecuzione, che fornisce un runtime sicuro e isolato in cui viene eseguito il codice della funzione. 

    Le offerte gestite da AWS per Kubernetes forniscono integrazioni con offerte gestite. Kubernetes stesso dispone di un ricco ecosistema di partner che offre l'integrazione con numerose altre tecnologie.

  • Molti clienti devono creare esperimenti per convalidare le idee. Questi prototipi potrebbero essere l'idea per una nuova applicazione e/o buttati via se non ha successo. La capacità di fornire un ambiente in cui scrivere, implementare e convalidare idee rapidamente è essenziale per un ambiente sano. L’ambiente viene spesso trascurato quando si sviluppa una moderna strategia di sviluppo di app, ma la capacità di fare innovazioni aziendali potrebbe dipendere proprio da tale ambiente. Far sì che i team siano in grado di utilizzare servizi che possano essere utilizzati per creare, testare e iterare rapidamente è fondamentale per scoprire nuove opportunità di business.

  • Molti clienti vogliono assicurarsi che le loro applicazioni possano essere eseguite ed essere facilmente migrate o spostate in un ambiente diverso. Vogliono poter scegliere se spostare i fornitori di cloud o eseguire un'applicazione sia on-premise sia nel cloud. Ciò include spesso la necessità di supportare i framework linguistici e gli scenari di sviluppo più diffusi. Ad esempio, gli sviluppatori Java potrebbero voler usare Spring o Python e gli ingegneri dei dati potrebbero voler usare PyTorch. La scelta di un approccio moderno allo sviluppo di app non sarà sufficiente di per sé. Richiederà le best practice e l'architettura per raggiungere la portabilità delle applicazioni. Ti consigliamo di acquisire competenze nelle architetture software e creare pacchetti che consentano di trasferire più facilmente la logica aziendale differenziata tra i servizi di elaborazione.

    Le applicazioni create utilizzando alcune tecnologie possono funzionare in modo più efficace su alcuni servizi di elaborazione rispetto ad altri. I servizi container sono in genere un obiettivo di migrazione migliore per le applicazioni legacy rispetto a Lambda, che richiede una modifica dell'architettura.

  • Dovrebbe esserci una netta differenza tra la portabilità delle applicazioni e quella dell'automazione. La maggior parte delle volte, la scelta tra AWS Serverless o AWS Kubernetes in realtà ha poco a che fare con la portabilità o meno di un'applicazione. Invece, sono gli strumenti utilizzati dai team dell'infrastruttura e dai team DevOps a essere un fattore chiave. I clienti che scelgono l'approccio Kubernetes su AWS sono spesso alla ricerca della portabilità dell'infrastruttura e degli strumenti di implementazione.

  • Le competenze della tua organizzazione sono un fattore importante per decidere se adottare un approccio serverless o basato su container per lo sviluppo di app moderne. Sia i serverless che i container richiederanno un certo investimento nei team DevOps e Site Reliability Engineer (SRE). La creazione di una pipeline automatizzata per la distribuzione delle applicazioni è comune per la maggior parte delle applicazioni moderne.

    Alcune scelte aumentano la quantità di gestione. Ad esempio, alcune organizzazioni dispongono delle competenze e delle risorse per eseguire e gestire un'implementazione Kubernetes , poiché investono in forti team SRE per gestire i cluster Kubernetes. Questi team gestiscono gli aggiornamenti frequenti dei cluster (ad esempio, Kubernetes rilascia tre release principali all'anno e le vecchie versioni sono obsolete).

    Le dimensioni dell'organizzazione sono un fattore chiave, poiché le startup più piccole dispongono forse di un piccolo staff IT composto da persone che ricoprono più ruoli, mentre le aziende più grandi possono essere in grado di supportare centinaia di carichi di lavoro in produzione contemporaneamente.

  • Le decisioni relative all'architettura comportano dei compromessi, uno dei quali è spesso il costo. È comune avere difficoltà a stimare il costo delle applicazioni moderne a causa della natura dinamica dei componenti coinvolti. Sebbene il costo di un set fisso di server sia più facile da stimare, si paga per quei server anche quando non aggiungono valore aziendale.

    Entrambi gli approcci offrono molteplici leve per raggiungere gli obiettivi di costo per i carichi di lavoro. La scelta ad alto livello tra gli approcci dovrebbe considerare il costo non solo in termini di risorse, ma anche di impegno necessario per la creazione e il mantenimento della strategia. Il calcolatore dei prezzi di AWS può essere utile per comprendere i costi di un determinato carico di lavoro.

  • Soddisfare i requisiti di sicurezza e conformità è un aspetto fondamentale di ogni carico di lavoro. I servizi AWS per entrambe le strategie possono consentirti di soddisfare rigorosi requisiti di conformità.
     
    La creazione di una soluzione con AWS Serverless ti consente di sfruttare l'integrazione con AWS Identity and Access Management (IAM) per controllare l'accesso, le strutture di rete native di AWS e il supporto degli strumenti di governance di AWS.
     
    Kubernetes su AWS richiede la comprensione dei modelli di sicurezza Kubernetes e AWS e potrebbe richiedere la mappatura tra le politiche di sicurezza. Le offerte AWS gestite, come Amazon EKS, forniscono acceleratori per eseguire le applicazioni su EKS in modo sicuro.
  • La creazione con AWS Serverless e Kubernetes su AWS ti consente di creare carichi di lavoro ben funzionanti, scalabili e resilienti. Puoi soddisfare i requisiti tecnici di cui hai bisogno. I servizi con i più alti livelli di astrazione gestiscono il posizionamento nelle zone di disponibilità di AWS e la scalabilità dell'ambiente, migliorando le prestazioni e la resilienza. Livelli di astrazione inferiori consentono un maggiore controllo sulla scalabilità del carico di lavoro. I principali compromessi sono i costi e la complessità della gestione.

Fase 2: Stabilisci quanto vuoi gestire

Uno dei principali vantaggi della modernizzazione è la capacità di trasferire le responsabilità operative, che consente di ottenere risorse per svolgere più attività a valore aggiunto e basate sull'innovazione. Esiste una gamma di opzioni di responsabilità condivisa su diversi livelli di modernizzazione, da Amazon EC2, in cui puoi creare ed eseguire il tuo codice gestendo integrazioni, scalabilità, configurazioni di sicurezza, provisioning, patch e altro, a funzioni serverless come AWS Lambda, in cui tutto ciò che gestisci è il codice dell'applicazione.

Fase 3: Determinare il caso d'uso

Ti consigliamo di valutare l'opzione di elaborazione più appropriata in base al carico di lavoro nell'ambito della tua strategia predefinita: Serverless con AWS o Kubernetes su AWS.

Esempi di casi d'uso per una strategia Serverless su AWS potrebbero includere la creazione di un sistema di elaborazione dei documenti o la gestione dei carichi di lavoro di siti Web. Nell'ambito di questa strategia, puoi scegliere AWS Lambda per creare il carico di lavoro di elaborazione dei documenti basato principalmente sugli eventi e AWS AppRunner per la bassa latenza e la scalabilità necessarie di un sito Web transazionale.

Nel frattempo, un esempio di utilizzo per i container, e per Kubernetes su AWS, potrebbe far parte di un approccio progressivo allo spostamento delle applicazioni esistenti su microservizi. Molte applicazioni middleware obsolete possono essere modificate con il minimo sforzo sui container.

Nota: alcune organizzazioni supporteranno più opzioni o modelli di carico di lavoro per consentire la scelta del carico di lavoro o dello sviluppatore.

Nella tabella seguente, ci sono una serie di altri casi d'uso che potresti prendere in considerazione nella scelta dei tuoi servizi di elaborazione.

Fase 4: Confronta e scegli correttamente i tuoi carichi di lavoro

AWS offre diverse opzioni di container, come Amazon ECS, Containers serverless con AWS Fargate e AWS App Runner, e diverse opzioni Kubernetes, come Amazon EKS, ROSA e Kubernetes autogestiti su Amazon EC2.

La seguente tabella di confronto può aiutarti a determinare il tuo approccio in base ai requisiti del carico di lavoro. Potresti scegliere elementi di entrambi gli approcci, oppure trovare un compromesso e avere team diversi che utilizzano approcci diversi. Non è raro vedere un'azienda molto grande avere reparti con strategie diverse.

 

  Serverless con AWS Kubernetes su AWS
Carichi di lavoro Supporta una gamma di modelli di carico di lavoro con servizi specifici ottimizzati per carichi di lavoro specifici. AWS Lambda potrebbe essere utilizzato per carichi di lavoro asincroni con AWS Fargate utilizzato per carichi di lavoro sincroni. Supporta un'ampia gamma di modelli di carico di lavoro in cui sono preferibili modelli di implementazione coerenti su cloud o data center on-premise.
Caratteristiche dell'architettura Supporta la maggior parte delle architetture e dei modelli con servizi specifici che forniscono ottimizzazioni in termini di prestazioni, scalabilità, affidabilità e costi. Supporta la maggior parte delle architetture in cui è preferibile la coerenza tra tutti gli stack tecnologici. Sono disponibili alcuni livelli di ottimizzazione, ma richiederanno maggiori sforzi di integrazione e gestione.
Integrazioni AWS Serverless offre integrazioni con molti servizi gestiti. Alcune opzioni, come AWS Lambda, possono abbonarsi a più di 200 servizi e ricevere eventi in modo gestito.  Molti partner forniscono integrazioni con AWS. Le offerte gestite da AWS per Kubernetes forniscono integrazioni con i servizi AWS. L'ecosistema di partner per Kubernetes è ricco e fornisce l'integrazione con altre tecnologie open source. Molti partner tecnologici utilizzano EKS come prima scelta per convalidare le loro integrazioni con Kubernetes.
Prototipazione AWS Serverless è ottimizzato per consentire ai clienti di scrivere il codice rapidamente, implementarlo e modificarlo, rendendolo un'opzione utile per eseguire rapidamente lavori di prototipazione che non richiedono molte scelte in anticipo. I clienti che hanno una strategia Kubernetes spesso devono configurare cluster speciali dedicati alla prototipazione e mantenerli come qualsiasi altro ambiente.
Gestione delle spese AWS Serverless è progettato per sfruttare al massimo i servizi gestiti e richiede solo uno sforzo di gestione minimo per server, reti e integrazioni. AWS fornisce diversi modelli per Kubernetes. Ciò può significare la gestione di più livelli tecnologici (come cluster e reti cloud) o i ruoli di sicurezza di Kubernetes e AWS, sebbene AWS fornisca acceleratori come componenti aggiuntivi e schemi EKS.
Ecosistema AWS dispone di un ampio ecosistema di partner che si basano sui servizi AWS e forniscono soluzioni e integrazioni. AWS si basa su e con molte tecnologie open source in diversi ambiti. Kubernetes è un grande ecosistema che offre un supporto importante in ogni cloud e una grande quantità di supporto da parte della community.  Il panorama del CNCF è un esempio del vasto ecosistema. AWS fornisce componenti aggiuntivi e schemi per aiutare i clienti ad adottare alcuni di questi strumenti comuni.
Portabilità delle applicazioni L'architettura delle applicazioni (per applicazioni che utilizzano uno o più servizi gestiti) può essere progettata in modo tale che la logica aziendale possa essere facilmente trasferita da Lambda, App Mesh o ECS ad altri ambienti di elaborazione. Kubernetes è disponibile nella maggior parte dei cloud e on-premise e i carichi di lavoro sono per lo più portatili. Alcuni modelli Kubernetes che si basano su una rete di servizi nel codice (come Istio o modelli di programmazione come KNative) indicano che l'applicazione richiede Kubernetes e non è trasferibile su qualcosa di diverso da Kubernetes. Alcune funzionalità possono bloccarti in una versione specifica. Potrebbe essere necessario ricostruire immagini per supportare varie costruzioni su Linux o hardware specifico (ARM o AMD).
Automazione Supporto di automazione specifico per AWS che utilizza versioni basate su tecnologia aperta. Alcuni esempi sono AWS CloudFormation, il Modello di applicazione serverless AWS (AWS SAM) e alcune librerie del Kit di sviluppo per il cloud AWS (AWS CDK). I clienti possono utilizzare opzioni open source come Terraform. Molti clienti AWS utilizzano strumenti DevOps open source come Jenkins. I clienti che elaborano strategie su Kubernetes di solito scelgono di utilizzare strumenti che automatizzano Kubernetes. È necessaria l'automazione per la creazione di cluster e puoi utilizzare API AWS, strumenti AWS come AWS CloudFormation, oppure CDK. Molti clienti utilizzano tecnologie come Terraform. AWS EKS Blueprints è un esempio di acceleratore per Terraform e CDK, per la creazione di cluster e componenti aggiuntivi. Molti clienti stanno iniziando ad adottare strumenti GitOps come Flux o ArgoCD da implementare con un'API Kubernetes e utilizzare strumenti come AWS Controller o Crossplane per fornire risorse cloud native.
Dimensioni e competenze dell'organizzazione Alcune aziende si affidano a un cloud primario e scelgono prima AWS Serverless perché, pur disponendo di soldi e risorse per creare team SRE, scelgono di ottimizzare l'agilità e ridurre i costi operativi affidandosi ad AWS. Le aziende di medie e grandi dimensioni (o i fornitori di software che vendono prodotti destinati a funzionare in diversi cloud o data center on-premise) utilizzano spesso un approccio incentrato su Kubernetes. I clienti di successo di solito investono molto di più nell'infrastruttura e nei team SRE che gestiscono, eseguono e mantengono molti cluster.
Scalabilità/resilienza I clienti AWS Lambda pagano solo quando viene richiamata una funzione. Se Lambda non è adatta, puoi usare Fargate o ECS. Offre un'ulteriore scelta di architetture hardware e opzioni di prezzo di elaborazione (come le istanze Spot AWS EC2). L'approccio Kubernetes su AWS può essere ben progettato per soddisfare i tuoi requisiti di prestazioni, scalabilità e resilienza. EKS offre anche la possibilità di utilizzare opzioni come AWS EC2 Spot e Graviton.
Sicurezza L'approccio AWS Serverless utilizza la sicurezza, la rete e le pratiche di AWS. L'approccio Kubernetes richiede una comprensione sia di Kubernetes Security che di AWS Security e di AWS Security e un ulteriore sovraccarico operativo, come la mappatura delle politiche di sicurezza di Kubernetes alle politiche AWS, la protezione delle immagini e dei runtime dei container e la convalida di strumenti per container di terze parti.  

Quando si creano nuove applicazioni moderne o si modernizzano applicazioni esistenti, architetti e sviluppatori hanno a disposizione un gran numero di elementi costitutivi e uno dei più importanti è la scelta dei servizi di elaborazione.

Conoscere il tipo di carichi di lavoro e applicazioni che l'organizzazione crea e implementa è un fattore chiave nella scelta di una moderna strategia di sviluppo di app. Ogni carico di lavoro presenta caratteristiche e requisiti diversi. Ad esempio, un carico di lavoro di elaborazione dei documenti presenta requisiti di latenza e uptime molto diversi rispetto a un sito Web transazionale.

Fase 5: Evita le insidie più comuni

Comprendi la standardizzazione nel tuo ambiente

Molte organizzazioni che gestiscono più modelli di carico di lavoro desiderano standardizzare una serie di modelli che possano supportare ed eseguire in modo efficace. Alcune grandi organizzazioni cercano di standardizzare le opzioni di elaborazione e di selezionare una piattaforma predefinita per eseguire la maggior parte dei carichi di lavoro, fornendo eccezioni quando necessario.

La standardizzazione può contribuire a garantire coerenza e ridurre al minimo il numero di persone con competenze specialistiche che un'organizzazione deve assumere. Queste opzioni possono diventare le scelte di elaborazione preferite, mentre altre vengono prese in considerazione solo quando le scelte preferite non funzionano. Spesso, la scelta standard supporta efficacemente una serie di carichi di lavoro, ma è in difficoltà con altri. Pertanto, alcune organizzazioni adottano più opzioni o modelli di carico di lavoro per consentire la scelta del carico di lavoro o dello sviluppatore.

Comprendi l'integrazione nel tuo ambiente

È normale che alcune organizzazioni dedichino più tempo di quanto vorrebbero nel mantenimento delle integrazioni open source.

Ti consigliamo di prendere in considerazione le fonti della comunità e/o il sostegno di imprese o fondazioni quando fai questi investimenti. Un investimento in questi progetti non è solo finanziario, ma è anche un investimento in capitale di conoscenza e potenzialmente in debito tecnico, poiché, in genere, questi componenti e le integrazioni associate richiedono un aggiornamento. Per ulteriori informazioni, consulta il blog AWS Open Source.

Comprendi le caratteristiche della tua architettura

La capacità di supportare un'ampia gamma di architetture è importante. Ti consigliamo di utilizzare Framework AWS Well-Architected come guida per aiutarti a comprendere i pro e i contro delle decisioni che prendi quando crei sistemi su AWS. Inoltre, l'utilizzo del framework consente di apprendere le migliori pratiche architettoniche per la progettazione e il funzionamento di sistemi affidabili, scalabili, sicuri, efficienti ed economici nel cloud.

Fase 6: Decidi il tuo approccio

In base alle dimensioni dell'organizzazione e del carico di lavoro, ai modelli e ai requisiti aziendali, potrebbe essere necessario scegliere alcuni elementi di entrambi gli approcci o fare in modo che team diversi utilizzino approcci diversi. Non è raro che i team utilizzino strategie diverse.

AWS Serverless con AWS

  • Usa i servizi e gli strumenti gestiti da AWS come prima scelta, come AWS Lambda, AWS App Runner, Amazon ECS e AWS Fargate. 
  • Investi nello sviluppo della disciplina per AWS, tra cui provisioning, DevOps, automazione dell'infrastruttura, sicurezza, networking e osservabilità/operazioni.
  • Aumenta la produttività e riduci al minimo il carico operativo.

Kubernetes su AWS

  • Usa Kubernetes come interfaccia principale della tua piattaforma di elaborazione.
  • Adotta una certa disciplina nell'esecuzione e nella gestione di diversi cluster Kubernetes e del carico di lavoro e degli strumenti su di essi, ad esempio modelli avanzati come GitOps.
  • Integrazione con diversi ecosistemi e strumenti partner.
  • I clienti Kubernetes possono utilizzare servizi AWS gestiti e altre opzioni di elaborazione come AWS Lambda per determinati casi d'uso.

Implementa il tuo approccio

Dopo aver determinato l'approccio più adatto al carico di lavoro per il tuo ambiente, ti consigliamo di esaminare le seguenti risorse per aiutarti a iniziare a implementare il tuo approccio.

  • Panoramica di Serverless su AWS
    Utilizza una strategia incentrata sul serverless per creare applicazioni moderne in modo da aumentare l'agilità di tutto lo stack applicativo. Questa guida evidenzia i servizi serverless per tutti e tre i livelli dello stack: elaborazione, integrazione e archivi dati.
    Costruisci un'applicazione Web serverless
    In questo tutorial, imparerai come creare una semplice applicazione web serverless utilizzando AWS Lambda, Amazon API Gateway, AWS Amplify, Amazon DynamoDB e Amazon Cognito.
    Workshop pratici sull'elaborazione serverless
    Questi workshop guidati gratuiti presentano le basi della creazione di applicazioni e microservizi serverless utilizzando servizi come AWS Lambda, AWS Step Functions, Amazon API Gateway, Amazon DynamoDB, Amazon Kinesis e Amazon S3.
    AWS Fargate: elaborazione serverless per container
    AWS Fargate è un motore di calcolo serverless con pagamento in base al consumo che consente agli sviluppatori di concentrarsi sulla creazione di applicazioni senza dover gestire i server. AWS Fargate è compatibile sia con Amazon Elastic Container Service (Amazon ECS) che con Amazon Elastic Kubernetes Service (Amazon EKS).
    Panoramica di AWS App Runner
    Usa AWS App Runner per creare, implementare ed eseguire applicazioni Web e servizi API containerizzati senza la necessità di avere esperienza nell'infrastruttura o nei container.
  • Scegli un approccio Kubernetes
    Esamina le opzioni per utilizzare il servizio Kubernetes gestito da Amazon Elastic Kubernetes Service (EKS) per eseguire Kubernetes nel cloud AWS e nei data center on-premise.
    Guida introduttiva su Amazon EKS
    Fornisce una guida dettagliata per iniziare a usare Amazon EKS con collegamenti a blog e video utili e un tutorial dettagliato.
    Workshop di Amazon EKS
    Fai pratica con le istruzioni dettagliate su come sfruttare al meglio Amazon EKS.
    Presentazione dei controller AWS per Kubernetes (ACK)
    ACK è uno strumento che consente di gestire direttamente i servizi AWS da Kubernetes. ACK semplifica la creazione di applicazioni Kubernetes scalabili e ad alta disponibilità che utilizzano i servizi AWS.
    Cos'è Red Hat OpenShift Service su AWS (ROSA)?
    Esplora l'uso di ROSA per creare cluster Kubernetes utilizzando le API e gli strumenti ROSA e accedi all'intera gamma e profondità dei servizi AWS.

    Best practice

    Sicurezza

    La sicurezza è un componente fondamentale per la configurazione e la gestione di cluster e applicazioni Kubernetes. Amazon EKS fornisce automaticamente cluster Kubernetes sicuri e autogestiti, ma è necessario comunque assicurarsi di configurare i nodi e le applicazioni che esegui come parte del cluster per garantire uno sviluppo sicuro. Per ulteriori informazioni, consulta la Guida sulle best practice di Amazon EKS per la sicurezza.

    Sicurezza host

    Usa Amazon Inspector, un servizio automatizzato di gestione delle vulnerabilità che analizza continuamente i carichi di lavoro AWS alla ricerca di vulnerabilità software ed esposizioni involontarie alla rete.

Questa pagina è stata utile?