Inserito il: Dec 3, 2019
Le AMI di AWS Deep Learning sono disponibili su Ubuntu 18.04, Ubuntu 16.04, Amazon Linux 2 e Amazon Linux con TensorFlow 1.15, Tensorflow 2.0, PyTorch 1.3.1, MXNet 1.6.0-rc0. Un'altra novità di questa versione è il supporto per AWS Neuron, un SDK per l'esecuzione dell'inferenza tramite chip di AWS Inferentia. Comprende un compilatore, runtime e strumenti di profilatura che consentono agli sviluppatori di eseguire inferenza ad alte prestazioni e bassa latenza utilizzando le istanze Inf1 di Amazon EC2 basate su Inferentia. Neuron è preintegrato in framework popolari di machine learning come TensorFlow, Pytorch e MXNet che permettono prestazioni ottimali da parte delle istanze Inf1 di EC2. I clienti che utilizzano le istanze Inf1 di Amazon EC2 riceveranno le prestazioni più alte e il costo minore per l'inferenza del machine learning nel cloud e non avranno più bisogno di effettuare lo scambio subottimale tra l'ottimizzazione per la latenza o il thoughput durante l'esecuzione di grandi modelli di machine learning in produzione.
Le AMI per Deep Learning di AWS supportano inoltre altre interfacce di deep learning, come Keras, Chainer e Gluon, preinstallati e completamente configurati per poter iniziare a sviluppare modelli di deep learning in pochi minuti, sfruttando al massimo la potenza di calcolo e la flessibilità delle istanze di Amazon EC2. Attivando un ambiente Conda, le AMI per Deep Learning distribuiscono automaticamente compilazioni di framework a elevate prestazioni, ottimizzati per le istanze EC2 scelte da te. Per un elenco completo dei framework e delle versioni supportate dalle AMI per Deep Learning di AWS, consulta le note di rilascio.
Inizia subito a usare le AMI per Deep Learning di AWS consultando le guide introduttive e i tutorial per ogni livello di esperienza contenuti nella guida per sviluppatori. Puoi anche iscriverti al forum di discussione per ricevere annunci dei nuovi rilasci e pubblicare le tue domande.