Inserito il: Mar 20, 2019
Le AMI di apprendimento approfondito di AWS sono ora disponibili su Amazon Lixus 2, la nuova generazione di Amazon Linux, oltre ad Amazon Linux e Ubuntu. Inoltre, le AMI per l’apprendimento approfondito di AWS sono fornite ora con MXNet 1.4.0, Chainer 5.3.0, PyTorch 1.0.1 e TensorFlow 1.13.1, i quali sono realizzati su misura direttamente alla fonte e sincronizzati attraverso tutte le istanze di Amazon EC2 per fornire prestazioni elevate.
Sulle istanze CPU, TensorFlow 1.13 è realizzato su misura direttamente alla fonte per velocizzare le prestazioni sui processori Xeon Platinum che alimentano le istanze C5 di EC2. Addestrando un modello ResNet-50 con dati sintetici ImageNet con l’utilizzo dell’AMI di apprendimento approfondito, è possibile ottenere un throughput 9,4 volte più veloce rispetto all’utilizzo di file binari di TensorFlow 1.13 generalmente disponibili. Le istanze GPU vengono fornite con una build ottimizzata di TensorFlow 1.13, configurata con NVIDIA CUDA 10 e cuDNN 7.4, così da poter sfruttare gli addestramenti con precisione mista su delle GPU Volta V100 che alimentano le istanze P3 di EC2. Per gli sviluppatori che desiderano scalare l’addestramento di TensorFlow per più GPU, le AMI di apprendimento approfondito di AWS sono dotate del framework di addestramento distribuito Horovod. Tale framework è completamente ottimizzato per utilizzare le topologie dei cluster di addestramento distribuito composte da istanze P3 di Amazon EC2. Addestrando un modello ResNet-50 tramite l’utilizzo di TensorFlow 113 e Horovod nell’AMI di apprendimento approfondito, è possibile ottenere un aumento della velocità di throughput del 27% rispetto all’utilizzo del TensorFlow 1.13 generalmente disponibile su 8 nodi.
Le AMI di apprendimento approfondito ora dispongono dell’ultima versione di Apache MXNet 1.4, la quale offre maggior semplicità nell’utilizzo e prestazioni più elevate. MXNet 1.4 offre anche i binding di Java per l’inferenza, i binding di Julia, operatori sperimentali per le strutture di controllo, la gestione della memoria JVM e molti altri miglioramenti. Questa versione, inoltre, offre una migliore integrazione con MXNet per Intel MKL-DNN grazie a ottimizzazione e quantificazione dei grafici potenziate. Questa funzionalità riduce l’utilizzo della memoria e migliora il tempo di inferenza senza una perdita significativa nell’accuratezza.
Inizia subito a usare le AMI di apprendimento profondo di AWS consultando le guide alle operazioni di base e i tutorial per ogni livello di esperienza contenuti nella guida per sviluppatori. Quando attivi l’ambiente Conda, le AMI di apprendimento approfondito distribuiscono automaticamente queste versioni a elevate prestazioni di framework ottimizzati per le istanze EC2 a tua scelta. Per un elenco completo dei framework e delle versioni supportate dalle AMI AWS di apprendimento approfondito, consulta le note di rilascio. Puoi anche iscriverti al forum di discussione per ricevere le ultime novità e pubblicare le tue domande.