Inserito il: Nov 28, 2018
Amazon Elastic Inference consente di collegare la giusta quantità di accelerazione basata su GPU a qualsiasi tipo di istanza Amazon EC2 o Amazon SageMaker per ridurre fino al 75% il costo dell’esecuzione dell’inferenza di apprendimento approfondito. Amazon Elastic Inference supporta i modelli TensorFlow, Apache MXNet e OMNX, presto saranno inoltre disponibili altri framework.
Con Amazon Elastic Inference, puoi ora scegliere il tipo di istanza più adatto alle esigenze complessive di CPU e memoria dell’applicazione, per poi configurare separatamente la quantità di accelerazione di inferenza di cui hai bisogno senza modificare il codice. Ciò consente di usare efficacemente le risorse e ridurre il costo dell’esecuzione dell’inferenza. Per ulteriori informazioni su Amazon Elastic Inference, consulta la pagina dettagli del servizio.