Yapay zekada dönüştürücüler nelerdir?

Dönüştürücüler, bir girdi dizisini bir çıktı dizisine dönüştüren veya değiştiren bir tür sinir ağı mimarisidir. Bunu, bağlamı öğrenerek ve dizi bileşenleri arasındaki ilişkileri izleyerek yaparlar. Örneğin şu girdi dizisini düşünün: "Gökyüzü ne renktir?" Dönüştürücü modeli; renk, gökyüzü ve mavi sözcükleri arasındaki alaka düzeyini ve ilişkiyi tanımlayan dahili bir matematiksel temsil kullanır. Bu bilgiyi kullanarak şu çıktıyı üretir: "Gökyüzü mavidir." 

Kuruluşlar, konuşma tanımadan makine çevirisine ve protein dizisi analizine kadar her tür dizi dönüşümü için dönüştürücü modellerini kullanır.

Sinir ağları hakkında bilgi edinin

Yapay zeka (AI) hakkında bilgi edinin

Dönüştürücüler neden önemlidir?

Bilgisayarların doğal insan dilini anlamasını ve buna yanıt vermesini sağlamanın amaçlandığı doğal dil işleme (NLP) görevlerine yoğun bir şekilde odaklanan ilk derin öğrenme modelleri. Bu modeller, bir dizideki bir sonraki kelimeyi bir önceki kelimeye göre tahmin ediyordu.

Daha iyi anlamak için akıllı telefonunuzdaki otomatik tamamlama özelliğini düşünün. Bu özellik, yazdığınız kelime çiftlerinin sıklığına göre önerilerde bulunur. Örneğin sık sık "Ben iyiyim." yazarsanız telefonunuz ben yazdıktan sonra otomatik olarak iyiyim önerisinde bulunur.

İlk makine öğrenimi (ML) modelleri benzer teknolojiyi daha geniş bir ölçekte uyguladı. Bu modeller, eğitim veri kümelerindeki farklı kelime çiftleri veya kelime grupları arasındaki ilişki sıklığını eşliyor ve bir sonraki kelimeyi tahmin etmeye çalışıyordu. Bununla birlikte, ilk teknoloji, bağlamı belirli bir girdi uzunluğunun ötesinde koruyamıyordu. Örneğin önceki bir ML modeli, bir paragraftaki ilk ve son cümle arasındaki bağlamı koruyamadığı için anlamlı bir paragraf oluşturamıyordu. "İtalyalıyım. Ata binmeyi severim. İtalyanca konuşurum." gibi bir çıktı oluşturmak için modelin İtalya ve İtalyanca arasındaki bağlantıyı hatırlaması gerekir. İlk sinir ağları ise bunu yapamıyordu.

Dönüştürücü modelleri, modellerin metindeki bu tür uzun menzilli bağımlılıkları ele almasını sağlayarak NLP teknolojilerini temelden değiştirdi. Aşağıdakiler dönüştürücülerin diğer avantajlarıdır.

Büyük ölçekli modelleri etkinleştirme

Dönüştürücüler paralel hesaplama ile uzun dizileri bütünüyle işler. Bu da hem eğitim hem de işleme sürelerini önemli ölçüde azaltır. Bu durum, GPT ve BERT gibi, karmaşık dil temsillerini öğrenebilen çok büyük dil modellerinin (LLM) eğitilmesini sağlamıştır. Bu modeller, çok sayıda insan dilini ve bilgiyi yakalayan milyarlarca parametreye sahiptir ve araştırmaları daha genelleştirilebilir yapay zeka sistemlerine doğru götürmektedir.

Büyük dil modelleri hakkında bilgi edinin

GPT hakkında bilgi edinin

Daha hızlı özelleştirmeyi etkinleştirme

Dönüştürücü modelleri ile aktarım öğrenimi ve veri alma kapasitesi artırılmış üretim (RAG) gibi teknikleri kullanabilirsiniz. Bu teknikler, mevcut modellerin sektör kuruluşuna özgü uygulamalara göre özelleştirilmesini sağlar. Modeller büyük veri kümeleri üzerinde önceden eğitilebilir ve ardından göreve özgü daha küçük veri kümelerinde ince ayar yapılabilir. Bu yaklaşım, karmaşık modellerin kullanımını herkesin katılımına açık hâle getirdi ve büyük modelleri sıfırdan eğitmede kaynak kısıtlamasına ilişkin sınırlamaları ortadan kaldırdı. Modeller, çeşitli kullanım örnekleri için birden çok etki alanında ve görevde iyi performans gösterebilmektedir.

Çok modlu yapay zeka sistemlerini kolaylaştırma

Dönüştürücüler ile karmaşık veri kümelerini birleştiren görevler için yapay zekayı kullanabilirsiniz. Örneğin DALL-E gibi modeller, dönüştürücülerin NLP ve bilgisayarlı görü yeteneklerini birleştirerek metinsel açıklamalardan görüntüler üretebildiğini gösterir. Dönüştürücüler ile farklı bilgi türlerini entegre eden ve insan anlayışı ile yaratıcılığını daha yakından taklit eden yapay zeka uygulamaları oluşturabilirsiniz.

Bilgisayarlı görü hakkında bilgi edinin

Yapay zeka araştırmaları ve sektördeki yenilikler

Dönüştürücüler, ML'de mümkün olanın sınırlarını zorlayarak yeni nesil yapay zeka teknolojileri ve yapay zeka araştırmaları oluşturmuştur. Onların başarısı da yenilikçi sorunları çözen yeni mimarilere ve uygulamalara ilham vermiştir. Söz konusu dönüştürücüler, makinelerin insan dilini anlamasını ve üretmesini sağlamış, bu da müşteri deneyimini geliştiren ve yeni iş fırsatları yaratan uygulamalarla sonuçlanmıştır.

Dönüştürücüler için kullanım örnekleri nelerdir?

Büyük dönüştürücü modellerini insan dilleri, müzik besteleri, programlama dilleri ve daha fazlası gibi herhangi bir sıralı veri üzerinde eğitebilirsiniz. Aşağıdakiler örnek kullanım durumlarından bazılarıdır.

Doğal dil işleme

Dönüştürücüler, makinelerin insan dilini her zamankinden daha doğru bir şekilde anlamasını, yorumlamasını ve üretmesini sağlar. Büyük belgeleri özetleyebilir ve her türlü kullanım örneği için tutarlı ve bağlamsal olarak alakalı metin üretebilir. Alexa gibi sanal asistanlar, sesli komutları anlamak ve bunlara yanıt vermek için dönüştürücü teknolojisini kullanır.

Makine çevirisi

Çeviri uygulamaları, diller arasında gerçek zamanlı, doğru çeviriler sağlamak için dönüştürücüleri kullanır. Dönüştürücüler, önceki teknolojilere kıyasla çevirilerin akıcılığını ve doğruluğunu önemli ölçüde geliştirmiştir.

Makine çevirisi hakkında bilgi edinin

DNA dizi analizi

Dönüştürücüler, DNA segmentlerini dile benzer bir dizi olarak ele alarak genetik mutasyonların etkilerini tahmin edebilir, genetik kalıpları anlayabilir ve belirli hastalıklardan sorumlu olan DNA bölgelerini tanımlamaya yardımcı olabilir. Bu yetenek, bireyin genetik yapısını anlamanın daha etkili tedaviler sağlayabileceği kişiselleştirilmiş tıp için çok önemlidir.

Protein yapı analizi

Dönüştürücü modelleri sıralı verileri işleyebilir. Bu da onları karmaşık protein yapılarının içine yerleşen uzun amino asit zincirlerini modellemek için çok uygun hâle getirir. Protein yapılarını anlamak, ilaç keşfi ve biyolojik süreçlerin anlaşılması için hayati önem taşır. Dönüştürücüleri, amino asit dizilerine göre proteinlerin 3B yapısını tahmin eden uygulamalarda da kullanabilirsiniz.

Dönüştürücüler nasıl çalışır?

Sinir ağları, 2000'li yılların başından beri görüntü tanıma ve NLP gibi çeşitli yapay zeka görevlerinde öncü yöntem olmuştur. Bu ağlar, insan beynini taklit eden ve karmaşık sorunları çözmek için birlikte çalışan birbirine bağlı bilgi işlem düğümü katmanlarından veya nöronlardan oluşur.

Veri dizileriyle ilgilenen geleneksel sinir ağları genellikle bir kodlayıcı/kod çözücü mimarisi deseni kullanır. Kodlayıcı, İngilizce bir cümle gibi giriş verileri dizisinin tamamını okuyup işler ve bu diziyi kompakt bir matematiksel temsile dönüştürür. Bu temsil, girdinin özünü yakalayan bir özettir. Ardından, kod çözücü bu özeti alır ve adım adım, Fransızcaya çevrilmiş aynı cümle olabilecek çıktı dizisini üretir.

Bu işlem sırayla gerçekleşir. Bu da verilerin her bir kelimesini veya bir bölümünü birbiri ardına işlemesi gerektiği anlamına gelir. İşlem yavaştır ve uzun mesafelerde bazı ince ayrıntıları kaybedebilir.

Öz dikkat mekanizması

Dönüştürücü modelleri, öz dikkat mekanizması adı verilen bir şeyi dahil ederek bu süreci değiştirir. Mekanizma, verileri sırayla işlemek yerine modelin dizinin farklı bölümlerine aynı anda bakmasını ve hangi parçaların en önemli olduğunu belirlemesini sağlar. 

Yoğun bir odada olduğunuzu ve birinin konuşmasını dinlemeye çalıştığınızı hayal edin. Beyniniz daha az önemli gürültüleri duymazdan gelirken otomatik olarak ilgili kişinin sesine odaklanır. Öz dikkat modelin benzer bir şey yapmasını sağlar: İlgili bilgi parçalarına daha fazla dikkat eder ve daha iyi çıktı tahminlerinde bulunmak için bunları birleştirir. Bu mekanizma, dönüştürücüleri daha verimli hâle getirerek daha büyük veri kümeleri üzerinde eğitilmelerini sağlar. Ayrıca söz konusu mekanizma, özellikle çok eskiden gelen bağlamın sonra gelenin anlamını etkileyebileceği uzun metin parçalarıyla uğraşırken daha etkilidir.

Dönüştürücü mimarisinin bileşenleri nelerdir?

Dönüştürücü sinir ağı mimarisi, nihai çıktıyı üretmek için birlikte çalışan birkaç yazılım katmanına sahiptir. Aşağıdaki görüntüde, bu bölümün geri kalanında açıklandığı gibi dönüşüm mimarisinin bileşenleri gösterilmektedir.


Girdi gömmeleri

Bu aşama, girdi dizisini yazılım algoritmalarının anladığı matematiksel etki alanına dönüştürür. Girdi dizisi, ilk olarak bir dizi belirtece veya bireysel dizi bileşenine ayrılır. Örneğin girdi bir cümle ise belirteçler kelimelerdir. Gömme, daha sonra belirteç dizisini matematiksel bir vektör dizisine dönüştürür. Vektörler, sayılar olarak temsil edilen semantik ve söz dizimi bilgilerini taşır ve bunların öznitelikleri eğitim sürecinde öğrenilir.

Vektörleri n boyutlu bir alanda bir dizi koordinat olarak görselleştirebilirsiniz. Basit bir örnek olarak x'in kelimenin ilk harfinin alfasayısal değerini, y'nin de bunların kategorilerini temsil ettiği iki boyutlu bir grafik düşünün. Böğürtlen kelimesi, b harfiyle başladığı ve meyve kategorisinde olduğu için (2,2) değerine sahiptir. Mango kelimesi, m harfiyle başladığı ve yine meyve kategorisinde olduğu için (13,2) değerine sahiptir. Böylece vektör (x,y) sinir ağına böğürtlen ve mango kelimelerinin aynı kategoride olduğunu söyler. 

Şimdi de herhangi bir kelimenin dil bilgisi, anlamı ve bir dizi sayıyla eşlenmiş cümlelerde kullanımı hakkında binlerce özniteliğe sahip n boyutlu bir alan hayal edin. Yazılım, kelimeler arasındaki ilişkileri matematiksel terimlerle hesaplamak ve insan dili modelini anlamak için sayıları kullanabilir. Gömmeler, ayrık belirteçleri modelin işleyebileceği ve kendisinden bilgi edinebileceği sürekli vektörler olarak temsil etmenin bir yolunu sağlar.

Konumsal kodlama

Konumsal kodlama, dönüştürücü mimarisinde çok önemli bir bileşendir çünkü modelin kendisi doğal olarak sıralı verileri sırayla işlemez. Dönüştürücünün, girdi dizisindeki belirteçlerin sırasını dikkate almanın bir yoluna ihtiyacı vardır. Konumsal kodlama, dizideki konumunu belirtmek için her belirtecin gömmesine bilgi ekler. Bu işlem genellikle her belirtecin gömmesine eklenen benzersiz bir konumsal sinyal üreten bir dizi işlev kullanılarak yapılır. Konumsal kodlama ile model, belirteçlerin sırasını koruyabilir ve dizi bağlamını anlayabilir.

Dönüştürücü bloku

Tipik bir dönüştürücü modeli, birlikte yığılmış birden fazla dönüştürücü blokuna sahiptir. Her dönüştürücü blokunun çok başlı bir öz dikkat mekanizması ve konum bazlı bir beslemeli sinir ağı olmak üzere iki ana bileşeni vardır. Öz dikkat mekanizması, modelin dizi içindeki farklı belirteçlerin önemini tartmasını sağlar. Bu mekanizma, tahminlerde bulunurken girdinin ilgili kısımlarına odaklanır.

Örneğin "Eli kulağında, birazdan gelir." ve "Yardımcısı onun eli ayağı." cümlelerini düşünün. Her iki cümlede de eli kelimesinin anlamı yanındaki kelimelere bakılmadan anlaşılamaz. Kulağında ve ayağı kelimeleri doğru anlamı elde etmek için esastır. Öz dikkat, ilgili belirteçlerin bağlama yönelik gruplandırılmasını sağlar.

Beslemeli katman, dönüştürücü modelinin daha verimli çalışmasına ve çalışmasına yardımcı olan ek bileşenlere sahiptir. Örneğin her dönüştürücü bloku şunları içerir:

  • Kısayol gibi çalışan iki ana bileşenin çevresindeki bağlantılar. Bu bağlantılar, aradaki belirli işlemleri atlayarak ağın bir bölümünden diğerine bilgi akışını sağlar.
  • Modelin sorunsuz bir şekilde çalışması için sayıları (özellikle ağdaki farklı katmanların çıktılarını) belirli bir aralığın içinde tutan katman normalleştirme.
  • Doğrusal dönüştürme, modelin, üzerinde eğitildiği görevi daha iyi yerine getirmek için değerleri ayarlayacağı şekilde işler (çevirinin aksine belge özeti gibi).

Doğrusal ve softmax bloklar

Sonunda modelin, bir dizideki bir sonraki kelimeyi seçmek gibi somut bir tahminde bulunması gerekir. Doğrusal blokun devreye girdiği yer burasıdır. Burası son aşamadan önce yoğun bir katman olarak da bilinen tamamen bağlı başka bir katmandır. Bu katman, vektör alanından orijinal girdi etki alanına öğrenilmiş bir doğrusal eşleme gerçekleştirir. Bu önemli katman, modelin karar verme bölümünün karmaşık iç temsilleri aldığı ve bunları yorumlayıp kullanabileceğiniz belirli tahminlere dönüştürdüğü yerdir. Bu katmanın çıktısı, her olası belirteç için bir dizi puandır (genellikle logit olarak adlandırılır).

Softmax işlevi, logit puanlarını alan ve bunları bir olasılık dağılımı şeklinde normalleştiren son aşamadır. Softmax çıktısının her ögesi, modelin belirli bir sınıfa veya belirtece olan güvenini temsil eder.

Dönüştürücülerin diğer sinir ağı mimarilerinden farkı nedir?

Yinelemeli sinir ağları (RNN'ler) ve evrişimli sinir ağları (CNN'ler), makine öğrenimi ve derin öğrenme görevlerinde sıklıkla kullanılan diğer sinir ağlarıdır. Aşağıda bunların dönüştürücülerle ilişkileri incelenmektedir.

Dönüştürücüler ve RNN'ler

Dönüştürücü modelleri ve RNN'lerin her ikisi de sıralı verileri işlemek için kullanılan mimarilerdir.

RNN'ler, döngüsel yinelemelerle her seferinde bir öge olacak şekilde veri dizilerini işler. İşlem, dizinin ilk ögesini alan girdi katmanıyla başlar. Daha sonra bilgi, girdiyi işleyen ve çıktıyı bir sonraki zamanın adımına ileten gizli bir katmana iletilir. Bu çıktı, dizinin bir sonraki ögesi ile birleştirildiğinde gizli katmana geri beslenir. Bu döngü dizideki her öge için tekrarlanır ve RNN her bir zaman adımında güncellenen bir gizli durum vektörünü korur. Bu işlem, RNN'nin geçmiş girdilerden gelen bilgileri hatırlamasını etkili bir şekilde sağlar.

Buna karşılık, dönüştürücüler tüm dizileri aynı anda işler. Bu paralelleştirme, RNN'lerden çok daha hızlı eğitim süreleri ve çok daha uzun dizileri işleme yeteneği sağlar. Dönüştürücülerdeki öz dikkat mekanizması da modelin tüm veri dizisini aynı anda dikkate almasını sağlar. Bu da yinelemeye veya gizli vektörlere olan ihtiyacı ortadan kaldırır. Bunun yerine, konumsal kodlama dizideki her ögenin konumu hakkında bilgi muhafaza eder.

Dönüştürücüler, uzun menzilli bağımlılıkları daha etkili bir şekilde ele alabildikleri için birçok uygulamada, özellikle NLP görevlerinde büyük ölçüde RNN'lerin yerini almıştır. Ayrıca RNN'lerden daha fazla ölçeklenebilirliğe ve verimliliğe sahiptir. RNN'ler bazı bağlamlarda, özellikle model boyutunun ve hesaplama verimliliğinin uzun mesafe etkileşimlerini yakalamaktan daha kritik olduğu durumlarda hâlâ yararlıdır.

Dönüştürücüler ve CNN'ler

CNN'ler, görüntüler gibi, mekansal hiyerarşilerin ve yerelliğin temel olduğu şebeke benzeri veriler için tasarlanmıştır. Bu ağlar, bir girdi boyunca filtreler uygulamak için evrişimli katmanlar kullanır ve bu filtrelenmiş görünümler aracılığıyla yerel desenleri yakalar. Örneğin görüntü işlemede, ilk katmanlar uçları veya dokuları algılayabilir. Daha derin katmanlar ise şekiller ya da nesneler gibi daha karmaşık yapıları tanır.

Dönüştürücüler ilk olarak sıralı verileri işlemek için tasarlanmıştı ve görüntüleri işleyemiyordu. Görüntü dönüştürücüsü modelleri artık görüntüleri sıralı bir biçime dönüştürerek işliyor. Bununla birlikte, CNN'ler birçok pratik bilgisayarlı görü uygulaması için oldukça etkili ve verimli bir seçim olmaya devam ediyor.

Farklı türlerdeki dönüştürücü modelleri nelerdir?

Dönüştürücüler farklı bir mimari ailesine dönüşmüştür. Aşağıdakiler dönüştürücü modeli türlerinin bazılarıdır.

Çift yönlü dönüştürücüler

Dönüştürücü (BERT) modellerinden gelen çift yönlü kodlayıcı temsilleri, kelimeleri tek başına değil, bir cümledeki diğer tüm kelimelerle ilişkili olarak işlemek için temel mimariyi değiştirir. Teknik olarak çift yönlü maskeli dil modeli (MLM) adı verilen bir mekanizma kullanır. Ön eğitim sırasında BERT, girdi belirteçlerinin bir yüzdesini rastgele maskeler ve bu maskeli belirteçleri bağlamlarına göre tahmin eder. Çift yönlü açı, BERT'in, daha iyi kavranması için her iki katmanda hem soldan sağa hem de sağdan sola belirteç dizilerini hesaba katması gerçeğinden gelir.

Üretici önceden eğitilmiş dönüştürücüler

GPT modelleri, dil modelleme hedefleri kullanılarak büyük bir metin kitaplığı üzerinde önceden eğitilmiş yığılı dönüştürücü kod çözücüleri kullanır. Bu modeller özbağlanımlıdır. Bu da önceki tüm değerlere dayalı olarak bir dizide bir sonraki değere geriledikleri veya bu değeri tahmin ettikleri anlamına gelir. GPT modelleri, 175 milyardan fazla parametre kullanarak tarz ve tona göre ayarlanan metin dizileri üretebilir. GPT modelleri, yapay genel zekaya ulaşmaya yönelik yapay zeka konusundaki araştırmaları harekete geçirdi. Bu da kuruluşların uygulamalarını ve müşteri deneyimlerini yeniden keşfederken yeni üretkenlik seviyelerine ulaşabileceği anlamına geliyor.

Çift yönlü ve özbağlanımlı dönüştürücüler

Çift yönlü ve özbağlanımlı dönüştürücü (BART), çift yönlü ve özbağlanımlı özellikleri birleştiren bir tür dönüştürücü modelidir. BERT'in çift yönlü kodlayıcısı ile GPT'nin özbağlanımlı kod çözücüsünün bir karışımı gibidir. Tüm girdi dizisini bir kerede okur ve BERT gibi çift yönlüdür. Bununla birlikte, daha önce üretilen belirteçlere ve kodlayıcı tarafından sağlanan girdiye koşullandırılmış olarak çıktı dizisini her seferinde bir belirteç şeklinde üretir.

Çok modlu görevler için dönüştürücüler

ViLBERT ve VisualBERT gibi çok modlu dönüştürücü modelleri, genellikle metin ve görüntüler olmak üzere birden fazla giriş verisi türünü ele alacak şekilde tasarlanmıştır. Bu modeller, bilgileri birleştirmeden önce görsel ve metinsel girdileri ayrı ayrı işleyen çift akışlı ağlar kullanarak dönüştürücü mimarisini genişletir. Bu tasarım, modelin modaliteler arası temsilleri öğrenmesini sağlar. Örneğin ViLBERT, ayrı akışların etkileşime girmesini sağlamak için ortak dikkat ile ilişkili dönüştürücü katmanları kullanır. Bu da görsel soru yanıtlama görevleri gibi metin ile görüntüler arasındaki ilişkiyi anlamanın temel olduğu durumlar için çok önemlidir.

Görüntü dönüştürücüleri

Görüntü dönüştürücüleri (ViT), dönüştürücü mimarisini görüntü sınıflandırma görevleri için yeniden kullanır. Bu dönüştürücüler, bir görüntüyü piksel şebekesi olarak işlemek yerine görüntü verilerini bir cümlede kelimelerin nasıl ele alındığına benzer şekilde sabit boyutlu yamalar dizisi olarak görür. Her yama düzleştirilir, doğrusal olarak gömülür ve ardından standart dönüştürücü kodlayıcı tarafından sırayla işlenir. Mekansal bilgileri korumak için konumsal gömmeler eklenir. Küresel öz dikkatin bu kullanımı, modelin konumlarına bakılmaksızın herhangi bir yama çifti arasındaki ilişkileri yakalamasını sağlar.

AWS, dönüştürücü modeli gereksinimlerinizi nasıl destekleyebilir?

Amazon Web Services (AWS), dönüştürücü modelleri gereksinimleriniz için kullanabileceğiniz aşağıdaki yapay zeka/makine öğrenimi hizmetlerini sunar.

Amazon SageMaker JumpStart, makale özetleme ve görüntü oluşturma gibi görevleri gerçekleştirmek için önceden eğitilmiş dönüştürücü modellerine erişebileceğiniz bir makine öğrenimi merkezidir. Önceden eğitilmiş modeller, verilerinizle birlikte kullanım örneğiniz için tamamen özelleştirilebilir ve bunları kullanıcı arabirimi veya SDK ile kolayca üretime dağıtabilirsiniz.

Amazon Bedrock, AI21 Labs, Anthropic, Cohere, Meta, Stability AI ve Amazon gibi önde gelen yapay zeka şirketlerinin yüksek performanslı dönüştürücü modellerini tek bir API ile sunan, tam olarak yönetilen bir hizmettir. Amazon Bedrock, üretici yapay zeka uygulamaları oluşturmak için ihtiyaç duyduğunuz kapsamlı yeteneklerle gizliliği ve güvenliği korurken geliştirmeyi basitleştirir. Örneğin, şunları yapabilirsiniz:

  • Çeşitli üst düzey altyapı modellerini kolayca deneme ve bunları verilerinizle özel olarak özelleştirme
  • Kod yazmadan karmaşık iş görevlerini yürüten yönetilen temsilciler oluşturma
  • Altyapıyı yönetmeye gerek kalmadan üretici yapay zeka yeteneklerini uygulamalarınıza güvenli bir şekilde entegre etme ve dağıtma

Ayrıca AWS'nin 100 milyardan fazla parametre modelinin derin öğrenme eğitimi için özel olarak oluşturduğu ikinci nesil makine öğrenimi hızlandırıcısı AWS Trainium'u kullanarak dönüştürücü modellerinizi daha hızlı eğitebilirsiniz. Her Amazon Esnek İşlem Bulutu (Amazon EC2) Trn1 bulut sunucusu, bulutta derin öğrenme eğitimi için yüksek performanslı ve düşük maliyetli bir çözüm sunmak üzere 16 adede kadar Trainium hızlandırıcısını dağıtır. 

Hemen bir hesap oluşturarak AWS'de dönüştürücü modellerini kullanmaya başlayın.

AWS'de Sonraki Adımlar

Ücretsiz hesap için kaydolun

AWS Ücretsiz Kullanım için anında erişim elde edin.

Kaydolun 
Konsolda oluşturmaya başlayın

AWS Yönetim Konsolu'nda oluşturmaya başlayın.

Oturum açın