Veröffentlicht am: Nov 28, 2023
Amazon Bedrock bietet Ihnen eine einfache Möglichkeit, mit führenden Basismodellen (FMs) generative KI-Anwendungen zu erstellen und zu skalieren. Fortlaufendes Vortraining in Amazon Bedrock ist eine neue Funktion, mit der Sie Amazon Titan Text Express und Amazon Titan Text Lite FMs trainieren und sie mithilfe Ihrer eigenen unmarkierten Daten in einer sicheren und verwalteten Umgebung anpassen können. Da Modelle im Laufe der Zeit fortlaufend anhand von Daten aus verschiedenen Themen, Genres und Kontexten vortrainiert werden, werden sie robuster und lernen, besser mit Daten außerhalb der Domain umzugehen, indem sie umfassenderes Wissen ansammeln und anpassungsfähiger werden und somit einen noch größeren Wert für Ihr Unternehmen bilden.
Unternehmen möchten domainspezifische Anwendungen entwickeln, die die Terminologie ihres Unternehmens widerspiegeln. Viele FMs werden jedoch anhand großer Mengen öffentlich verfügbarer Daten trainiert und eignen sich nicht für hochspezialisierte Bereiche. Um FMs mit Wissen anzureichern, das für eine bestimmte Domain relevanter ist, können Sie fortlaufende Vortrainings durchführen, bei denen riesige Mengen an unmarkierten Daten genutzt werden. Fortlaufendes Vortraining in Bedrock hilft dabei, Herausforderungen beim Lernen außerhalb der Domain zu bewältigen, indem Modelle neuen, vielfältigen Daten ausgesetzt werden, die über das ursprüngliche Training hinausgehen. Durch fortlaufende Vortrainings können Sie das Verständnis des Modells auf die in Ihrer Domain verwendete Sprache erweitern und die allgemeine Kompetenz des Modells für Ihr Unternehmen verbessern.
Fortlaufende Vortrainings in Amazon Bedrock sind jetzt in den AWS-Regionen USA Ost (Nord-Virginia) und USA West (Oregon) in der Vorversion verfügbar. Weitere Informationen finden Sie im Launch-Blog von AWS News, auf der Amazon-Titan-Produktseite und in der Dokumentation. Besuchen Sie die Amazon-Bedrock-Konsole, um mit dem fortlaufenden Vortraining in Amazon Bedrock zu beginnen.