AWS Germany – Amazon Web Services in Deutschland
AWS und Mistral AI vereinbaren eine verstärkte Zusammenarbeit zur Demokratisierung der generativen KI
von Swami Sivasubramanian, übersetzt durch Christoph Schmitter
Die Revolution der generativen künstlichen Intelligenz [EN] (KI) ist in vollem Gange und Kunden aller Größen und aus allen Branchen nutzen die Vorteile dieser transformativen Technologie, um ihre Unternehmen umzugestalten. Von der Neugestaltung von Workflows, um sie intuitiver und einfacher zu machen, bis hin zur Verbesserung von Entscheidungsprozessen durch schnelle Informationssynthese verspricht generative KI, unsere Interaktion mit Maschinen neu zu definieren. Es ist erstaunlich zu sehen, wie viele Unternehmen innovative generative KI-Anwendungen auf AWS mit Amazon Bedrock starten. Siemens integriert Amazon Bedrock in seine Low-Code-Entwicklungsplattform Mendix, um Tausenden von Unternehmen aus verschiedenen Branchen die Möglichkeit zu geben, Anwendungen mit der Leistungsfähigkeit der generativen KI zu erstellen und zu verbessern. Accenture und Anthropic arbeiten mit AWS zusammen, um Organisationen – insbesondere in stark regulierten Branchen wie dem Gesundheitswesen, dem öffentlichen Sektor, dem Bankwesen und der Versicherungsbranche – dabei zu helfen, die generative KI-Technologie mit Amazon Bedrock verantwortungsvoll einzuführen und zu skalieren. Diese Zusammenarbeit wird es Organisationen wie der Gesundheitsbehörde des District of Columbia ermöglichen, Innovationen voranzutreiben, den Kundenservice zu verbessern und die Produktivität zu steigern, wobei die verarbeiteten Daten gleichzeitig vertraulich und sicher bleiben. Amazon Pharmacy [EN] nutzt die generative KI, um Rezepte schnell und genau auszufüllen, den Kundenservice schneller und hilfreicher zu machen und um sicherzustellen, dass stets die richtigen Mengen an Medikamenten für die Kunden vorrätig sind.
Um so viele verschiedene Anwendungen zu ermöglichen, haben wir frühzeitig die Notwendigkeit von Modellvielfalt und Auswahlmöglichkeiten für generative KI erkannt. Wir wissen, dass verschiedene Modelle in unterschiedlichen Bereichen hervorragend sind, jeweils mit einzigartigen Stärken, die auf spezifische Anwendungsfälle zugeschnitten sind. Daher bieten wir unseren Kunden über einen einheitlichen Dienst Zugang zu mehreren hochmodernen großen Sprachmodellen (engl. Large Language Models, LLMs) und Basismodellen (engl. Foundation Models, FMs): Amazon Bedrock. Um für unsere Kunden das Experimentieren und zu Evaluieren zu ermöglichen, vereinfachen wir den Zugang zu Spitzenmodellen von Amazon, Anthropic, AI21 Labs, Cohere, Meta, Mistral AI und Stability AI. Unsere Kunden können dann das Modell auszuwählen, das die optimale Leistung für ihre Anforderungen liefert.
Mistral Large auf Amazon Bedrock
Heute freuen wir uns, den nächsten Schritt auf dieser Reise mit einer erweiterten Zusammenarbeit mit Mistral AI anzukündigen. Als französisches Start-up hat sich Mistral AI schnell als Pionier in der generativen KI-Landschaft etabliert, bekannt für seinen Fokus auf Portabilität, Transparenz und sein kosteneffektives Design, das weniger Rechenressourcen für den Betrieb benötigt. Kürzlich haben wir die Verfügbarkeit der Modelle Mistral 7B und Mixtral 8x7B auf Amazon Bedrock angekündigt, mit Parametergewichten , die von Kunden inspiziert und modifiziert werden können. Heute bringt Mistral AI sein neuestes und leistungsfähigstes Modell, Mistral Large, auf Amazon Bedrock und kündigt an, zukünftige Modelle für AWS-Kunden zugänglich zu machen. Mistral AI nutzt in Zukunft die KI-optimierten AWS Trainium und AWS Inferentia Instanzen, um seine Basismodelle auf Amazon Bedrock zu entwickeln und einzusetzen. Damit profitiert Mistral AI auch von den Vorteilen in Bezug auf Preis, Leistung, Skalierbarkeit und Sicherheit von AWS.
Zeitgleich mit dieser Ankündigung können Kunden ab heute Amazon Bedrock in der AWS-Region Europa (Paris) nutzen. Zum Start werden Kunden Zugang zu einigen der neuesten Modelle von Amazon, Anthropic, Cohere und Mistral AI haben, wodurch ihre Optionen zur Unterstützung verschiedener Anwendungsfälle von Textverständnis bis hin zu komplexem Denken erweitert werden.
Mistral Large verfügt über außergewöhnliche Fähigkeiten beim Sprachverständnis und der Sprachgenerierung. Das ist ideal für komplexe Aufgaben, die Argumentation erfordern oder hochspezialisiert sind, wie zum Beispiel die Erzeugung synthetischer Texte, Codegenerierung, Retrieval Augmented Generation (RAG) oder für Agenten. Kunden können beispielsweise KI-Agenten entwickeln, die in der Lage sind, realistisch artikulierte Gespräche zu führen, nuancierte Inhalte zu generieren und komplexe Denkaufgaben zu bewältigen. Die Stärken des Modells erstrecken sich auch auf die Programmierung, mit Kompetenz in der Codegenerierung, -überprüfung und -kommentierung in gängigen Programmiersprachen. Mistral Larges hervorragende mehrsprachige Leistung, die neben Englisch auch Französisch, Deutsch, Spanisch und Italienisch umfasst, eröffnet Kunden eine überzeugende Option für ihre Herausforderungen. Durch das Angebot eines Modells mit robuster mehrsprachiger Unterstützung kann AWS Kunden mit unterschiedlichen Sprachbedürfnissen besser bedienen und fördert so die globale Zugänglichkeit und Inklusivität für generative KI-Lösungen.
Durch die Integration von Mistral Large in Amazon Bedrock können wir unseren Kunden eine noch breitere Auswahl an leistungsstarken LLMs anbieten. Es gibt kein Modell, dass für alle Anwendungsfälle optimiert ist. Um herauszufinden, was für die geschäftlichen Anforderungen unser Kunden am besten funktioniert und um das volle Potenzial der generativen KI für sich zu erschließen, benötigen diese Zugang zu einer Vielzahl von Modellen. Daher sind sind wir stets bestrebt, die besten aktuellen Modelle bereitzustellen und all unseren Kunden Zugang zu den aktuellsten und fortschrittlichsten Möglichkeiten der generativen KI zu bieten.
“Wir freuen uns, unsere Zusammenarbeit mit AWS bekannt zu geben, um die Einführung unserer fortschrittlichen KI-Technologie bei Organisationen weltweit zu beschleunigen. Unsere Mission ist es, Spitzen-KI allgegenwärtig zu machen, und um diese Mission zu erreichen, wollen wir mit dem weltweit führenden Cloud-Anbieter zusammenarbeiten, um unsere Top Modelle zu verbreiten. Wir haben eine lange und enge Beziehung zu AWS, und durch die heutige Stärkung dieser Verbindung werden wir in der Lage sein, maßgeschneiderte KI für Entwickler auf der ganzen Welt bereitzustellen.”
– Arthur Mensch (sinngemäß), CEO at Mistral AI.
Kunden schätzen Auswahl
Seit unserer ersten Angekündigung von Amazon Bedrock, innovieren wir in rasantem Tempo und fügen leistungsstärkere Funktionen wie Agenten und Guardrails hinzu. Wir haben von Anfang an angekündigt, dass weitere spannende Innovationen, einschließlich neuer Modelle, hinzu kommen werden. Unsere Kunden sagen uns, dass sie durch umfangreichere Modelloptionen bemerkenswerte Ergebnisse erzielen können:
“Die Einfachheit des Zugriffs auf verschiedene Modelle über eine einzige API ist eine der Stärken von Bedrock. Die verfügbaren Modelloptionen waren aufregend. Wenn neue Modelle verfügbar werden, kann unser KI-Team schnell und einfach Modelle evaluieren, um zu evaluieren, ob sie unseren Anforderungen entsprechen. Die Sicherheit und der Datenschutz, die Bedrock bietet, machen es zu einer großartigen Wahl für unsere KI-Bedürfnisse.”
– Jamie Caramanica (sinngemäß), SVP, Engineering bei CS Disco.
„Unser wichtigstes Ziel ist es, Unternehmen dabei zu unterstützen, generative KI zur Unterstützung ihrer Mitarbeiter einzusetzen und Bots in unterschiedlichen Anwendungsfällen zu verbessern. Das sind z. B. bessere Erkennung von Themen, Stimmungen und Tonfall aus Kundengesprächen, Übersetzung, Erstellung und Variation von Inhalten, Wissensoptimierung, Hervorhebung von Antworten und automatische Zusammenfassungen. Um es unseren Nutzern zu erleichtern das Potenzial der generativen KI auszuschöpfen, ermöglichen wir unseren Benutzern durch Amazon Bedrock Zugriff auf eine Vielzahl von großen Sprachmodellen. Darunter die Modelle von Genesys sowie mehrere Drittanbieter-FFMs, wie Claude von Anthropic, Jurrassic-2 von AI21 Labs und Amazon Titan. Gemeinsam mit AWS bieten wir Kunden zahlreiche Möglichkeiten unterschiedliche Anwendungen umzusetzen, die auf die Anforderungen ihres Geschäfts zugeschnitten sind, und helfen ihnen gleichzeitig, sich auf die Zukunft vorzubereiten.“
– Glenn Nethercutt (sinngemäß), CTO at Genesys.
Während die Entwicklung der generativen KI weiter voranschreitet, ist AWS bereit, ihre Zukunft mitzugestalten und Kunden aus verschiedenen Branchen die Möglichkeiten zu geben, Innovationen voranzutreiben, Prozesse zu optimieren und unsere Interaktion mit Maschinen neu zu definieren. Gemeinsam mit hervorragenden Partnern wie Mistral AI und mit Amazon Bedrock als Grundlage ermöglichen wir es unseren Kunden innovativere generative KI-Anwendungen zu entwickeln.
Demokratisierung des Zugangs zu LLMs und FMs
Amazon Bedrock demokratisiert den Zugang zu hochmodernen LLMs und FMs. AWS ist der einzige Cloud-Anbieter, der seinen Kunden die beliebtesten und fortschrittlichsten FMs anbietet. Die Zusammenarbeit mit Mistral AI ist ein wichtiger Schritt auf diesem Weg, indem sie das vielfältige Modellangebot von Amazon Bedrock erweitert und unser Engagement bekräftigt, Kunden durch Amazon Bedrock eine unvergleichliche Auswahl zu bieten. Da kein einzelnes Modell alle Anwendungsfälle optimal bedienen kann, hat AWS den Weg geebnet, damit Kunden das volle Potenzial der generativen KI ausschöpfen können. Mit Amazon Bedrock können Organisationen mit den unterschiedlichen Stärken verschiedener leistungsstarker Modelle experimentieren und diese dann nutzen, um ihre Lösungen auf spezifische Bedürfnisse, Branchen und Aufgaben abzustimmen. Diese beispiellose Auswahl, kombiniert mit der robusten Sicherheit, Privatsphäre und Skalierbarkeit von AWS, ermöglicht es Kunden, die Kraft der generativen KI verantwortungsvoll und mit Zuversicht zu nutzen, unabhängig von ihrer Branche oder regulatorischen Anforderungen.
Resourcen
- Mistral Large News Blog [EN, Extern]
- About Amazon Blog [EN]
- Mistral AI on Amazon Bedrock Product Page [EN]
Über den Autor