So unterstützt Hugging Face Unternehmen bei der Einführung offener Modelle
vom AWS Editorial Team | 21. Februar 2025 | Thought Leadership
Übersicht
Open-Source-Basismodelle (FMs) haben in den letzten anderthalb Jahren eine rasante Entwicklung durchgemacht und ihre Gegenspieler mit geschlossenen Modellen schnell eingeholt. Technikern stehen jetzt über eine Million frei verfügbare Modelle zur Verfügung, von denen viele mit den besten verfügbaren geschlossenen Modellen mithalten können. Einst nur die Domain von Einzelpersonen, wird die Nutzung offener Modelle nun auch auf Unternehmen ausgeweitet – darunter auch Fortune-500-Unternehmen.
Diese öffentliche Modellbibliothek wird von der Community geschätzt, da sie die Möglichkeit bietet, Kosten zu kontrollieren, transparente Datensätze zu verwenden und auf Spezialmodelle zuzugreifen. Doch obwohl jeder Open-Source-Modelle frei verwenden kann, wird das Potenzial durch die Herausforderungen bei der Umsetzung in die Produktion gebremst. Für einen erfahrenen Entwickler im Bereich Machine Learning (ML) bedeutet dies mindestens eine Woche harter Arbeit, in der zahlreiche komplexe Entscheidungen rund um die Grafikprozessoren (GPUs), das Backend und das Bereitstellen getroffen werden müssen.
Mit dem Ziel, KI für alle verfügbar zu machen, überwindet Hugging Face, eine führende Open-Source-Plattform, diese Barrieren. Jeff Boudier, Head of Product bei Hugging Face, sagt: „Unser Ziel ist es, jedes Unternehmen auf der Welt in die Lage zu versetzen, seine eigene KI zu entwickeln“. Vor Kurzem hat das Unternehmen Hugging Face Generative AI Services (auch liebevoll HUGS genannt) auf den Markt gebracht und stellt sich damit der zeitaufwändigen und kniffligen Aufgabe, ein offenes Produktionsmodell bereitzustellen.

Offene Modelle direkt aus der Box
Die große Vision von Hugging Face bestand zu Beginn darin, „jedem die Möglichkeit zu geben, mit einem Machine-Learning-Modell ein unterhaltsames Gespräch zu führen“, wie Boudier sagt. Während dies im Jahr 2016 möglicherweise noch ein ehrgeiziges Ziel war, verwirklicht das Unternehmen diese Vision heute, indem es den Einsatz modernster Technologien sowohl für Einzelpersonen als auch für Unternehmen zugänglich macht.
Bisher haben Unternehmen Machbarkeitsnachweise (POCs) mithilfe geschlossener Modelle erstellt, und zwar nicht, weil das ihre erste Wahl war, sondern weil es der schnellste und einfachste Weg war. Die Entwicklung einer KI-Anwendung mit offenen Modellen erfordert in der Regel viele Versuche und Irrtümer, da die Techniker alles von der Konfiguration bis zur Kompilierung ausarbeiten müssen. Um Leistungs- und Compliance-Anforderungen zu erfüllen, müssen sie Bibliotheken, Versionen und Parameter anpassen.
Mit HUGS können Unternehmen den Aufwand umgehen, der mit der Entwicklung einer KI-Anwendung mit offenen Modellen verbunden ist. Die Plug-and-Play-Lösung verändert die Spielregeln für alle, die den Vorteil der generativen KI nutzen möchten. Es ist keine Konfiguration erforderlich, d. h. sie können einfach ein offenes Modell verwenden und damit ausführen. Was früher Wochen dauerte, ist jetzt nur noch eine Sache von Minuten, da die Modelle automatisch für den GPU- oder KI-Beschleuniger optimiert werden.
Hohe Leistung ohne Budgetkürzungen
Auf dem Weg von Hugging Face zur Demokratisierung der KI hat die Zusammenarbeit mit AWS dem Unternehmen dabei geholfen, sich von einem Startup in der Frühphase zu einem Vorreiter in diesem Bereich zu entwickeln, dessen KI-Modelle jeden Monat von Millionen Menschen verwendet werden. Da diese Modelle immer mehr Zuspruch finden und Unternehmen zunehmend von ihren Vorteilen profitieren, bietet HUGS ihnen Zugriff auf eine sorgfältig ausgewählte, manuell bewertete Sammlung der leistungsstärksten und neuesten offenen großen Sprachmodelle (LLMs).
Dank der jüngsten Zusammenarbeit von Hugging Face mit Amazon Web Services (AWS) müssen Unternehmen keine Kompromisse mehr zwischen Kosten, Leistung und Bereitstellungsgeschwindigkeit eingehen. Da die Lösung nun in KI-Chips von AWS Inferentia2 verfügbar ist, können Entwickler die Leistung von Modellen für eine niedrigere Latenzzeit und einen höheren Durchsatz weiter optimieren und gleichzeitig bis zu 40 Prozent der Inferenzkosten sparen. Das ist nicht die einzige Möglichkeit, generative KI-Anwendungen für Unternehmen jeder Größe zugänglicher zu machen. Durch die Zusammenarbeit an der Open-Source-Bibliothek Optimum Neuron profitieren Unternehmen von den Vorteilen von HUGS und halten gleichzeitig die Gemeinkosten minimal.
Stärkung der kommerziellen Wirkung
Von der Entwicklung virtueller Assistenten bis hin zur Erstellung fesselnder Inhalte in Sekundenschnelle – die Modelle von Hugging Face eignen sich für eine Vielzahl von Anwendungsfällen. Obwohl diese Modelle im Vergleich zu akademischen Benchmarks gut abschneiden, ist Boudier der Meinung, dass durch die individuelle Anpassung ein noch größerer Mehrwert erzielt werden kann: „Für Ihren Anwendungsfall ist etwas anderes wichtig. Durch Feinabstimmung und verstärktes Lernen können Sie offene Modelle verbessern und sie besser gestalten als geschlossene Modelle.“
Mithilfe von AWS Inferentia2 Amazon SageMaker können Hugging-Face-Modelle angepasst werden, um die Modellqualität für bestimmte Aufgaben zu verbessern und Produktions-Workloads im großen Maßstab zu ermöglichen. Darüber hinaus bietet die Lösung Entwicklern die Möglichkeit, mithilfe einer Reihe von Techniken, darunter Prompt-Engineering, Retrieval Augmented Generation (RAG) und mehr, sofortige Verbesserungen an Modellen vorzunehmen.
Große Unternehmen wie Thomson Reuters skalieren offene Modelle bereits sicher und effektiv in AWS. Mit HUGS und AWS Inferentia2 verfügen sie nun über die optimierte Hardware, um generative KI-Anwendungen sicher und schnell zu entwickeln und so schneller von ihrem Nutzen zu profitieren. Im AWS Marketplace verfügbar und mit nahtloser AWS-Infrastrukturintegration können Entwickler offene Modelle ganz einfach zu ihren Bedingungen finden, abonnieren und bereitstellen.
Während Hugging Face Fortschritte macht, offene Modelle für alle nutzbar zu machen, erweitert das Unternehmen die über HUGS verfügbaren LLMs, um die Anwendungen der Kunden immer auf dem neuesten Stand zu halten. Durch das Angebot weiterer Open-Source-Optionen und eine vereinfachte Nutzung haben Unternehmen nun die Freiheit, zwischen offenen und geschlossenen Modellen zu wählen.
Haben Sie die gewünschten Informationen gefunden?
Ihr Beitrag hilft uns, die Qualität der Inhalte auf unseren Seiten zu verbessern.