Wie KI eure Produkte wirklich kennenlernt: Training, Finetuning und RAG erklärt

RAG, Fine-tuning oder Pre-Training? Wir erklären, wie KI euren Produktkatalog wirklich kennenlernt und warum der Unterschied für technische B2B-Hersteller entscheidend ist.

Niclas Köhler
Niclas Köhler
13 Apr 2026
Wie KI eure Produkte wirklich kennenlernt: Training, Finetuning und RAG erklärt

Table of contents

Wie KI eure Produkte wirklich kennenlernt: Training, Finetuning und RAG erklärt

ChatGPT kann Gedichte schreiben, Code debuggen und komplexe Sachverhalte erklären. Aber weiß es, welcher eurer Sensoren für Anwendung X die richtige Schutzklasse hat? Nein. Und das ist der Kern des Problems, wenn technische Hersteller KI für die Produktberatung einsetzen wollen.

Die naheliegende Frage lautet: Kann man ein KI-Modell nicht einfach auf den eigenen Produktkatalog trainieren? Die Antwort ist komplizierter und viel interessanter als sie auf den ersten Blick erscheint.

Was "Training" eigentlich bedeutet

Um zu verstehen, warum man ein Sprachmodell nicht einfach auf 50.000 Produktvarianten "trainiert", hilft ein kurzer Blick hinter die Kulissen.

Moderne KI-Modelle wie GPT, Claude oder Gemini sind sogenannte Pre-trained Models. Das bedeutet: Sie wurden zunächst auf einem riesigen Datensatz trainiert, quasi dem gesamten Internet, Büchern, wissenschaftlichen Texten. Das macht sie zu generalistischen Allroundern mit enormem Allgemeinwissen.

Dieses Pre-Training kostet Milliarden Euro und Monate Rechenzeit. Niemand wiederholt das für einen Produktkatalog.

Was viele meinen, wenn sie von "Training" sprechen, ist eigentlich Finetuning: Man nimmt ein bestehendes Modell und verfeinert es auf einem kleineren, spezifischen Datensatz. Das funktioniert, aber es verändert vor allem den Charakter und die Sprachweise des Modells. Den Tonfall. Die Art, wie es antwortet. Nicht das faktische Wissen über 50.000 Produktvarianten mit all ihren technischen Parametern.

Für eine zuverlässige Produktberatung braucht man etwas anderes.

Das eigentliche Problem: Kontextfenster und Halluzinationen

Sprachmodelle haben ein sogenanntes Kontextfenster, das heißt die Menge an Information, die sie in einem Moment "im Kopf behalten" können. Selbst die leistungsstärksten Modelle stoßen hier an Grenzen.

Ein Produktkatalog mit zehntausenden Einträgen und technischen Datenblättern passt schlicht nicht in dieses Fenster. Und wenn man versucht, zu viele Informationen hineinzupressen, passiert etwas Unangenehmes: Das Modell fängt an zu halluzinieren. Es erfindet Spezifikationen, die nicht existieren, oder verwechselt Produkteigenschaften.

Für eine Anwendung, die einem Kunden ein technisches Produkt empfehlen soll, ist das nicht akzeptabel.

RAG: Das KI-Modell schlägt nach

Die Lösung heißt Retrieval Augmented Generation, kurz RAG — und sie ist eleganter als es der Name vermuten lässt.

Das Prinzip: Man lädt die Produktdaten nicht dauerhaft ins Modell, sondern legt sie in eine spezialisierte Datenbank, einen sogenannten Vector Store. Wenn ein Nutzer eine Frage stellt, sucht das System zuerst in dieser Datenbank nach den relevantesten Produktinformationen und gibt diese dem Modell als Kontext mit. Das Modell antwortet dann auf Basis dieser nachgeschlagenen Fakten.

Eine gute Analogie: Kein erfahrener Ingenieur kennt alle Materialfestigkeitswerte auswendig, er schlägt sie im Fachbuch nach. Genau das macht ein RAG-System: Es schlägt nach, bevor es antwortet.

Das erklärt auch, warum so viele Menschen RAG bereits nutzen, ohne es zu wissen. Wer jemals Dateien in einen Custom GPT hochgeladen hat, hat RAG aktiviert. Die Dateien landen in einem Vector Store und werden bei Bedarf abgerufen.

Einfach vs. produktionsreif: Der Unterschied liegt im Detail

Hier trennt sich die Spreu vom Weizen.

Ein einfaches RAG-System lässt sich heute in wenigen Klicks aufsetzen: Produktkatalog hochladen, fertig. Das Ergebnis: In 50 bis 60 Prozent der Fälle kommt eine brauchbare Antwort. Für einen internen Prototyp mag das reichen. Für eine Produktberatung, die Kunden im Verkaufsprozess unterstützt, nicht.

Ein produktionsreifes System, das zuverlässig über 90 Prozent Genauigkeit erreicht, erfordert durchdachte Entscheidungen auf mehreren Ebenen:

Chunking-Strategie: Wie werden die Produktdaten zerschnitten, bevor sie in die Datenbank geladen werden? Feste Blöcke mit definierter Größe? Paragraphenbasierte Schnipsel? Je nach Datenstruktur liefern verschiedene Ansätze völlig unterschiedliche Ergebnisse.

Indexierung: Welcher Mechanismus wird genutzt, um später die richtigen Datenpunkte zu finden? Einfache Vektorsuche, semantische Suche, oder eine Kombination?

Reranking: Werden die gefundenen Ergebnisse noch einmal nach Relevanz sortiert, bevor sie ans Modell übergeben werden?

Wie ein Tischler unterschiedliche Werkzeuge für verschiedene Holzarbeiten braucht, braucht ein gutes RAG-System die richtigen Techniken für die jeweilige Datenbasis.

Was das für technische B2B-Hersteller bedeutet

Wer im Industriebereich 50.000 Produktvarianten mit dutzenden konfigurierbaren Parametern berät, steht vor einer besonderen Herausforderung. Ein generisches Sprachmodell kennt eure Produkte nicht. Ein einfaches Dokumenten-Upload-System ist zu unzuverlässig für den Verkaufsprozess.

Was funktioniert: Ein durchdachtes RAG-System, das auf eure Produktdaten zugeschnitten ist, mit der richtigen Datenstruktur, der richtigen Chunking-Strategie und einem Retrieval-Mechanismus, der auch bei sehr ähnlichen Produktvarianten die richtige Empfehlung liefert.

Das ist kein Hexenwerk, aber es ist auch kein 12-Klick-Setup. Es ist Engineering.

Bei Phaina arbeiten wir seit vier Jahren an genau diesem Problem: Wie kann man technische Produkte mit KI so beraten, dass die Empfehlungen zuverlässig, nachvollziehbar und für Kunden wirklich hilfreich sind? Das Ergebnis ist ein KI-gestützter Produktberater, der auf die spezifischen Anforderungen technischer Hersteller ausgelegt ist.

Häufige Fragen

Kann ich einfach meinen Produktkatalog als PDF hochladen?

Technisch ja, aber die Ergebnisqualität ist stark begrenzt. PDFs haben oft keine saubere Struktur, was die Qualität des Retrievals direkt beeinflusst. Strukturierte Produktdaten (z.B. als JSON oder CSV) liefern deutlich bessere Ergebnisse.

Was ist der Unterschied zwischen Finetuning und RAG?

Finetuning verändert das Modell selbst, seinen Stil, seinen Charakter, sein Verhalten. RAG gibt dem Modell zur Laufzeit aktuelles Wissen mit, ohne es zu verändern. Für Produktdaten, die sich regelmäßig ändern, ist RAG fast immer die bessere Wahl.

Wie genau kann ein KI-Produktberater sein?

Mit einem einfachen Setup: 50–60 Prozent. Mit einem gut entwickelten, auf eure Daten optimierten System: über 90 Prozent. Der Unterschied liegt in der Architektur, nicht im Modell.

Brauche ich dafür eine eigene KI-Infrastruktur?

Nein. Spezialisierte Lösungen wie Phaina übernehmen die gesamte technische Infrastruktur von der Datenbankanbindung bis zur Retrieval-Logik. Ihr bringt eure Produktdaten mit.

Machen Sie heute den ersten Schritt zu mehr Conversions in Ihrem Shop.

Bieten Sie Ihren Kunden die Produktberatung, die Sie verdienen – ohne Ihren Vertrieb zusätzlich zu belasten.

Blog

Read more in our resources hub

Lorem ipsum dolor sit amet, consectetur adipiscing elit.