Wir haben unseren Webinarteilnehmer:innen Fragen gestellt. Die Ergebnisse dieser Umfrage möchten wir mit Ihnen teilen:
Teilnehmer:innen gaben dabei an, dass sich mit verschiedenen Anwendungsfällen, wie der Auswertung interner F&E Daten, dem korrekten Auslesen von Rechnungsbelegen, Adresserkennung, der Eingangspostverteilung inkl. E-Mail-Verarbeitung etc. beschäftigen. Das Potenzial für mehr Automatisierung in Prozessen aller Art ist definitiv gegeben!
Um die Aufzeichnung sehen zu können, sind gegebenenfalls die Cookie-Einstellungen anzupassen. In die Cooki-Einstellungen gelangen Sie über das blaue Icon links unten auf der Seite.
Die im Webinar gezeigten Folien stehen hier für Sie zum Download bereit:
Das Antrainieren (Training) eines Large Language Models (LLM) erfolgt in mehreren Phasen und ersetzt nicht direkt die klassischen Lerndaten, sondern erweitert und verfeinert sie. Das in DocProStar genutzte Selbstlernen bezieht sich auf die menschlichen Korrekturen im Nachbearbeitungs-Client. Je nach Anwendungsfall kann es hilfreich sein, diese Daten auch für ein Training oder Finetuning des KI-Modells zu verwenden, ist aber an sich ein separater Schritt. Bei der Verwendung von externen KI-Diensten wie beispielsweise Chat GPT kann es auch sinnvoll sein, den klassischen Selbstlernmechanismus nicht zu nutzen.
Grundsätzlich kann das Modell auch den Zusammenhang der verschiedenen Emails in einem Thread verstehen. Allerdings ist die Architektur auf eine bestimmte Anzahl an Tokens beschränkt, was wiederum Auswirkungen auf extrem lange Emails haben könnte. Sehr sehr lange Email-Treads, in der das für die Klassifikation entscheidende Merkmal in der initialen Email des Threads (also ganz unten) steht, stellen die Klassifikation tatsächlich noch vor Herausforderungen. Das ist im Einzelfall zu prüfen, denn bis zu einer gewissen länge (kürzeren Antworten im Emailverlauf) könnte der Ansatz funktionieren. Kommen Sie gerne auf uns zu, um das Szenario mit konkreten Beispielen zu testen.