Am Beispiel der Verarbeitung eingehender Rechnungen
Künstliche Intelligenz (KI) hat in den letzten Jahren erstaunliche Fortschritte gemacht, insbesondere in der Automatisierung von Geschäftsprozessen wie der Verarbeitung von Eingangsrechnungen. Trotz dieser Fortschritte ist die Technologie nicht ohne Fehler. Ein besonders interessanter und gleichzeitig beunruhigender Aspekt sind sogenannte KI-Halluzinationen. Diese Phänomene erinnern an die Geschichten des Lügenbarons Münchhausen, der berüchtigt dafür war, fantastische und erfundene Geschichten zu erzählen. Ähnlich können KI-Systeme überzeugend wirkende, aber falsche Informationen liefern.
In diesem Blogbeitrag befassen wir uns mit der Definition, den Ursachen, der Erkennung und der Behebung von KI-Halluzinationen. Eingehende Rechnungen sind durch die anstehende E-Rechnungspflicht in aller Munde, daher zeigen wir das Problem von KI-Halluzinationen in diesem Beitrag im Kontext der Verarbeitung von Eingangsrechnungen auf.
Definition einer KI-Halluzination
Eine KI-Halluzination tritt auf, wenn eine KI falsche oder nicht existierende Informationen generiert. Bei der automatisierten Verarbeitung von Eingangsrechnungen bedeutet dies, dass die KI Daten erkennt oder erstellt, die tatsächlich nicht auf der Rechnung vorhanden sind oder falsch interpretiert werden. Diese Fehler können sowohl in der optischen Texterkennung (OCR) als auch in der semantischen Analyse der Rechnungsinhalte auftreten.
Zur besseren Veranschaulichung nennen wir ein paar Beispiele aus dem Alltag:
Stellen Sie sich vor, ein KI-System zur Rechnungsverarbeitung erkennt eine “1” als “7”, was den Betrag auf der Rechnung deutlich erhöht. Ein anderes Beispiel wäre, dass das System einen Lieferantenname falsch interpretiert und dadurch die Rechnung einem falschen Lieferanten zuordnet. Solche Fehler können zu erheblichen finanziellen und operativen Problemen führen.
Das Problem von Halluzinationen in KI-Systemen
KI-Halluzinationen sind besonders problematisch, weil sie oft schwer zu erkennen und noch schwerer zu korrigieren sind. Große Sprachmodelle und andere KI-Systeme, die für die Verarbeitung von Eingangsrechnungen verwendet werden, sind darauf ausgelegt, kohärente und flüssige Texte zu generieren oder zu interpretieren. Jedoch fehlt ihnen das tiefere Verständnis des Kontexts, den sie verarbeiten. Sie stützen sich auf statistische Muster und können daher falsche oder irreführende Informationen produzieren.
Die möglichen Szenarien bei der Verarbeitung eingehender Rechnungen sind vielfältig und verdeutlichen, wie gravierend unentdeckte KI-Halluzinationen sein können:
- Fehlerhafte Beträge
Ein Unternehmen erhält eine Rechnung über 1000 Euro. Das KI-System liest jedoch fälschlicherweise 10000 Euro aus, was zu einer Überzahlung führt.
- Falsche Lieferanten
Eine Rechnung von “ABC GmbH” wird fälschlicherweise als “ABD GmbH” erkannt, was zu Verwirrung und möglichen Zahlungsausfällen führt.
- Ungültige Zahlungsfristen
Ein Zahlungsziel von “30 Tagen” wird als “3 Tage” interpretiert, was zu unnötigem Zeitdruck und möglichen Mahngebühren führt.
- Unterschiedliche Währungen
Eine Rechnung in USD wird fälschlicherweise als Euro erkannt, was zu erheblichen finanziellen Diskrepanzen führen kann.
- Handschriftliche Ergänzungen
Ein handschriftlicher Kommentar auf einer Rechnung wird als Teil des gedruckten Textes erkannt, was die automatische Verarbeitung stören kann.
Die Ursachen von KI-Halluzinationen
KI-Halluzinationen bei der Verarbeitung von Eingangsrechnungen können durch verschiedene Faktoren verursacht werden:
- Fehlerhafte Trainingsdaten
Wenn die Daten, mit denen die KI trainiert wurde, fehlerhaft oder unvollständig sind, kann dies zu falschen Ergebnissen führen. Beispielsweise können schlecht gescannte Rechnungen oder handschriftliche Notizen zu Fehlinterpretationen führen.
- Unzureichende Modellierung
Die KI-Modelle sind komplex und können nicht immer alle realen Szenarien abbilden. Seltene oder ungewöhnliche Rechnungsformate werden oft falsch erkannt.
- Algorithmische Fehler
Fehler in den zugrunde liegenden Algorithmen können ebenfalls zu Halluzinationen führen. Diese Fehler können tief in der mathematischen Struktur der Modelle verborgen sein und sind daher schwer zu identifizieren.
- Bias in den Trainingsdaten
Wenn die Trainingsdaten systematische Verzerrungen aufweisen, kann die KI diese Verzerrungen übernehmen und falsche Informationen generieren. Beispielsweise könnte eine Überrepräsentation bestimmter Lieferanten zu systematischen Fehlern führen.
Erkennung von KI-Halluzinationen
Die Erkennung von KI-Halluzinationen bei der Verarbeitung von Eingangsrechnungen ist entscheidend, um die Integrität und Genauigkeit der Rechnungsverarbeitung sicherzustellen. Diese Halluzinationen sind oft schwer zu identifizieren, da sie plausible und kohärente, aber falsche Informationen erzeugen können. Es gibt jedoch verschiedene Methoden und Hinweise, die helfen können, KI-Halluzinationen zu erkennen und zu diagnostizieren.
Hinweise auf KI-Halluzinationen
- Unerwartete Ergebnisse
Eines der offensichtlichsten Anzeichen für eine KI-Halluzination ist das Auftreten unerwarteter oder ungewöhnlicher Ergebnisse. Beispielsweise könnte die KI plötzlich einen ungewöhnlich hohen Rechnungsbetrag anzeigen, der nicht mit den vorherigen Rechnungen übereinstimmt.
Beispiel: Eine Rechnung über 500 Euro wird plötzlich als 5000 Euro interpretiert, was sofort auffällt und überprüft werden muss.
- Widersprüchliche Informationen
Wenn die KI widersprüchliche Informationen innerhalb derselben Rechnung oder zwischen verschiedenen Rechnungen liefert, könnte dies ein Hinweis auf eine Halluzination sein.
Beispiel: Die KI erkennt dieselbe Rechnung einmal als von “ABC GmbH” und ein anderes Mal als von “ABD GmbH”, was zu Verwirrung führt und überprüft werden muss.
- Unlogische Ergebnisse
Ergebnisse, die keinen Sinn ergeben oder nicht logisch erscheinen, sind ebenfalls starke Indikatoren für KI-Halluzinationen.
Beispiel: Eine Rechnung mit einem Zahlungsziel von 30 Tagen wird als Zahlungsziel von 3 Tagen erkannt, was offensichtlich unlogisch ist.
KI-Halluzinationen erkennen
- Vergleich mit historischen Daten
Ein effektiver Weg, um KI-Halluzinationen zu erkennen, ist der Vergleich der Ergebnisse der KI mit historischen Daten. Wenn die aktuellen Ergebnisse signifikant von den bisherigen Mustern abweichen, könnte dies ein Hinweis auf eine Halluzination sein.
Beispiel: Eine Analyse der durchschnittlichen Rechnungsbeträge eines Lieferanten über die letzten Monate kann helfen, Ausreißer schnell zu identifizieren.
- Manuelle Überprüfung
Trotz der Automatisierung durch KI ist die manuelle Überprüfung von verdächtigen Rechnungen nach wie vor eine wichtige Methode, um Fehler zu erkennen und zu korrigieren.
Beispiel: Rechnungen, die von der KI als potenziell problematisch markiert wurden, sollten von einem Mitarbeiter manuell überprüft werden, um die Richtigkeit der erkannten Daten sicherzustellen.
- Einsatz von Kontrollmechanismen
Implementierung von Kontrollmechanismen wie doppelter Dateneingabe oder Cross-Validation, um sicherzustellen, dass die von der KI erkannten Daten korrekt sind.
Beispiel: Ein System könnte so konfiguriert werden, dass jede Rechnung mindestens zweimal von der KI verarbeitet wird, und die Ergebnisse verglichen werden, um Abweichungen zu identifizieren.
- Nutzung spezialisierter Erkennungstools
Einsatz von speziellen Tools und Algorithmen zur Erkennung von KI-Halluzinationen. Diese Tools sind darauf spezialisiert, Anomalien und inkonsistente Muster zu identifizieren.
Beispiel: Lynx von Patronus AI ist ein solches Erkennungstool, das entwickelt wurde, um spezifische Anomalien und Halluzinationen in KI-generierten Daten zu erkennen.
Praktische Beispiele zur Erkennung von Halluzinationen:
Ungewöhnliche Rechnungsnummern
Wenn eine KI eine ungewöhnliche oder nicht existierende Rechnungsnummer erkennt, sollte dies ein Hinweis auf eine mögliche Halluzination sein. Beispielsweise könnte die Rechnungsnummer “INV0000001” fälschlicherweise als “INV1234567” erkannt werden.
Unstimmige Artikelnummern
Wenn die Artikelnummern auf der Rechnung nicht zu den in der Datenbank vorhandenen Artikelnummern passen, ist dies ein weiteres Anzeichen für eine mögliche Halluzination.
Abweichende Mehrwertsteuersätze
Wenn die KI plötzlich unterschiedliche Mehrwertsteuersätze für ähnliche Artikel auf derselben Rechnung erkennt, sollte dies überprüft werden.
Die Erkennung von KI-Halluzinationen ist eine der größten Herausforderungen bei der Entwicklung und dem Einsatz von künstlicher Intelligenz nicht nur im Kontext der Eingangsrechnungsverarbeitung. Wie wir in diesem Beitrag gesehen haben, gibt es bereits vielversprechende Ansätze, um dieses Problem anzugehen. Doch welche Konsequenzen haben KI-Halluzinationen konkret für Nutzer und Entwickler? Und welche praktischen Lösungen können wir implementieren, um die Zuverlässigkeit von KI-Systemen zu verbessern? Diesen wichtigen Fragen widmen wir einen weiteren Blogbeitrag.
Abonnieren Sie unseren Newsletter, um über unsere neuen Beiträge auf dem Laufenden zu bleiben:
© Login– stock.adobe.com