- Details
- Kategorie: Blog
Datenverifizierung mit Hilfe lokaler Sprachmodelle
Oftmals stammen Daten aus verschiedenen Quellen oder werden, wie es bei unserer deepmentation-Software lab.capture der Fall ist, durch Texterkennung generiert. In solchen Fällen ist es entscheidend, die Genauigkeit und Konsistenz der Ergebnisse sicherzustellen.
In unserem Bereich der Texterkennung prüfen wir derzeit die Anwendung von großen Sprachmodellen (engl.: Large Language Models (LLMs)) unterschiedlicher Komplexität, um die erzeugten Daten auf Plausibilität zu überprüfen. Weiterhin eruieren wir, Sprachmodelle gezielt auf spezifische Anwendungsfälle zu trainieren, was zu kontextabhängigen Verbesserungen der Erkennungsergebnisse führt.
In einem konkreten Anwendungsfall wie unserer Software zur Labor-Dokumenten-Erfassung, lab.capture, die zur Digitalisierung von Auftragsscheinen in medizinischen Laboren verwendet wird, können beispielsweise Stamm- und Auftragsdaten nach der Erkennung automatisch optimiert werden. Zusätzlich bzw. alternativ dazu kann dem Nutzer im Korrekturfrontend der Software eine Auswahl verschiedener möglicher Varianten der erkannten Daten angeboten werden.
Besonders wichtig ist dabei die Sensibilität der Daten im medizinischen Umfeld. Aus diesem Grund führen wir Tests mit lokal implementierten Sprachmodellen durch, die auf dem lab.capture-Server unserer Kunden laufen und keine Verbindung zur Cloud haben. Dadurch bleiben die Daten während des Verarbeitungsprozesses sicher und datenschutzkonform auf dem Server.
Ein weiterer denkbarer Anwendungsfall ist eine Standalone-Lösung zur gezielten Datenverifizierung.
Interessieren Sie sich für die Verbesserung von Daten mithilfe von KI- und LLM-Technologien, beispielsweise im Bereich der OCR-Texterkennung? Dann nehmen Sie gerne Kontakt mit uns auf!