{"id":17569,"date":"2020-01-14T10:17:29","date_gmt":"2020-01-14T10:17:29","guid":{"rendered":"http:\/\/parashift.io\/?p=3620"},"modified":"2025-11-30T22:39:42","modified_gmt":"2025-11-30T22:39:42","slug":"wie-wir-mit-machine-learning-die-dokumentenverarbeitung-revolutionieren","status":"publish","type":"post","link":"https:\/\/parashift.ai\/de\/wie-wir-mit-machine-learning-die-dokumentenverarbeitung-revolutionieren\/","title":{"rendered":"Wie wir mit Machine Learning die Dokumentenverarbeitung revolutionieren"},"content":{"rendered":"\n<p>Wir bei Parashift fokussieren uns auf das Leveragen von pragmatischen state-of-the-art Machine Learning (ML) Technologien, um spezifische Probleme f\u00fcr unsere Kunden zu l\u00f6sen. Das Problem, das dabei im Zentrum steht, ist die strukturierte Datenextraktion von Gesch\u00e4ftsdokumenten.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.forbes.com\/sites\/forbestechcouncil\/2017\/06\/05\/the-big-unstructured-data-problem\/\" target=\"_blank\" rel=\"noopener\">Gartner<\/a>&nbsp;sch\u00e4tzt, dass heute mehr als 80% der Unternehmensdaten unstrukturiert sind. Das heisst, diese sind f\u00fcr Unternehmen in Form von Freitext in Emails und anderen schriftlichen Dokumenten verschlossen. So ist es denn auch nicht sonderlich erstaunlich, dass das autonome Klassifizieren und Daten Extrahieren von Dokumenten nach wie vor grosse Herausforderungen sind, die es zu meistern gilt. Wieso das so ist, hat diverse Hintergr\u00fcnde. Auf zwei grundlegende gehe ich hier kurz ein:<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Mit Templates allein gehts nicht<\/h4>\n\n\n\n<p>Dokumente, selbst solche, die wir grunds\u00e4tzlich als eher standardisiert bezeichnen w\u00fcrden wie beispielsweise Rechnungen, kommen immer wieder in einem anderen Layout beziehungsweise in einer anderen Struktur daher. Das heisst, dass eine einfache OCR (Optical Character Recognition) Maschine bei Abweichungen vom Normalfall schlicht keine Ahnung mehr hat, wo sie auf dem Dokument nach was suchen muss. Sie sehen, die Komplexit\u00e4t ist oftmals schon bei scheinbar banalen Dokumenten relativ hoch.<\/p>\n\n\n\n<p>Ein pragmatischer L\u00f6sungsansatz f\u00fcr eine solche Problematik ist die Erstellung einer Vielzahl an statischen Templates, welche die Strukturunterschiede der jeweils verschiedenen Dokumente und Zusteller festhalten soll. Die Resultate dieses Vorgehens sind in der Regel gut. Doch je mehr Gesch\u00e4ftsverkehr und Stakeholder ein Unternehmen hat, desto schneller wird das zu einer ziemlichen Management-Challenge. Und die reine Anwendung erstellter Templates auf Formate, die die Maschine zuvor noch nie gesehen hat, ist aussichtslos.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Maschinen sind anf\u00e4llig auf Noise<\/h4>\n\n\n\n<p>Eine weitere Herausforderung kommt von der Qualit\u00e4t der Dokumente aus, welche wir im Tagesgesch\u00e4ftes antreffen k\u00f6nnen. Sind diese nicht wirklich sauber gedruckt oder qualit\u00e4tsm\u00e4ssig schlecht fotografiert oder gescannt und ans Postfach weitergeleitet worden, werden solche F\u00e4lle f\u00fcr die OCR Maschine schnell problematisch. Denn bei der Interpretation der Input-Werte \u201csieht\u201d sie oftmals zu viel Noise (St\u00f6rungen) und kann folge dessen keine verwertbaren Daten mehr liefern.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Ein Schritt in Richtung autonomer Dokumentenverarbeitung<\/h4>\n\n\n\n<p>Diese und weitere Probleme haben wir spezifisch adressiert und entwickelten in diesem Prozess entsprechende Methoden, die es uns erm\u00f6glichen, einen grossen Schritt vorw\u00e4rts in Richtung autonomer Dokumentenverarbeitung zu kommen. Diverse dieser Methoden haben wir daher auch beim Patentamt angemeldet.<\/p>\n\n\n\n<p>F\u00fcr die Verarbeitung der Dokumente haben wir beispielsweise einen mehrschichtigen Prozess aufgebaut, der je nach Qualit\u00e4t des Inputs schnell oder sehr schnell durchgef\u00fchrt werden kann. Nehmen wir zur Veranschaulichung einmal an, dass eine Datei in der Pipeline ist, welche eine schlechte Qualit\u00e4t aufweist. Dieses Dokument wird aufgrund dessen zuerst von verschiedenen eigens entwickelten Enhancement Algorithmen bearbeitet und erst dann weitergegeben, wenn dessen Inhalte f\u00fcr die OCR Maschine gut erkennbar sind. Das Pre-Processing von solchen Dokumenten kann nat\u00fcrlich beliebig weiterentwickelt werden. Und so haben wir neben inkrementellen Verbesserungen auch diverse neue coole Features auf der Roadmap und werden diese im Verlauf des Jahres 2020 releasen. An einer M\u00f6glichkeit um Batch Verarbeitungen von grossen Stapeln unterschiedlicher, eingescannter Dokumente ohne Trennpapier vorzunehmen, arbeiten wir ebenfalls. Das System muss hier aber robust und schnell genug sein, um unterschiedliche Dokumenttypen erkennen und die einzelnen Seiten einander zuzuordnen zu k\u00f6nnen. Wenn wir damit live gehen k\u00f6nnen, ist noch unklar. Einmal machbar, werden wir damit aber den Automationsgrad der End-to-End Automation von jeglichen Dokument-lastigen Prozessen stark erh\u00f6hen k\u00f6nnen. So viel steht fest.<\/p>\n\n\n\n<p>Das Problem mit den schier endlosen Templates l\u00f6sen wird mit dem Parashift Learning Network. Durch dieses profitieren unsere Kunden von allen Standard Dokumenten und Learnings, die mit unserer Maschine verarbeitet beziehungsweise internalisiert wurden. Das heisst, je mehr Dokumente wir von einem bestimmten Typen in einer gr\u00f6sstm\u00f6glichen Variation verarbeitet haben, desto gr\u00f6sser ist die Wahrscheinlichkeit, dass der Dokumententyp in seiner Natur von der Maschine verstanden wurde und sie so die relevanten Daten eruieren und extrahieren kann. Folge dessen wird die Maschine immer besser und immer mehr Kunden werden aufgrund der \u00fcberlegenen Qualit\u00e4t auf Parashift setzen wollen. Es handelt sich hier also um einen Reinforcement-Mechanismus.<\/p>\n\n\n\n<p>Heute sind wir besonders auf deutschen Kreditorenrechnungen und Quittungen stark. Eine Validierung der Daten muss nur noch in Sonderf\u00e4llen vorgenommen werden. Unser Engineering Team arbeitet aber parallel an 64 weiteren Standard Dokumenttypen wie beispielsweise Kreditkartenabrechnungen, Bankbelegen und Versicherungspolicen, welche anfangs 2020 live geschaltet werden. Auch bez\u00fcglich anderer Sprachen kann in absehbarer Zeit mit qualitativen Resultaten gerechnet werden. Denn wir haben bereits mehrere Kunden, wo wir Dokumente in Englisch, Franz\u00f6sisch und Italienisch verarbeiten d\u00fcrfen.<\/p>\n\n\n\n<p>Da wir ferner unserer Standard Dokumente trotzdem auch auf die individuellen Bed\u00fcrfnisse unserer Kunden eingehen wollen, entwickeln wir gerade eine Software, mit welcher auch nicht technisch affinen Mitarbeiterinnen und Mitarbeitern erm\u00f6glicht wird, in wenigen Stunden komplexe Dokumenttypen f\u00fcr die Maschine zu konfigurieren und mit einem Sample Set von 10 bis 1000 Belegen anzutrainieren. Die Learnings der Maschine auf diesen individuellen Dokumenten werden im Vergleich zu den Standard Dokumenttypen aber nicht mit dem Netzwerk geteilt. Die Anzahl der hier ben\u00f6tigten Trainingsbelege f\u00fcr eine solide Automationszuverl\u00e4ssigkeit ist stark abh\u00e4ngig von der Komplexit\u00e4t des Dokumenttyps. Konkret werden Kunden auf Basis der Standard Dokumenttypen aufbauen und zus\u00e4tzliche zu extrahierende Felder definieren k\u00f6nnen. Das Interface zur Validierung, insofern diese die Kunden selbst \u00fcbernehmen wollen, sowie die API werden dabei automatisch den neuen Konfigurationen angepasst. Die untenstehende Visualisierung verdeutlicht den Prozess Schritt f\u00fcr Schritt.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\"><img decoding=\"async\" src=\"https:\/\/blog.parashift.io\/hs-fs\/hubfs\/individual_documents.png?width=750&amp;name=individual_documents.png\" alt=\"individual_documents\"\/><\/figure>\n\n\n\n<p>Bahnbrechend an dieser neuen Software ist, dass wir einen Prozess von mehreren Wochen oder gar Monaten auf nur einen Tag reduzieren werden k\u00f6nnen.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Ein Fundament f\u00fcr individuelle Weiterentwicklung<\/h4>\n\n\n\n<p>Eine weitere praktische Charakteristik unserer L\u00f6sung ist, dass wir durch die Architektur der Software Entwicklern erm\u00f6glichen, schnell weitere post-Extraktionsprozesse zu implementieren, die wiederum RPA Clean Up Prozesse ersetzen k\u00f6nnen. Ein Beispiel dazu ist die Implementation von KI-L\u00f6sungen, die mittels Natural Language Processing (NLP) die extrahierten Daten mit Stammdaten in anderen IT Systemen zur Verifikation abgleichen. Andere sind Software-L\u00f6sungen zur Betrugs Vorhersage und grunds\u00e4tzlichen Anomalieerkennung.<\/p>\n\n\n\n<p>Mit unserer API L\u00f6sung schaffen wir also eine essenzielle Basis f\u00fcr die Einf\u00fchrung beziehungsweise Weiterentwicklung von revolution\u00e4ren Prozessen, die zum Wachstum von f\u00fchrenden Unternehmen einen grossen Beitrag leisten. Denn Prozessinnovationen wie Robotic Process Automation (RPA) sind nur so gut, wie die Daten, die ihnen als Grundlage zur Automation dienen. Was heute noch in Dokumenten, Bildern und anderen Medien verborgen ist, wird in absehbarer Zeit verf\u00fcgbar gemacht werden k\u00f6nnen und ein nie dagewesenes Potenzial f\u00fcr die Neugestaltung von Organisationen und Prozessen bieten.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wir bei Parashift fokussieren uns auf das Leveragen von pragmatischen state-of-the-art Machine Learning (ML) Technologien, um spezifische Probleme f\u00fcr unsere Kunden zu l\u00f6sen. Das Problem, das dabei im Zentrum steht, ist die strukturierte Datenextraktion von Gesch\u00e4ftsdokumenten. Gartner&nbsp;sch\u00e4tzt, dass heute mehr&#8230;<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"content-type":"","footnotes":""},"categories":[121],"tags":[],"class_list":["post-17569","post","type-post","status-publish","format-standard","hentry","category-allgemein-2"],"_links":{"self":[{"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/posts\/17569","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/comments?post=17569"}],"version-history":[{"count":1,"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/posts\/17569\/revisions"}],"predecessor-version":[{"id":30070,"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/posts\/17569\/revisions\/30070"}],"wp:attachment":[{"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/media?parent=17569"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/categories?post=17569"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/parashift.ai\/de\/wp-json\/wp\/v2\/tags?post=17569"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}