hands symbolizing an AI machine understanding human

Künstliche Intelligenz,
die Text versteht.

AskBy.ai betreibt Forschung und Entwicklung im Bereich Natural Language Processing (NLP) & Machine Learning.

Mehr erfahrenh

Anwendungsfälle von
Natural Language Processing (NLP)

Wir entwickeln individuelle NLP-Modelle für Ihre Herausforderungen im Bereich Textverarbeitung. Typische Anwendungsfälle die durch Text-KI gelöst werden sind z.B. die Verarbeitung von unstrukturierten Information, Anonymisierung und Pseudonymisierung, Chatbots und semantische Suche.

Chatbots für Datenbanken, CRM und ERP-Systeme

Mithilfe unserer eigenen Text-KI zur Verarbeitung natürlicher Sprache haben wir einen Chatbot für Datenbankabfragen entwickelt. Dadurch können auch technisch nicht versierte Mitarbeiter Informationen unkompliziert aus einer Datenbank oder anderen Systemen abrufen.

s
s

Sprachbedienung für Datenbanken

Mit AskBy Data können Sie ganz ohne technisches Wissen Daten aus einer Datenbank abrufen und anzeigen lassen. Sie müssen lediglich in Ihrer präferierten Art und Weise eingeben welche Informationen Sie erhalten möchten. Die Kerntechnologie, AskBy Data, erkennt die Absicht des Benutzers und übersetzt Ihren Satz in eine technische Abfrage und fragt das entsprechende System ab. Diese können Datenbanken, CRM, ERP-Systeme oder auch andere Schnittstellen sein. Das Ergebnis: Daten können eigenständig und sofort abgerufen werden, ohne weitere Abteilungen miteinzubeziehen.

background

Unser NLP/KI Tech Stack

Bei AskBy.ai nutzen wir die neuesten Erkenntnisse aus dem Bereich Natural Language Processing (NLP), um unsere Modelle zu erstellen und zu definieren. Das Gebiet des Natural Language Understanding (NLU) entwickelt sich in den letzten Jahren rasant durch Durchbrüche bei der Entwicklung Task-spezifischer neuronaler Netze - insbesondere sind dies derzeit Rekurrente neuronale Netze in Sequence-to-sequence Szenarien sowie Attention Models. Jedes Jahr gibt es neue Durchbrüche, die dazu führen, dass neue Rekorde in Benchmarks aufgestellt werden. Einer dieser Benchmarks ist der GLUE-Benchmark - ein neuer De-Facto-Standard in der NLP-Community. Durch die schnelle Entwicklung ist es entscheidend in diesem Gebiet auf dem neuesten Stand zu sein.

Für das Training von Sprachmodellen verwenden wir u.a. eine intern entwickelte Architektur, die von BERT inspiriert ist, ein Transfer-Learning-Ansatz auf der Basis von Transformern, der Ende 2018 bei verschiedenen Aufgaben die aktuellen State-of-the-Art-Modelle auf vielen NLP Benchmarks geschlagen hat. Nach unserer Erfahrung erfordern diese Modelle nur wenig Finetuning, um bei Aufgaben wie der Repräsentation von Dokumenten, der Dokumentenklassifizierung und der semantischen Suche sehr gut zu funktionieren. Im Allgemeinen vertreten wir die Ansicht, dass diese Modelle die richtige Wahl für viele NLP-Problemstellungen sind, die ein tieferes Verständnis des Inhalts von Texten erfordern.

Ein weiteres Szenario und eine der Kerntechnologien von AskBy ist die Übersetzung von natürlicher Sprache in formale Sprache. Zu diesem Zweck haben wir eine neuartige, Recurrent Neural Network Architektur namens Nefisto (Neural Finite State Output) entwickelt. Die Übersetzung in formale Sprache hat ihre eigenen Herausforderungen - aufgrund der strengen syntaktischen Anforderungen der Zielsprache. Aus diesem Grund erlauben Nefistos, ihre Ausgabe mit einfachen grammatikalischen Regeln einzuschränken. Dies ermöglicht die Übersetzung nicht nur in komplexe Sequenzen, sondern auch in komplexe hierarchische Berechnungsbäume. Ein Beispiel hierfür ist unsere Kalender-Demo.

Ein häufiges Problem ist das Abhandensein von (genügend) Trainingsdaten; insbesondere wenn die Zielsprache eine formale Sprache ist, gibt es hier in den aller seltensten Fällen bereits verfügbare Daten, die für ein Training verwendet werden könnten. Klassischerweise werden Trainingsdaten von Menschen erzeugt. Aber wenn der Vorhersage-Raum kombinatorisch groß ist, ist es für einen Menschen schwierig, Beispiele Zeile für Zeile aufzuschreiben, da der Vorhersage-Raum häufig schneller als exponentiell wächst. Zu diesem Zweck haben wir eine kleine Programmiersprache namens Larala (Language randomization language) entwickelt. Diese gibt seinem Programmierer ein ausdrucksstärkeres Werkzeug in die Hand, um Trainingsdaten zu erstellen und größere Teile des Vorhersagebereichs mit (asymptotisch) viel weniger Codezeilen zu erfassen. Larala wurde ursprünglich für AskBy NL Query entwickelt, ein Produkt, das natürliche Sprache in Datenbankanfragen übersetzt. In diesem Szenario gab es zunächst gar keine Trainingsdaten - aber mit Larala konnten wir ein System aufbauen, das sehr gut funktioniert.

Wenn Sie also der Meinung sind, dass Sie nicht genügend Trainingsdaten oder gar keine Trainingsdaten haben - nehmen Sie Kontakt mit uns auf. Wir könnten Ihnen möglicherweise dennoch helfen.

background