Architektur hinter F2 AI Assistant

F2 AI Assistant ist ein vollständig integriertes Modul in F2, das die geltenden Zugriffsbeschränkungen in F2 einhält. Im Folgenden wird die übergeordnete Architektur von F2 AI Assistant beschrieben, mit Fokus auf die einzelnen Komponenten und den Datenaustausch zwischen den Komponenten.

Kontaktieren Sie cBrain für weitere Informationen.

Lesen Sie mehr über die individuellen Komponenten und den Zusammenhang zwischen ihnen in den folgenden Abschnitten.

Komponenten in der Architektur des F2 AI Assistant

Die Architektur des F2 AI Assistant umfasst fünf wesentliche Komponenten. Die folgende Abbildung zeigt das Verhältnis zwischen diesen Komponenten. Die einzelnen Komponenten werden unterhalb der Abbildung beschrieben.

ai architecture
Abbildung 1. Die Architektur hinter F2 AI Assistant

F2-Datenbank

Die Standardarchitektur von F2 besteht aus einer SQL-Datenbank, die alle Daten von F2 speichert. Dazu gehören Metadaten zu Dokumenten, Vorgängen und Schriftstücken sowie Prozessdaten und Protokolle/Logs. Die Datenbank kann sowohl lokal (On-Premises) als auch über einen Cloud-Dienst gehostet werden. Die folgende Beschreibung basiert auf einer On-Premises-Lösung, sodass keine Daten das lokale Setup verlassen.

F2-Client

Der F2-Client enthält die Standard-Geschäftslogiken von F2, um ein sicheres Verwaltungsmodell zu unterstützen und relevante Daten zu verarbeiten. In dieser Anwendungsschicht können Benutzer über die Benutzeroberfläche auf Daten zugreifen und diese gemäß der in der Geschäftslogik festgelegten Zugriffsverwaltung bearbeiten.

Large Language Model-Server

cBrain hostet einen On-Premises Large Language Model-Server (LLM). Auf diesem Server ist ein Foundation-Model von cBrain installiert, das als LLM-Motor für die KI-Lösungen von F2 verwendet werden kann. Dieses Modell kann kontinuierlich durch neuere und leistungsfähigere LLM-Modelle ersetzt werden.

Es besteht auch die Möglichkeit, ein eigenes LLM bereitzustellen oder einen Drittanbieter zu nutzen.

Natural Language Processing-Benutzerschnittstelle

cBrain hat verschiedene Benutzerschnittstellen für Natural Language Processing (NLP) entwickelt, die Zugriff auf ein LLM gewähren. Diese Benutzerschnittstellen ermöglichen es, Fragen zu stellen und Antworten vom LLM basierend auf den vom Benutzer bereitgestellten Eingaben zu erhalten. Der F2 AI Assistant ist ein Beispiel für eine solche Benutzerschnittstelle, die direkt in die F2-Benutzeroberfläche integriert ist.

Vektordatenbank

Eine Vektordatenbank speichert Informationen in Form von Vektoren. Vektoren sind numerische Repräsentationen von Datenobjekten und werden auch als Vektorextrakte bezeichnet.

Die Vektordatenbank ist besonders effizient bei der Indexierung und Durchsuchung großer Datensätze mit unstrukturierten und semistrukturierten Daten. Sie ist eine Voraussetzung dafür, dass das LLM auf die bereitgestellten Daten zugreifen kann.

Die Vektordatenbank wird am gleichen Standort wie die F2-Datenbank installiert. Dadurch unterliegt sie den gleichen Sicherheitsmechanismen wie die F2-Datenbank, und beide Datenbanken werden laufend synchronisiert, wenn Schriftstücke in F2 gespeichert werden.

Zusammenhang zwischen den Komponenten des F2 AI Assistant

Die fünf Komponenten stehen in einer Beziehung zueinander, die es ermöglicht, eine integrierte KI-Lösung wie den F2 AI Assistant zu nutzen. Abbildung 2 zeigt diese Zusammenhänge, und die Zahlen in der Abbildung verweisen auf die Beschreibung der Verbindungen zwischen den Komponenten. Die Erläuterungen dazu finden Sie in der Tabelle unter der Abbildung.

ai architecture numbers
Abbildung 2. Illustration der Architektur des F2 AI Assistant
Nummer Beschreibung

1

Datenaustausch zwischen der F2-Datenbank und dem F2-Client

Alle Daten verbleiben in der F2-Umgebung und verlassen somit nicht das geschlossene On-Premises-Setup.

2

Vektorisierung von Schriftstücken

Damit das LLM auf das als Kontext verwendete Schriftstück zugreifen kann, muss der Inhalt in eine Vektordatenbank übertragen werden. Diese Übertragung erfolgt fortlaufend, sobald ein Schriftstück in der F2-Datenbank gespeichert wird, sodass alle Schriftstücke und Dokumente stets verfügbar und aktuell sind.

3

NLP-Benutzerschnittstelle für den Datensatz

Das F2 LLM (oder ein anderes LLM) wird genutzt, um eine Chat-Benutzerschnittstelle in der Benutzeroberfläche bereitzustellen, die es ermöglicht, Fragen zum Datensatz zu stellen. Benutzer können hier gezielt Informationen abrufen und eine Antwort, die auf der ausgewählten Funktion basiert, erhalten, wobei der Zugriff auf einzelne Datenelemente weiterhin der Zugriffsverwaltung von F2 unterliegt.

4

Fragen und Antworten zwischen dem LLM-Server und dem F2-Client

F2 AI Assistant bietet Ihnen eine Reihe an Standardbefehlen. Um diese zu nutzen, müssen Sie vorab den relevanten Chat, das Dokument oder das Schriftstück auswählen, welche den Kontext der Anfrage bilden, sodass F2 diese als Eingabe mit einbeziehen kann. Die Datenkontrolle bleibt gewahrt, da Sie nur auf Daten zugreifen und diese senden können, auf die Sie bereits Zugriff haben. Es ist also nicht möglich, eine Zusammenfassung von Daten zu erhalten, auf die kein Zugriff besteht.