Aircall AI Voice Agents können direkt aus Ihren öffentlich zugänglichen Inhalten lernen, um während Kundengesprächen präzise, konsistente und markengerechte Antworten zu geben. Möglich wird dies durch Wissensquellen, die es Ihrem KI-Agenten ermöglichen, in Echtzeit auf vertrauenswürdige Informationen zuzugreifen. In diesem Artikel wird erklärt, was eine Wissensdatenbank ist, wie sie Ihrem KI-Agenten hilft und welche aktuellen Einschränkungen zu beachten sind.

Was ist eine Wissensdatenbank?

Eine Wissensdatenbank ist eine zentrale Informationssammlung über Ihr Unternehmen, z. B. zu Produkten, Dienstleistungen und häufig gestellten Fragen. Sie sorgt dafür, dass Informationen leicht auffindbar, leicht referenzierbar und für Ihre KI-Agenten leicht verständlich sind.

Aircall verwendet die von Ihnen bereitgestellten Inhalte, z. B. öffentliche Webseiten, um eine Wissensdatenbank aufzubauen, auf die sich Ihre KI-Agenten während Kundengesprächen stützen können.

So helfen Wissensquellen Ihren KI-Agenten

Sobald Ihre Inhalte als Wissensquelle hinzugefügt wurden, kann Ihr KI-Agent:

  • Häufige Fragen mit präzisen, markenkonformen Informationen beantworten
  • Eine konsistente Kommunikation über Anrufe hinweg aufrechterhalten
  • Wiederkehrende manuelle Antworten reduzieren
  • Während Kundeninteraktionen sofort auf Ihre Inhalte verweisen

Dadurch erhalten Anrufende präzise und hilfreiche Antworten, die direkt auf Ihren eigenen veröffentlichten Informationen basieren.

Bild, das zeigt, wie Inhaltsquellen hinzugefügt werden und die Schnittstelle

Unterstützte Inhaltstypen

Sie können neue Wissensquellen auf folgende Weise hinzufügen:

  • Inhaltsblock: Beliebigen Klartext einfügen, aus dem der Agent(s) lernen soll
  • Webseite: Eine einzelne öffentliche URL hinzufügen
  • Website: Eine öffentliche Hauptdomain mit optionalen Unterseiten hinzufügen
  • Vorhandene Quellen: Bereits hinzugefügte Inhalte wiederverwenden oder aktualisieren
Hinweis: Alle Inhalte, die als Wissensquelle hinzugefügt werden, müssen öffentlich zugänglich sein.

Aktuelle Einschränkungen

Beachten Sie für optimale Ergebnisse die folgenden Einschränkungen.

Geschützte oder authentifizierungspflichtige Seiten

Wissensquellen können keine Inhalte erfassen von:

  • Seiten mit Login-Pflicht
  • Passwortgeschützten Bereichen
  • Internen Portalen oder Dashboards
  • Seiten hinter Bezahlschranken

Es werden nur öffentliche URLs unterstützt.

Inhalte nur als Bild

Wenn wichtige Informationen nur als Bilder vorliegen, z. B. als in Bilder eingebetteter Text, Diagramme oder Screenshots, können sie vom KI-Agenten möglicherweise nicht gelesen oder genutzt werden.

Das Hochladen von Dokumenten wird noch nicht unterstützt

Sie können derzeit keine Dateien hochladen wie z. B.:

  • PDFs
  • Word-Dokumente
  • Tabellen
Achtung: Die Unterstützung für Dokument-Uploads ist für eine zukünftige Version geplant.

Verwalten von Häufig gestellten Fragen und Website-Crawling in Ihrer Wissensdatenbank

Ihre vorhandenen Häufig gestellten Fragen und neu hinzugefügte Website-Inhalte können in Ihrer Wissensdatenbank nahtlos zusammenarbeiten. In diesem Artikel wird erklärt, wie Häufig gestellte Fragen verarbeitet werden, wie Website-Crawling funktioniert, wie Inhalte verarbeitet werden und welche Grenzen für Ihren AI Voice Agent gelten.

Was passiert mit meinen vorhandenen Häufig gestellten Fragen?

Sie müssen Ihre vorhandenen Häufig gestellten Fragen weder entfernen noch ändern. Ihre aktuellen Häufig gestellten Fragen werden automatisch als FAQ von [Agent Name] gespeichert, und Ihr AI Voice Agent verwendet sie weiterhin als Wissensquelle. Sie können mehrere Arten von Wissensquellen kombinieren, darunter:

  • FAQ- oder Freitext-Einträge
  • Einzelne URLs
  • Gecrawlte Websites

Alle Wissensquellen werden gleich behandelt. Derzeit gibt es keine Priorisierung oder Gewichtung zwischen verschiedenen Quellen.

So funktioniert Website-Crawling

Wenn Sie Ihrer Wissensdatenbank eine Website-URL hinzufügen, verarbeitet Aircall automatisch:

  • Die von Ihnen angegebene Seite
  • Seiten, auf die sie verlinkt
  • Seiten, auf die diese verlinkten Seiten verweisen

Dies gilt nur, wenn die URLs denselben Präfix teilen.

Crawl-Tiefe

Wir crawlen:

  • Die angegebene Seite
  • Bis zu zwei Ebenen tiefer
  • Nur wenn die URLs denselben Präfix teilen

Beispiel

Wenn Sie Folgendes hinzufügen: https://website.com/depth1/

Können wir außerdem crawlen:

  • https://website.com/depth1/depth2
  • https://website.com/depth1/depth2/depth3

Nicht gecrawlt werden unabhängige Bereiche wie:

  • https://website.com/blog
  • https://website.com/contact

Damit wird sichergestellt, dass nur relevante Bereiche Ihrer Website einbezogen werden.

Seiten aus Ihrer Website-URL prüfen und auswählen

Nach dem Hinzufügen einer Website-URL können Sie die für diese Quelle erzeugte Sitemap prüfen und sehen, welche Seiten damit verknüpft sind. Dort können Sie Seiten auswählen oder abwählen, um genau zu steuern, was in Ihrer Wissensdatenbank enthalten ist.

Beim Hinzufügen von Seiten können Sie außerdem die Anzeige des Zeichenlimits überwachen, um zu sehen, wie viel des Limits von 120.000 Zeichen Ihre Wissensdatenbank verwendet.

capacityIndicator_Abovelimit (1).png

So werden Inhalte extrahiert und bereinigt

Alle Website-Inhalte durchlaufen eine mehrstufige Verarbeitung, um eine hochwertige Wissensbasis sicherzustellen.

KategorieDetailsZweck / Auswirkung
Was entfernt wird
  • Navigationsmenüs
  • Kopf- und Fußzeilen
  • Cookie-Banner
  • „Zurück nach oben“-Schaltflächen
  • Werbeanzeigen
  • Bilder und Videos
  • Base64-codierte Bilder
  • Skripte und schädlicher Code
  • Formatierungsrauschen und redundantes HTML
Entfernt nicht wesentliche und potenziell unsichere Elemente, damit nur relevante, bereinigte Inhalte verarbeitet werden.
Was beibehalten wird
  • Überschriften
  • Absätze
  • Listen
  • Strukturierte Artikelinhalte
Bewahrt strukturierte und aussagekräftige Inhalte, die zu einer präzisen Wissensabfrage beitragen.
Warum das wichtig ist
  • Verbessert die Antwortgenauigkeit
  • Verhindert, dass irrelevante Inhalte Antworten beeinflussen
  • Reduziert unnötige Verarbeitung
  • Erhöht die Sicherheit
  • Hilft der KI, relevante Informationen effektiver abzurufen
Sorgt für höherwertige Antworten, bessere Leistung und eine höhere Zuverlässigkeit des AI Voice Agent.

Erwartungen an die Verarbeitungszeit

Die Verarbeitungszeit hängt von der Größe des Crawls ab.

  • 1 bis 10 Seiten werden in der Regel in weniger als einer Minute verarbeitet
  • Mittelgroße Bereiche können 5 bis 10 Minuten dauern
  • Große Crawls auf Root-Ebene können bis zu 30 Minuten dauern

Wenn Sie eine URL der obersten Ebene wie https://website.com/ hinzufügen, können viele verlinkte Seiten verarbeitet werden. Den Fortschritt können Sie über die Dokumentstatusanzeige verfolgen.

Zeichenlimits erklärt

Kontextfenster des Voice Agent

Ihr AI Voice Agent hat ein gesamtes Arbeitskontextfenster von 120.000 Zeichen. Dazu gehören:

  • Gecrawlte Website-Inhalte
  • FAQ- und Freitext-Einträge
  • Alle Wissensquellen zusammen

Wenn der Gesamtinhalt 120.000 Zeichen überschreitet, wird vor der Verwendung durch den Voice Agent automatisch eine Zusammenfassung angewendet.

Achtung: Das Limit von 120.000 Zeichen ist eine technische Einschränkung, die erforderlich ist, um Systemleistung und Zuverlässigkeit sicherzustellen.

Best Practices für die Website-Erfassung

ThemaEmpfehlungDetails / Beispiele
Mit spezifischen URLs beginnenPräzise, tief verlinkte Seiten statt Root-Domains hinzufügenVerwenden Sie statt https://website.com/ eine gezielte Seite wie https://website.com/help/article-name. Je tiefer der URL-Pfad, desto gezielter das Crawling.
Schrittweise erweiternBei Bedarf nach breiterer Abdeckung jeweils eine Verzeichnisebene nach oben gehenZum Beispiel von https://website.com/help/article-name zu https://website.com/help/ wechseln. Fügen Sie die Root-URL nur hinzu, wenn Sie tatsächlich Inhalte von der gesamten Website benötigen.
Übermäßiges Crawling vermeidenNicht mit URLs auf Root-Ebene beginnen, es sei denn, es ist notwendigURLs auf Root-Ebene können Hunderte von Seiten erfassen, die Verarbeitungszeit erhöhen, eine Zusammenfassung auslösen und irrelevante Inhalte einbeziehen.
Strukturierte Wissensseiten verwendenGut organisierte, inhaltsorientierte Seiten priorisierenAm besten funktionieren Hilfe-Center, Dokumentations-Hubs, FAQ-Bereiche und strukturierte Artikel mit klaren Überschriften.
Ungeeignete Inhaltstypen vermeidenSeiten ausschließen, die dynamisch, eingeschränkt oder unstrukturiert sindVermeiden Sie Seiten mit Login-Pflicht, Suchergebnisseiten, dynamische oder formularbasierte Inhalte, Newsfeeds und medienlastige Seiten.
Nach dem Crawling prüfenDie Ergebnisse validieren, sobald die Verarbeitung abgeschlossen istPrüfen Sie die Dokumentvorschau, um sicherzustellen, dass die richtigen Seiten erfasst wurden, keine doppelten URLs hinzugefügt wurden und die Inhalte korrekt strukturiert sind. Sie können Website-Inhalte später aktualisieren, wenn sich die Quellseite ändert.
Hinweis: Wann nicht gecrawlt werden sollte – erwägen Sie stattdessen die Verwendung einer manuellen FAQ oder Texteingabe, wenn sich Inhalte häufig ändern:

• zum Beispiel Nachrichten oder Echtzeitdaten;
• Seiten eine Authentifizierung erfordern;
• die Website hauptsächlich video- oder bildbasiert ist;
• oder die Inhalte unstrukturiert sind.