Aircall KI-Sprachassistenten können direkt aus Ihren öffentlich zugänglichen Inhalten lernen, um während Kundenanrufen genaue, konsistente und markenkonforme Antworten zu liefern. Dies wird durch Wissensquellen ermöglicht, die es Ihrem KI-Agenten erlauben, in Echtzeit auf vertrauenswürdige Informationen zuzugreifen. Dieser Artikel erklärt, was eine Wissensdatenbank ist, wie sie Ihrem KI-Agenten zugutekommt und welche aktuellen Einschränkungen zu beachten sind.

Was ist eine Wissensdatenbank?

Eine Wissensdatenbank ist eine zentrale Informationsbibliothek über Ihr Unternehmen, wie z. B. Produkte, Dienstleistungen und häufig gestellte Fragen. Sie stellt sicher, dass Informationen leicht zu finden, einfach zu referenzieren und für Ihre KI-Agenten leicht verständlich sind.

Aircall verwendet die von Ihnen bereitgestellten Inhalte, zum Beispiel öffentliche Webseiten, um eine Wissensdatenbank zu erstellen, auf die Ihre KI-Agenten während Kundengesprächen zurückgreifen können.

Wie Wissensquellen Ihren KI-Agenten helfen

Sobald Ihre Inhalte als Wissensquelle hinzugefügt wurden, kann Ihr KI-Agent:

  • Häufige Fragen mit genauen, markenzugelassenen Informationen beantworten
  • Konsistente Kommunikation über Anrufe hinweg sicherstellen
  • Wiederholte manuelle Antworten reduzieren
  • Ihre Inhalte während Kundeninteraktionen sofort referenzieren

So erhalten Anrufer präzise und hilfreiche Antworten, die direkt auf Ihren eigenen veröffentlichten Informationen basieren.

Unterstützte Inhaltstypen

Sie können neue Wissensquellen auf folgende Weise hinzufügen:

  • Inhaltsblock: Fügen Sie beliebigen Klartext ein, aus dem der Agent lernen soll
  • Webseite: Fügen Sie eine einzelne öffentliche URL hinzu
  • Website: Fügen Sie eine Hauptdomain mit optionalen Unterseiten hinzu
  • Vorhandene Quellen: Wiederverwenden oder aktualisieren Sie bereits hinzugefügte Inhalte

Screenshot 2025-12-16 at 09.41.45.png

Hinweis: Alle als Wissensquelle hinzugefügten Inhalte müssen öffentlich zugänglich sein.

Aktuelle Einschränkungen

Um die besten Ergebnisse zu erzielen, beachten Sie bitte die folgenden Einschränkungen.

Geschützte oder authentifizierungspflichtige Seiten

Wissensquellen können keine Inhalte von folgenden Seiten aufnehmen:

  • Seiten mit Login-Pflicht
  • Passwortgeschützte Bereiche
  • Interne Portale oder Dashboards
  • Seiten hinter einer Bezahlschranke

Es werden nur öffentliche URLs unterstützt.

Nur aus Bildern bestehende Inhalte

Wenn wichtige Informationen ausschließlich als Bilder vorliegen, wie z. B. in Bilder eingebetteter Text, Diagramme oder Screenshots, sind diese für den KI-Agenten möglicherweise nicht lesbar oder nutzbar.

Hochladen von Dokumenten wird noch nicht unterstützt

Derzeit können Sie keine Dateien wie folgende hochladen:

  • PDFs
  • Word-Dokumente
  • Tabellenkalkulationen
Achtung: Die Unterstützung für das Hochladen von Dokumenten ist für eine zukünftige Version geplant.

Verwaltung von FAQs und Website-Crawling in Ihrer Wissensdatenbank

Ihre bestehende FAQ und neu hinzugefügte Website-Inhalte können nahtlos in Ihrer Wissensdatenbank zusammenarbeiten. Dieser Artikel erklärt, wie FAQs behandelt werden, wie das Website-Crawling funktioniert, wie Inhalte verarbeitet werden und welche Grenzen für Ihren KI-Sprachassistenten gelten.

Was passiert mit meiner bestehenden FAQ?

Sie müssen Ihre bestehende FAQ nicht entfernen oder ändern. Ihre aktuelle FAQ wird automatisch als [Agentenname]’s FAQ gespeichert und Ihr KI-Sprachassistent nutzt sie weiterhin als Wissensquelle. Sie können mehrere Arten von Wissensquellen kombinieren, darunter:

  • FAQ- oder Freitext-Einträge
  • Einzelne URLs
  • Gecrawlte Websites

Alle Wissensquellen werden gleich behandelt. Es gibt derzeit keine Priorisierung oder Gewichtung zwischen verschiedenen Quellen.

Wie funktioniert das Website-Crawling?

Wenn Sie eine Website-URL zu Ihrer Wissensdatenbank hinzufügen, verarbeitet Aircall automatisch:

  • Die von Ihnen bereitgestellte Seite
  • Seiten, auf die diese Seite verweist
  • Seiten, auf die diese verlinkten Seiten wiederum verweisen

Dies gilt nur, wenn die URLs das gleiche Präfix teilen.

Crawling-Tiefe

Wir crawlen:

  • Die bereitgestellte Seite
  • Bis zu zwei Ebenen tiefer
  • Nur, wenn die URLs das gleiche Präfix haben

Beispiel

Wenn Sie hinzufügen: https://website.com/depth1/

Könnten wir auch crawlen:

  • https://website.com/depth1/depth2
  • https://website.com/depth1/depth2/depth3

Wir crawlen keine nicht zusammenhängenden Bereiche wie:

  • https://website.com/blog
  • https://website.com/contact

Dies stellt sicher, dass nur relevante Bereiche Ihrer Website einbezogen werden.

Wie Inhalte extrahiert und bereinigt werden

Alle Website-Inhalte durchlaufen eine mehrstufige Verarbeitung, um hochwertige Wissensdaten zu gewährleisten.

KategorieDetailsZweck / Auswirkung
Was entfernt wird
  • Navigationsmenüs
  • Header und Footer
  • Cookie-Banner
  • „Zurück nach oben“-Buttons
  • Werbeanzeigen
  • Bilder und Videos
  • Base64-codierte Bilder
  • Skripte und schädlicher Code
  • Formatierungsrauschen und redundantes HTML
Entfernt nicht essenzielle und potenziell unsichere Elemente, damit nur relevante, saubere Inhalte verarbeitet werden.
Was erhalten bleibt
  • Überschriften
  • Absätze
  • Listen
  • Strukturierte Artikelinhalte
Erhält strukturierte und sinnvolle Inhalte, die zu einer genauen Wissensabfrage beitragen.
Warum das wichtig ist
  • Verbessert die Antwortgenauigkeit
  • Verhindert, dass irrelevante Inhalte die Antworten beeinflussen
  • Reduziert unnötige Verarbeitung
  • Erhöht die Sicherheit
  • Hilft der KI, relevante Informationen effektiver abzurufen
Sichert hochwertigere Antworten, bessere Leistung und erhöhte Zuverlässigkeit des KI-Sprachassistenten.

Erwartungen zur Verarbeitungszeit

Die Verarbeitungszeit hängt von der Größe des Crawlings ab.

  • 1 bis 10 Seiten werden normalerweise in weniger als einer Minute verarbeitet
  • Mittlere Bereiche können 5 bis 10 Minuten dauern
  • Große Root-Level-Crawls können bis zu 30 Minuten dauern

Wenn Sie eine Top-Level-URL wie https://website.com/ hinzufügen, können viele verlinkte Seiten verarbeitet werden. Sie können den Fortschritt über den Dokumentstatus-Indikator verfolgen.

Zeichenbegrenzungen erklärt

Kontextfenster des Sprachassistenten

Ihr KI-Sprachassistent hat ein gesamtes Arbeitskontextfenster von 120.000 Zeichen. Dies beinhaltet:

  • Gecrawlte Website-Inhalte
  • FAQ- und Freitext-Einträge
  • Alle kombinierten Wissensquellen

Wenn der gesamte Inhalt 120.000 Zeichen überschreitet, wird vor der Nutzung durch den Sprachassistenten eine automatische Zusammenfassung angewendet.

Achtung: Das 120.000-Zeichen-Limit ist eine technische Einschränkung, um Systemleistung und Zuverlässigkeit sicherzustellen.

Best Practices für die Website-Erfassung

ThemaEmpfehlungDetails / Beispiele
Mit spezifischen URLs beginnenFügen Sie präzise, tief verlinkte Seiten anstelle von Root-Domains hinzuStatt https://website.com/ nutzen Sie eine gezielte Seite wie https://website.com/help/article-name. Je tiefer der URL-Pfad, desto gezielter das Crawling.
Schrittweise erweiternGehen Sie bei Bedarf schrittweise eine Verzeichnisebene nach obenBeispielsweise von https://website.com/help/article-name zu https://website.com/help/. Vermeiden Sie die Root-URL, es sei denn, Sie benötigen tatsächlich Inhalte von der gesamten Website.
Übermäßiges Crawling vermeidenStarten Sie nicht mit Root-URLs, außer es ist notwendigRoot-URLs können Hunderte von Seiten erfassen, die Verarbeitungszeit erhöhen, Zusammenfassungen auslösen und irrelevante Inhalte einbringen.
Strukturierte Wissensseiten verwendenBevorzugen Sie gut organisierte, inhaltsorientierte SeitenAm besten eignen sich Help Center, Dokumentationsbereiche, FAQ-Abschnitte und strukturierte Artikel mit klaren Überschriften.
Ungeeignete Inhaltstypen vermeidenSchließen Sie Seiten aus, die dynamisch, eingeschränkt oder unstrukturiert sindVermeiden Sie Login-Seiten, Suchergebnisseiten, dynamische oder formularbasierte Inhalte, News-Feeds und medienlastige Seiten.
Nach dem Crawling überprüfenValidieren Sie die Ergebnisse nach Abschluss der VerarbeitungÜberprüfen Sie die Dokumentenvorschau, um sicherzustellen, dass die richtigen Seiten erfasst wurden, keine doppelten URLs vorhanden sind und der Inhalt richtig strukturiert ist. Sie können Website-Inhalte später aktualisieren, wenn sich die Quellseite ändert.
Hinweis: Wann kein Crawling erfolgen sollte – Ziehen Sie stattdessen die manuelle FAQ- oder Texteingabe in Betracht, wenn sich Inhalte häufig ändern:

• wie Nachrichten oder Echtzeitdaten;
• Seiten eine Authentifizierung erfordern;
• die Website hauptsächlich aus Videos oder Bildern besteht;
• oder der Inhalt unstrukturiert ist.