{{sidenavigation.sidenavigationExpandLabel}}
{{getMsg('Help_YouAreHere')}}: {{page.title}} {{page.title}}
{{$root.getMsg("downLoadHelpAsPdf")}} {{helpModel.downloadHelpPdfDataStatus}}

KIAktiv

Die folgenden Informationen werden aus der Plugin-Beschreibung abgeleitet.

Das KI-Plugin ermöglicht es Ihnen, das volle Potenzial der künstlichen Intelligenz für Ihren Service zu nutzen. Nutzen Sie fortschrittliche Algorithmen für maschinelles Lernen, um die Absicht des Nutzers zu verstehen und kontextrelevante Antworten zu geben - und das alles in einem menschlichen Tonfall, der sich wie ein Gespräch liest.

Mit diesem Plugin kann ChatGPT einfach und nahtlos in die CoWork Messaging-Plattform integriert werden. Sie können jetzt auch eine Ollama-Verbindung parallel zur ChatGPT-Verbindung einrichten. Dazu senden Sie einfach Anfragen an ChatGPT oder Ollama von Ihrer CoWork-Konversation aus mit den Bot-Befehlen /ai oder /aispecific. Aber das ist noch nicht alles. Mit der Aufgabenplanung können Sie Anfragen an ChatGPT und Ollama automatisieren und geplant ablaufen lassen, so dass Ihre Plattform Ihren Benutzern rund um die Uhr Support und Unterstützung bieten kann. Sie können die Antworten anpassen und das Sprachmodell auf den Ton Ihrer Plattform abstimmen.

Ganz gleich, ob Sie Ihr Kundenerlebnis verbessern, Ihre Arbeitsabläufe rationalisieren oder Ihren Kundensupport verbessern möchten, ChatGPT und Ollama sind die Lösungen, auf die Sie gewartet haben. Begrüßen Sie die Zukunft der künstlichen Intelligenz mit ChatGPT und Ollama!

Dieser Teasertext wurde teilweise von ChatGPT zur Verfügung gestellt.

Informationen zu Änderungen

  • Die Eigenschaft “Maximale Kontextlänge (Tokens)” zu KI-Providern hinzugefügt - KI-Anfragen werden so bei drohender Überschreitung des Tokenlimits intelligent verkürzt.
  • Aktivierungsoptionen und eine "Standard"-Provider-Auswahl für KI-Übersetzungen hinzugefügt, inklusive automatischer Migration der bisherigen "Standardanbieter verwenden"-Einstellung.
  • Die gesamte MCP-Client-Integration aus dem KI-Plugin entfernt, inklusive MCP-Konfiguration, Validierung und MCP-spezifischer Dokumentation.
  • Eine GPT-Provider-Einstellung "Reasoning-Stufe" hinzugefügt, um reasoning_effort explizit zu steuern; automatische modellbasierte Standardwerte werden nicht mehr gesendet.

Behobene Fehler

  • Die CoWork-KI-Bot-Deaktivierung deaktiviert vollständig alle KI-Antworten, auch bei Antworten auf vorhandene KI-Nachrichten.
  • Der Link zum Konfigurationsdialog für KI-Provider war in ein paar Komponenten der Aufgabenplanung inkorrekt.
  • Icon-Fehler von KI-Trigger und -Job in der Aufgabenplanung behoben.
  • Eine Modellauswahlliste für die drei größten KI-Anbieter (OpenAI, Gemini und Claude) zur Konfiguration hinzugefügt, um es einfacher zu machen, das gewünschte KI-Modell auszuwählen.
  • Neue KI-Provider-Option: Azure OpenAI
  • Neue Option hinzugefügt, um einen OAuth-Token für Authentifizierung gegen lokale LLMs zu setzen, die mit Ollama gehostet werden.
  • Unterstützung für Streaming hinzugefügt, damit die Antwort vom KI-Provider Stück für Stück direkt angezeigt werden kann.
  • Unterstützung für Funktionsaufrufe hinzugefügt, damit der KI nötige Tools gegeben werden können, die sie aufrufen kann, um gewünschte Aufgaben zu erfüllen.
  • MCP-Client Support sowohl via npm oder python hinzugefügt. Diese können von System-Administratoren in der Konfiguration gesetzt werden und der KI bei Aufrufen zur Verfügung gestellt werden. Wir raten zu Vorsicht beim Einsatz dieser Clients.
  • Da die automatische Anonymisierung nicht in allen Fällen gewährleistet werden konnte, wurde sie entfernt. Wenn Sie Datenschutz für Ihre KI-Anrufe benötigen, empfehlen wir die Verwendung einer lokalen KI.
  • Neuer KI-Provider-Typ “Benutzerdefiniert”, der es ermöglicht, irgend einen OpenAI-kompatiblen Endpunkt als Verbindung zu nutzen.
  • DeepSeek wird nun als KI-Provider unterstützt.
  • Gemini, Claude und Mistral werden nun als KI-Provider unterstützt.
  • Neue Clear Reports Formelfunktion "gpt" - eine String-Query wird als Parameter akzeptiert und der Rückgabewert ist die GPT-Antwort.
  • Vernebelung beim Ablegen des OpenAI-API-Schlüssels hinzugefügt.
  • HelpDesk Spamfilterfunktion (standardmäßig ausgeschaltet), die eingehende E-Mails überprüft und ggf. als Spam einsortiert.
  • Telefonnummern und E-Mail-Adressen werden anonymisiert, damit möglichst keine persönlichen identifizierbaren Daten an OpenAI gesendet werden.
i-net CoWork
Diese Anwendung verwendet Cookies um das Einloggen zu ermöglichen. Durch die weitere Nutzung dieser Anwendung stimmen Sie der Verwendung von Cookies zu.


Hilfe