Haben Sie sich jemals gewünscht, dass Ihre KI sich daran erinnern könnte, dass Sie kurze, direkte Antworten bevorzugen? Oder dass Sie zu bestimmten Themen detailliertere Antworten wünschen? Der KI-Speicher macht dies möglich und ermöglicht es dem System, Ihre Präferenzen abzurufen und sich an verschiedene Gespräche anzupassen.
Bei LLMChat haben wir daran gearbeitet, KI-Chat-Erlebnisse zu schaffen, die sich intuitiver anfühlen – indem wir KI intelligenter, aber auch persönlicher machen. Eine der wichtigsten Möglichkeiten, wie wir dies erreicht haben, besteht darin, der KI die Fähigkeit zu geben, sich zu erinnern.
KI-Speicher speichert benutzerspezifische Informationen, um zukünftige Interaktionen zu personalisieren. Es nutzt einen Funktionsaufruf-Ansatz und löst bestimmte Aktionen aus, wenn neue Informationen hinzugefügt, aktualisiert oder entfernt werden müssen. Wenn Sie der KI beispielsweise sagen, dass Sie prägnante Antworten bevorzugen, merkt sie sich das und passt ihre Antworten in zukünftigen Chats an.
Hier ist das Schema, das wir für die Speicherverwaltung verwenden:
const memoryToolSchema = z.object({ memory: z.array( z.string().describe("Key information about the user") ).describe("New info to be added or updated"), question: z.string().describe("The user's request"), });
Schauen wir uns den Kern unseres KI-Speichersystems an. Wenn neue Informationen bereitgestellt werden, beispielsweise Benutzerpräferenzen, sorgt unser DynamicStructuredTool dafür, dass die KI die erforderlichen Details dynamisch aktualisiert oder hinzufügt. Hier ist ein kleiner Einblick, wie es funktioniert:
const memoryFunction = (context: ToolExecutionContext) => { return new DynamicStructuredTool({ name: "memory", description: "Manages user preferences and adapts interactions...", schema: memoryToolSchema, func: async ({ memory, question }) => { const existingMemories = context.preferences?.memories || []; const chain = RunnableSequence.from([ PromptTemplate.fromTemplate(` User request: "{question}" New info: {new_memory} Existing memories: {existing_memory} Update memories: 1. Update existing details 2. Remove if necessary 3. Add new unique memories`), context.model, memoryParser, ]); const response = await chain.invoke({ new_memory: memory.join("\n"), existing_memory: existingMemories.join("\n"), question: question, }); context.updatePreferences?.({ memories: response.memories }); return question; }, }); };
Diese Funktion stellt sicher, dass sich die KI kontinuierlich an die Vorlieben der Benutzer anpasst, sodass sich jede Interaktion maßgeschneidert und relevanter anfühlt.
KI-Speicher verbessert die Benutzererfahrung, indem es Interaktionen personalisierter macht. Ganz gleich, ob es darum geht, sich zu merken, wie Ihnen Ihre Antworten gefallen, laufende Projekte zu verfolgen oder Ihre Vorlieben zu kennen – der Speicher ermöglicht es der KI, intelligenter zu arbeiten. Außerdem gibt es den Benutzern die Kontrolle – sie können die gespeicherten Daten verwalten, ihre Einstellungen aktualisieren oder bei Bedarf alles löschen.
// Example: Updating user preferences in real-time context.updatePreferences?.({ memories: response.memories, });
Speicher macht KI zu mehr als nur einem Werkzeug – sie wird zu einem Begleiter, der sich an Sie anpasst. Durch die Verwendung eines Function-Calling-Ansatzes haben wir neue Möglichkeiten für dynamische und personalisierte Gespräche erschlossen. Bei LLMChat sind wir begeistert davon, wie das Gedächtnis KI-Interaktionen verändern und sie intelligenter und menschlicher gestalten kann.
Haftungsausschluss: Alle bereitgestellten Ressourcen stammen teilweise aus dem Internet. Wenn eine Verletzung Ihres Urheberrechts oder anderer Rechte und Interessen vorliegt, erläutern Sie bitte die detaillierten Gründe und legen Sie einen Nachweis des Urheberrechts oder Ihrer Rechte und Interessen vor und senden Sie ihn dann an die E-Mail-Adresse: [email protected] Wir werden die Angelegenheit so schnell wie möglich für Sie erledigen.
Copyright© 2022 湘ICP备2022001581号-3