Selbsthosting von Embeddings für DiscourseAI

Um Speicherplatz zu sparen, ist es möglich, quantisierte Embeddings zu verwenden? Ich möchte binär quantisierte Embeddings verwenden, um die Speichergröße wirklich zu reduzieren. Nach einigen Tests erziele ich eine Leistung von >90 % bei 32-facher geringerer Speicherung!

1 „Gefällt mir“