Feedback sulla sintesi AI

Feedback sulla sintesi. Sembra molto promettente :pray:

:point_up: il popup non è abbastanza largo

  • Sarebbe fantastico offrire opzioni su quanto dovrebbe essere lunga la sintesi. Sembra che questo si rivolga a un conteggio di 150-200 parole, che non è molto per alcuni argomenti.
  • Mi piacerebbe personalizzare il prompt. Ad esempio, probabilmente opterei per i punti elenco.
  • Mi piacerebbe sperimentare con un prompt che citi chi dice cosa e faccia riferimento ai post.
  • Dissocerei la sintesi con l’IA dall’impostazione minima dei post da quella generale. La sintesi con l’IA è probabilmente utile con meno post.

Nota che gpt-3.5 ora ha una versione con un limite di 16k token che potrebbe essere molto rilevante qui.

E ora le 2 funzionalità killer che mi piacerebbe vedere:

  • riepiloghi giornalieri con la funzionalità di sintesi con IA
  • riepiloghi quando passo il mouse sull’argomento (ad esempio, pre-calcolati)
4 Mi Piace

Al momento utilizziamo un prompt semplicistico (quando vengono selezionati OpenAI o Anthropic), ma lo cambieremo molto presto poiché ci stiamo lavorando.

Personalizzarlo è una funzionalità interessante, potremmo aggiungerla in futuro.

Questa settimana abbiamo appena fatto in modo che venga mostrato per i post con almeno una risposta.

Abbiamo aggiunto per i modelli a contesto ampio di OpenAI il giorno in cui sono stati rilasciati. Attualmente puoi scegliere:

  • GPT 3.5 Turbo con 16k
  • GPT 4 con 32k
  • Claude con 100k

Sono in corso lavori per memorizzare nella cache i riassunti generati in modo che possano essere utilizzati altrove, il che sblocca funzionalità come questa.

7 Mi Piace

Non lo vedo sul mio sito, c’è un’impostazione che lo controlla?

Altri suggerimenti:

  • mostrare il pulsante riassumi con AI nella pipeline.
  • avere un modo per sostituire il riassunto normale con il riassunto con AI
  • Consentire di puntare i modelli GPT su Azure. Abbiamo osservato latenze significativamente migliorate nella mia azienda
2 Mi Piace

È una modifica che abbiamo apportato questa settimana, quindi verrà distribuita sul tuo sito nei prossimi giorni.

Cosa intendi qui con “pipeline”?

Come puoi vedere qui su Meta, lo abbiamo già fatto. Il vecchio riassunto è ora chiamato “Mostra risposte principali”. Stiamo ancora lavorando sul design e sull’ordine dei pulsanti.

Questo è nella nostra roadmap!

6 Mi Piace

Mi scuso per la poca chiarezza, non ho idea del perché abbia scelto quella parola :facepalm:

Intendevo qui

1 Mi Piace

Questo viene fatto per:

È piuttosto fastidioso da configurare perché è necessario creare una serie di distribuzioni, ma funziona bene.

1 Mi Piace

MODIFICATO

Utilizzando Gemini 1.5 Flash, i riassunti contengono spesso link a più post, ma i link multipli non vengono visualizzati come link. Non ricordo di aver visto altri modelli tentare di utilizzare link multipli.

I link a singoli post vengono visualizzati correttamente.

Il payload della risposta corrispondente include questo testo:

[Username redacted](/t/-/56915/8, /t/-/56915/13, /t/-/56915/28, /t/-/56915/33, /t/-/56915/36)

Mi piace molto l’idea di citare più link, se potessero essere visualizzati correttamente.

Beh, questo è semplicemente markdown non valido, ecco perché non funziona.

È un peccato che Gemini Flash non possa produrre markdown valido, qui su Meta usiamo Llama 3.1 quantizzato a FP8 per i riassunti, e può gestire la produzione di collegamenti markdown corretti senza problemi.

2 Mi Piace

E che haiku apparentemente non possa restituire un codice di stato valido. Questi sono i due che ho provato finora per la sintesi. Proverò Llama 3.1 la prossima volta.

Non so se prendereste in considerazione la correzione di problemi noti, come il controllo dei lunedì e di questo particolare markdown. Mi rendo conto che non è l’ideale, ma potrebbe essere meglio che perdere altrimenti buone opzioni LLM.

Puoi vedere riassunti non validi su https://discuss.ai.google.dev/ ?

Lì stiamo usando Flash, se puoi collegarmi ad alcuni sarò felice di fare un po’ di prompt engineering.

Questo è l’unico che vedo al volo, ma quegli argomenti sono brevi, quindi un singolo utente di solito non verrebbe citato più volte.

1 Mi Piace

Questo sembra molto risolvibile perché possiamo migliorare il nostro esempio qui, al momento il prompt è:

Sei un bot di riepilogo avanzato che genera riepiloghi concisi e coerenti del testo fornito.\n\n- Includi solo il riepilogo, senza commenti aggiuntivi.\n- Comprendi e genera il Markdown del forum Discourse; inclusi collegamenti, _corsivo_, **grassetto**.\n- Mantieni la lingua originale del testo riassunto.\n- Punta a riepiloghi di 400 parole o meno.\n- Ogni post è formattato come "\u003cNUMERO_POST\u003e) \u003cNOMEUTENTE\u003e \u003CMESSAGGIO\u003e"\n- Cita post specifici degni di nota utilizzando il formato [NOME](/t/-/31793/NUMERO_POST)\n - Esempio: link al 3° post di sam: [sam](/t/-/31793/3)\n - Esempio: link al 6° post di jane: [d'accordo con](/t/-/31793/6)\n - Esempio: link al 13° post di joe: [#13](/t/-/31793/13)\n- Quando formatti i nomi utente, usa @NOMEUTENTE o [NOMEUTENTE](/t/-/31793/NUMERO_POST)

Questo sembra un po’ ambiguo. Possiamo ancorarlo con qualcosa del genere:

Fondamentalmente, però, @Roman / @Falco, dovremo estromettere questi prompt dal codice sorgente e magari metterli in una persona in modo che le community possano modificarli e condividere ciò che funziona meglio.

Non mi sorprenderà se a lungo termine avremo bisogno di prompt specifici per i modelli più deboli.

La persona funzionerebbe benissimo qui se avessimo il supporto per gli “esempi”, che non sembra una cosa enorme. Oppure possiamo spostarlo su CompletionPrompt e dargli un’interfaccia utente.

5 Mi Piace

Mi piace l’idea di personalizzare il prompt per soddisfare le tue esigenze e sfruttare le capacità del modello. Penso anche che trasformare le persone in un concetto più agnostico rispetto alle funzionalità sia una buona idea.

1 Mi Piace

Questa è fondamentalmente l’idea delle “funzioni persona”, “prepared statements” di cui abbiamo discusso quest’anno. Sposteremmo tutto, come AI Helper, Summary, Search, ecc. per utilizzarli, consentire la creazione di quelli personalizzati e avere un’interfaccia utente per associarli alle funzionalità nell’interfaccia utente.

Diventa complicato quando aggiorniamo quelli predefiniti per spedire un formato diverso, ad esempio da XML a JSON, quindi speriamo che sia qualcosa che possiamo considerare di costruire l’anno prossimo.

1 Mi Piace

Non seguo completamente gli ultimi post. Ricevo ancora riassunti non validi. C’è qualcosa di specifico che posso provare con le persone, o devo aspettare il refactoring di cui state discutendo?

4 post sono stati divisi in un nuovo argomento: Gestione dei problemi del formato di risposta JSON di DeepSeek