Sono uno degli amministratori di un forum con oltre 10.000 membri. Abbiamo notato che alcune persone hanno iniziato a utilizzare pesantemente l’IA per rispondere ai post. È positivo che stiano diventando più attivi e cerchino di essere d’aiuto, ma alcune risposte possono creare confusione, poiché le risposte dei chatbot IA tendono ad essere molto sicure ma imprecise. Non vorremmo vietare l’uso dell’IA, ma incoraggiare le persone a dichiarare se è stata utilizzata, poiché ciò potrebbe aiutare altri utenti (e le LLM addestrate sul contenuto del forum) a decidere quanta fiducia riporre nel contenuto del post.
Vorremmo aggiungere un selettore “Origine del contenuto” a ogni nuovo post di risposta con le seguenti opzioni:
Scritto da un umano
Assistito dall’IA (revisionato e modificato)
Generato dall’IA (leggermente revisionato)
Suppongo che molti altri forum avrebbero bisogno di una funzionalità simile, quindi forse potrebbe essere aggiunta come funzionalità standard o plugin. Ma se ciò non dovesse accadere, sarebbe fantastico se qualcuno potesse fornire consigli su come configurare questo sul nostro forum Discourse ospitato.
Questo sembra un caso d’uso per la richiesta di funzionalità tag replies, not just topics, dove è stato notato che:
…quindi potresti intervenire per votare quella richiesta.
Non sono uno sviluppatore, ma penso che un approccio non basato sui tag probabilmente farebbe uso della tabella post_custom_fields utilizzata da plugin come il Custom Wizard Plugin. Incorporare un campo personalizzato del post nell’interfaccia utente — per la selezione, la visualizzazione, la ricerca/filtraggio — sembra un progetto di plugin piuttosto sostanziale.
Un plugin non funzionerà su un forum ospitato da Discourse
Penso che potresti anche fare qualcosa con un componente tema. Forse uno che aggiunge semplicemente le informazioni come [wrap] all’ultimo post e include uno stile su come vengono evidenziate le informazioni.
Mi fiderei degli utenti, ma se l’uso dell’IA è ovvio e non dichiarato, i moderatori potrebbero anche contrassegnare il post di conseguenza.
Sarebbe una bella funzione di convenienza per suggerire di contrassegnare il post come assistito dall’IA o generato dall’IA, ma non sono sicuro che sia fattibile, e non è essenziale. Potremmo forzare l’utente a pensarci se per impostazione predefinita il selettore non fosse inizializzato, in modo che gli utenti debbano impostare esplicitamente l’origine del contenuto.
Potrebbe essere facile dimenticare di aggiungere un tag (gli utenti dovrebbero essere ricordati più spesso di usarlo), ma potrebbe funzionare.
Questo sembra un buon approccio. Quanto lavoro ci vorrebbe per impostarlo? Pensi che ci sia la possibilità che venga aggiunto come funzione integrata o plugin ufficiale?
C’è sempre una possibilità, ma penso che sia piuttosto bassa che ciò accada nel prossimo futuro, a meno che quella richiesta di funzionalità non esploda di voti.
Con la funzionalità di tag attuale, è possibile richiedere che gli argomenti in una categoria abbiano un tag da un gruppo di tag specificato. Sebbene i tag di risposta non esistano (e sembra improbabile che lo facciano a breve), si potrebbe sperare in una capacità simile anche per quelli.
Se lo scopo è informare un lettore umano che un testo coinvolge l’IA, allora secondo me un tag non è la soluzione. Le persone non leggono i tag come parte del contenuto effettivo. L’indicazione deve quindi far parte del contesto stesso.
Personalmente, utilizzo il metodo fornito da Discourse:
<details class='ai-quote' open>
<summary>
<span>Titolo</span>
<span title='Discussione con IA'>IA</span>
</summary>
Contenuto più o meno...
</details>
Insegnare agli utenti ad applicarli correttamente è, se non impossibile, almeno estremamente difficile per gli utenti provenienti da un background di Facebook. Quindi ho optato per richiedere che il contenuto generato dall’IA debba essere in qualche modo contrassegnato. Finché c’è un indicatore visibile all’interno del contenuto stesso e il materiale IA è chiaramente separato, sono soddisfatto.
Ho provato a usare un tag, ma ho notato molto rapidamente che non suscitava alcuna reazione. Inoltre, voglio usare i tag per la classificazione dei contenuti, ed è difficile per me immaginare che qualcuno cerchi mai tutti i contenuti del mio forum che coinvolgevano l’IA. Soprattutto perché l’uso dell’IA è destinato ad aumentare nel tempo. Potrebbe persino arrivare al punto in cui sarebbe necessario un tag per indicare che il contenuto è fatto dall’uomo (e non solo con un’emoji, dato che siti web e persino forum del genere esistono già).
Forum con poco traffico, quindi in pratica leggo quasi tutto. E i moderatori possono/vogliono segnalare possibili casi. Non è sempre così ovvio se l’IA è stata usata pesantemente o se è stato copiato e incollato. Non so come potrebbe essere automatico, quindi usiamo il controllo del vicino
Un po’ fuori tema, ma su un forum (non Discourse) abbiamo una discussione per parlare di tutto ciò che riguarda l’IA generativa, dai pro ai contro.
Un utente abituale entusiasta ha iniziato a pubblicare messaggi molto polemici per discutere e contestare i punti di vista degli altri membri in un dibattito leggermente acceso.
Il modo in cui erano scritti i suoi messaggi successivi lo ha tradito: in particolare, un messaggio contenente 4 punti elenco che utilizzavano tutti la struttura “Non è… È”.
È stato richiamato e ha ammesso di aver usato l’IA per scrivere i suoi “ultimi due messaggi” e ha spiegato che non era un problema perché aveva istruito l’IA a riflettere le sue opinioni. E che se le persone non riuscivano a confutare i suoi punti, significava che avevano torto indipendentemente dal fatto che i suoi messaggi fossero stati generati dall’IA o meno.
Inutile dire che gli altri utenti si sono arrabbiati parecchio quando hanno capito che stavano usando il loro tempo e la loro energia per discutere con un’IA.