Quindi… come mi sento riguardo a tutte queste cose?
Ovviamente, sono entusiasta. Abbiamo una scatola di giocattoli nuova di zecca con cui giocare, e questi giocattoli sono diversi da qualsiasi altro giocattolo che avevamo in passato. Come per la maggior parte della tecnologia, questa può essere usata per il bene o per il male.
Personalmente, mi sento come se fossi nel mezzo di una nebbia di IA. Una volta avevo una buona comprensione di dove le cose stessero andando nei prossimi tre o quattro anni; tuttavia, gli LLM e le future evoluzioni di questa tecnologia hanno messo i bastoni tra le ruote. Non so dove saranno le cose tra un anno.
Quando si guarda da vicino a quanto velocemente si è mosso stable diffusion negli ultimi mesi, è sbalorditivo. Quando si guarda all’ampiezza del progresso da GPT 3.5 a 4, è anche piuttosto sbalorditivo.
Anche con la nuova nebbia di IA, ho alcune preoccupazioni molto reali:
-
Mi è chiarissimo che i forum di supporto verranno ingeriti dagli LLM e utilizzati come dati di addestramento per chatbot utili. Il lato positivo è che gran parte del lavoro noioso del supporto può scomparire e si ottengono risposte immediate. Tuttavia, il lato negativo è che verrà creato meno contenuto nuovo, il che può molto rapidamente causare una spirale mortale a meno che non venga mitigato.
-
Sono certo che spam e altri attori malintenzionati sfrutteranno questa tecnologia, lanciando attacchi molto più sofisticati di qualsiasi cosa abbiamo visto finora, potenzialmente uccidendo i forum se non stiamo attenti.
-
Questa tecnologia assistiva può erodere la fiducia. Quando leggi le parole che scrivo, ti aspetti che le parole provengano da me. Le persone possono usare l’IA per fare più che correggere le bozze; può completamente riformulare le nostre parole. Vuoi suonare come Malcolm Gladwell? Nessun problema, puoi farlo. Qual è il livello di etichettatura che gli utenti responsabili dei forum dovrebbero aspettarsi? Le persone abbandoneranno i forum se non si fideranno più di parlare con persone o di parlare semplicemente con dei facsimili.
leggilo con le parole di Malcolm
Nel mondo di oggi, la tecnologia assistiva ha il potere di erodere la fiducia in modi che potremmo non aver anticipato. Come consumatori della parola scritta, abbiamo certe aspettative - vale a dire, che le parole che leggiamo siano autentiche e provengano dalla loro fonte dichiarata. Tuttavia, con l’avvento della tecnologia IA, gli individui possono manipolare il testo scritto in modi che vanno oltre la semplice correzione di bozze. In sostanza, possono completamente riformulare un messaggio per farlo suonare come chiunque scelgano. Quindi, se hai mai sognato di suonare come Malcolm Gladwell o qualsiasi altra figura di spicco, questa tecnologia può realizzarlo con facilità. Tuttavia, ciò solleva interrogativi sull’etichettatura responsabile per gli utenti dei forum. Se le persone non possono più fidarsi di conversare con altre persone, e non solo con facsimili generati dal computer, potrebbero benissimo abbandonare i forum del tutto. Il livello di etichettatura richiesto per mantenere la fiducia nel discorso online è una preoccupazione pressante che merita seria considerazione.
- Abbiamo visto forum di fabbriche SEO in passato; vedremo versioni molto più elaborate e spaventose di questo.
altre preoccupazioni simili a GPT 4
- Esiste il rischio che l’uso degli LLM nei forum possa creare una cultura di pigrizia tra gli utenti che si affidano troppo alla tecnologia AI per fornire risposte e approfondimenti. Ciò potrebbe portare a un declino del pensiero critico e delle capacità di problem-solving tra gli utenti del forum.
- L’uso degli LLM nei forum solleva preoccupazioni etiche sulla privacy e la sicurezza dei dati. Gli utenti potrebbero sentirsi a disagio all’idea che le loro informazioni personali e le loro interazioni vengano analizzate ed elaborate da un sistema AI, soprattutto se non sono pienamente consapevoli di come vengono utilizzati i loro dati.
- L’integrazione degli LLM nei forum può esacerbare pregiudizi e disuguaglianze esistenti, in particolare se la tecnologia AI viene addestrata su un set di dati limitato che non riesce a catturare la diversità di esperienze e prospettive degli utenti del forum.
- L’uso degli LLM nei forum può anche comportare l’omogeneizzazione del discorso, poiché gli utenti hanno maggiori probabilità di ricevere risposte standardizzate generate dal sistema AI piuttosto che feedback sfumati e diversi da altri utenti umani. Ciò potrebbe soffocare la creatività e l’originalità nelle conversazioni del forum.
- Esiste il rischio che l’integrazione degli LLM nei forum possa portare alla sostituzione di moderatori umani e personale di supporto, il che potrebbe avere implicazioni negative per la sicurezza del lavoro e la qualità del supporto fornito agli utenti.
Nonostante queste paure e altre ancora, rimango sia entusiasta che speranzoso. Ci saranno applicazioni deliziose ed estremamente utili di questa tecnologia e speriamo di esplorarla in Discourse.
Il fuoco è spento; il meglio che possiamo fare qui è essere molto attenti nei nostri approcci e esperimenti e cercare di contenere il fuoco. Spero che possiamo contenere il fuoco. Ma sai… nebbia di IA…
