Come ci sentiamo tutti riguardo a ChatGPT e altri LLMs e come influenzeranno i forum?

Mentre seguo le notizie su ChatGPT, GPT-4 e altri LLM, e ho giocato con Discourse Chatbot 🤖, mi sento eccitato, terrorizzato e incerto su cosa significherà per la comunicazione online.

Mi chiedo come influenzerà i forum e la comunicazione testuale in generale. Temo anche come influenzerà alla fine la comunicazione vocale.

Si arriverà al punto in cui la maggior parte degli utenti creerà post con ChatGPT e li copierà e incollerà nei forum? Se sì, le persone cercheranno di copiare e incollare i post del forum in ChatGPT per riassumere il post scritto dall’IA? Ci importerà se qualcuno lo ha scritto “organicamene” o ha usato l’aiuto dell’IA? Ci sarà un beneficio così grande per i forum e i siti web in generale se le persone potranno ottenere risposte simili da ChatGPT? Come si differenzeranno i forum e rimarranno relativamente rilevanti?

Sono piuttosto incerto su cosa accadrà e mi piacerebbe sentire cosa provano e pensano gli altri in questo momento a riguardo :slight_smile:

31 Mi Piace

Avendo appena ricevuto da ChatGPT risposte molto errate sui miei sentieri locali per mountain bike, mi sbilancio dicendo che non mi aspetto che gli LLM abbiano un grande impatto sulle discussioni online. Le sue risposte miglioreranno nel tempo, ma non avrà mai la motivazione umana per evitare di sbagliare su Internet. Inoltre, come modello linguistico, “non è in grado di compiere azioni fisiche come andare in mountain bike”. Quindi, anche se potesse fornirmi informazioni accurate sui sentieri, manca la dimensione umana che deriverebbe da un forum locale di mountain bike.

25 Mi Piace

Quindi… come mi sento riguardo a tutte queste cose?

Ovviamente, sono entusiasta. Abbiamo una scatola di giocattoli nuova di zecca con cui giocare, e questi giocattoli sono diversi da qualsiasi altro giocattolo che avevamo in passato. Come per la maggior parte della tecnologia, questa può essere usata per il bene o per il male.

Personalmente, mi sento come se fossi nel mezzo di una nebbia di IA. Una volta avevo una buona comprensione di dove le cose stessero andando nei prossimi tre o quattro anni; tuttavia, gli LLM e le future evoluzioni di questa tecnologia hanno messo i bastoni tra le ruote. Non so dove saranno le cose tra un anno.

Quando si guarda da vicino a quanto velocemente si è mosso stable diffusion negli ultimi mesi, è sbalorditivo. Quando si guarda all’ampiezza del progresso da GPT 3.5 a 4, è anche piuttosto sbalorditivo.

Anche con la nuova nebbia di IA, ho alcune preoccupazioni molto reali:

  • Mi è chiarissimo che i forum di supporto verranno ingeriti dagli LLM e utilizzati come dati di addestramento per chatbot utili. Il lato positivo è che gran parte del lavoro noioso del supporto può scomparire e si ottengono risposte immediate. Tuttavia, il lato negativo è che verrà creato meno contenuto nuovo, il che può molto rapidamente causare una spirale mortale a meno che non venga mitigato.

  • Sono certo che spam e altri attori malintenzionati sfrutteranno questa tecnologia, lanciando attacchi molto più sofisticati di qualsiasi cosa abbiamo visto finora, potenzialmente uccidendo i forum se non stiamo attenti.

  • Questa tecnologia assistiva può erodere la fiducia. Quando leggi le parole che scrivo, ti aspetti che le parole provengano da me. Le persone possono usare l’IA per fare più che correggere le bozze; può completamente riformulare le nostre parole. Vuoi suonare come Malcolm Gladwell? Nessun problema, puoi farlo. Qual è il livello di etichettatura che gli utenti responsabili dei forum dovrebbero aspettarsi? Le persone abbandoneranno i forum se non si fideranno più di parlare con persone o di parlare semplicemente con dei facsimili.

leggilo con le parole di Malcolm

Nel mondo di oggi, la tecnologia assistiva ha il potere di erodere la fiducia in modi che potremmo non aver anticipato. Come consumatori della parola scritta, abbiamo certe aspettative - vale a dire, che le parole che leggiamo siano autentiche e provengano dalla loro fonte dichiarata. Tuttavia, con l’avvento della tecnologia IA, gli individui possono manipolare il testo scritto in modi che vanno oltre la semplice correzione di bozze. In sostanza, possono completamente riformulare un messaggio per farlo suonare come chiunque scelgano. Quindi, se hai mai sognato di suonare come Malcolm Gladwell o qualsiasi altra figura di spicco, questa tecnologia può realizzarlo con facilità. Tuttavia, ciò solleva interrogativi sull’etichettatura responsabile per gli utenti dei forum. Se le persone non possono più fidarsi di conversare con altre persone, e non solo con facsimili generati dal computer, potrebbero benissimo abbandonare i forum del tutto. Il livello di etichettatura richiesto per mantenere la fiducia nel discorso online è una preoccupazione pressante che merita seria considerazione.

  • Abbiamo visto forum di fabbriche SEO in passato; vedremo versioni molto più elaborate e spaventose di questo.
altre preoccupazioni simili a GPT 4
  • Esiste il rischio che l’uso degli LLM nei forum possa creare una cultura di pigrizia tra gli utenti che si affidano troppo alla tecnologia AI per fornire risposte e approfondimenti. Ciò potrebbe portare a un declino del pensiero critico e delle capacità di problem-solving tra gli utenti del forum.
  • L’uso degli LLM nei forum solleva preoccupazioni etiche sulla privacy e la sicurezza dei dati. Gli utenti potrebbero sentirsi a disagio all’idea che le loro informazioni personali e le loro interazioni vengano analizzate ed elaborate da un sistema AI, soprattutto se non sono pienamente consapevoli di come vengono utilizzati i loro dati.
  • L’integrazione degli LLM nei forum può esacerbare pregiudizi e disuguaglianze esistenti, in particolare se la tecnologia AI viene addestrata su un set di dati limitato che non riesce a catturare la diversità di esperienze e prospettive degli utenti del forum.
  • L’uso degli LLM nei forum può anche comportare l’omogeneizzazione del discorso, poiché gli utenti hanno maggiori probabilità di ricevere risposte standardizzate generate dal sistema AI piuttosto che feedback sfumati e diversi da altri utenti umani. Ciò potrebbe soffocare la creatività e l’originalità nelle conversazioni del forum.
  • Esiste il rischio che l’integrazione degli LLM nei forum possa portare alla sostituzione di moderatori umani e personale di supporto, il che potrebbe avere implicazioni negative per la sicurezza del lavoro e la qualità del supporto fornito agli utenti.

Nonostante queste paure e altre ancora, rimango sia entusiasta che speranzoso. Ci saranno applicazioni deliziose ed estremamente utili di questa tecnologia e speriamo di esplorarla in Discourse.

Il fuoco è spento; il meglio che possiamo fare qui è essere molto attenti nei nostri approcci e esperimenti e cercare di contenere il fuoco. Spero che possiamo contenere il fuoco. Ma sai… nebbia di IA…

34 Mi Piace

Questo tocca una delle domande più profonde sull’IA, ovvero se abbia importanza, e in che modo abbia importanza, se sto comunicando con una persona normale, una persona “aumentata” o un’intelligenza artificiale. Chiamiamolo il “problema dell’identità dell’interlocutore”.

Per certi versi, gli esseri umani hanno sempre affrontato il problema dell’identità dell’interlocutore. In filosofia, questo è talvolta noto come il “problema delle altre menti”. Una delle affermazioni più note è quella del Demone Malvagio di Cartesio, il contesto del suo “Penso, dunque sono”. Le domande su come ci sentiremo, o come dovremmo sentirci, riguardo all’interagire con un’IA sono essenzialmente un’estensione della stessa domanda.

Emerge in modo interessante nel contesto dei forum, perché per molti versi penso che accettiamo già un alto livello di opacità nell’identità dell’interlocutore. Tutto ciò che abbiamo per giudicare i nostri interlocutori sono le loro parole e, eventualmente, la loro auto-presentazione (cioè avatar, nome utente, ecc.). Nel bene o nel male, in molti casi non pensiamo troppo all’identità dell’interlocutore, o almeno siamo disposti ad accettare l’opacità.

Questo contesto mi porta a conclusioni (o forse domande) più caute su come ciò influenzi i forum. Ad esempio, consideriamo lo spam. Non ci piace lo spam per una serie di ragioni, ma concentriamoci su due ragioni correlate:

  1. È un rumore brutto che rende un forum meno attraente.
  2. Ha uno scopo commerciale, malevolo o di altro tipo che non vogliamo favorire.

Supponiamo che l’applicazione di un LLM allo “spam” porti a una riduzione del primo e a un approccio più sfumato al secondo. Se non fa queste cose, i metodi esistenti di eliminazione dello spam saranno sufficienti per bloccarlo. Per certi versi, è un termine improprio chiamarlo spam, piuttosto è più simile a “marketing automatizzato sofisticato”, o… “Sam” (mi dispiace, non ho potuto resistere).

Tuttavia, una volta entrati nel territorio di Sam, ci avviciniamo inevitabilmente allo stesso problema sottostante dell’identità dell’interlocutore. È già vero che alcune persone usano la loro presenza su un forum per fare marketing in modo sfumato e indiretto. La domanda è se ci importa dell’identità dell’attore che lo fa.

Condivido sicuramente le tue preoccupazioni riguardo al suo impatto sul mercato del lavoro. Tuttavia, per ragioni correlate, non sono così sicuro che porterà a un ecosistema di forum più stupido, pigro, brutto o più commerciale. Se un LLM fa questo a un forum, quel forum probabilmente non andrà molto bene, ma allora i suoi ex utenti troveranno un altro forum non influenzato da un LLM, o influenzato da uno più sofisticato.

I forum facilitano mercati di conoscenza, interesse e connessione umana. Se un LLM avrà successo in quei mercati, influenzerà indubbiamente il lavoro, ma non sono così sicuro che allenterà la domanda. Infatti, il successo implica il contrario.

24 Mi Piace

L’IA fa schifo.
Non vedo alcun beneficio.
Ridurrà il mio appetito a partecipare a qualsiasi cosa.

7 Mi Piace

È forse questo il fattore più importante? Ogni post è legato a un’identità unica. Quando vedo un post da te o dal (presunto) vero Sam, faccio una stima di quanto sia probabile che quell’informazione sia vera. Ho sentito Sam in un podcast e ho parlato con te nella videochiamata degli esperti l’anno scorso, quindi posso presumere che ci sia almeno una persona reale da qualche parte dietro questi post.

Ma la persona reale è davvero importante? Se c’è un account chiamato “Hal Mcdave” che fornisce informazioni corrette in uno stile coerente e coeso, allora inizierò anche a fidarmi e a utilizzare quelle informazioni. Quindi non va bene?

Certamente il vero problema non è mai stata l’intelligenza artificiale; piuttosto la stupidità artificiale.

5 Mi Piace

No. Fai un breve giro tra i forum e guarda qual è davvero il contenuto.

Le IA cambieranno il mondo dei CMS. E colpiranno pesantemente il mondo in stile WordPress. E lì, contenuti già copiati e incollati come elenco dell’anno XXXX, come fare…, ecc.

Questo circolo qui fa parte di quel pubblico che utilizzerà e vedrà un forte uso di ChatGPT, ecc. Ma la stragrande maggioranza del resto del mondo… non così tanto. Non scrivono più, non sanno copiare e incollare e non usano nessuno di quegli strumenti fantascientifici che ad esempio Discourse offre.

Voi siete unicorni rosa :wink: Rari. Per voi ogni cosa basata sull’IA è un nuovo parco giochi o un giocattolo perché fa parte della vostra vita professionale e dei vostri hobby.

Per CDCK questa è una questione del prossimo futuro a causa dei principali clienti aziendali di classe. Molto spesso utilizzano Discourse per documentazione, aiuti e supporto. Per loro tali funzioni di supporto non generano entrate e richiedono personale umano retribuito. Saranno al settimo cielo quando ci sarà un’IA che risponderà ai clienti e non avranno più bisogno di un team di supporto. E gli sviluppatori sono felici perché, come tutti sappiamo, la tecnologia semplicemente non funziona senza un debug e una correzione infiniti.

Quindi, le soluzioni basate sull’IA non intaccano la fiducia o qualcos’altro, perché al momento non c’è nemmeno tale fiducia. Gli utenti comuni non possono vedere o nemmeno preoccuparsi se le risposte e i commenti provengono da un mucchio di codice. Sono totalmente felici per i nuovi creatori di meme e i filtri di TikTok :wink: Per l’amor di Dio, stanno già pagando per app di incontri dove la maggior parte delle controparti non sono umani…

Scusate ragazzi, ma state discutendo in una scatola stretta :grin:

8 Mi Piace

Ma invece della creazione automatica di contenuti, che supporta solo i proprietari della piattaforma, vorrei vedere un traduttore AI “on-the-fly” che funzioni davvero, perché quelli che abbiamo ora semplicemente non funzionano.

Ciò aiuterebbe gli utenti a creare qualsiasi tipo di testo, anche tramite voce, ovviamente, in modo tale che forum, chat, qualsiasi cosa possa raggiungere un pubblico veramente globale. Questo è uno strumento che sto aspettando.

O qualcosa di simile. Sam ha accennato in qualche argomento all’uso dell’AI per inserire gli argomenti nella categoria giusta. Avere un tagging veramente utile per utente basato sulla cronologia di lettura/ricerca sarebbe qualcosa. Cose del genere.

Quindi non vedo l’AI come una vera minaccia contro la creazione e la conversazione. Vedo l’AI “solo” come uno strumento per minimizzare la necessità di fare cose noiose :wink:

Di nuovo. Là fuori c’è già contenuto di basso livello e scarsa qualità che vale trilioni di caricamenti di pagine. Se l’AI cambierà questo, non lo vedo come una minaccia. E se le soluzioni AI creano la stessa brutta merda… beh, moriranno come le chat di supporto automatico aspiranti (che sono solo skin eleganti per moduli basati su email).

7 Mi Piace

Domande molto pertinenti. @merefield ha recentemente rilasciato un fantastico plugin che utilizza ChatGPT per creare riassunti di argomenti.

Google ha rilasciato la sua versione chiamata Bard.

5 Mi Piace

Ho provato lo stesso ma spero che gli esseri umani vogliano continuare a fare cose umane come discutere (non solo codice, copia e incolla dati).

Gli strumenti IA potrebbero essere super utili per compiti operativi e ripetitivi e non credo che i bot possano effettivamente impegnarsi in conversazioni umane.

Ciò non è fondamentalmente possibile e il 99,99% dei dati nel mondo non cambierà questo perché libertà, scelta e vita.

La vita è cambiamento e l’IA non può cambiare da sola, non fondamentalmente (al di là di Skynet, ovviamente).

La maggior parte delle persone là fuori continuerà a cercare su Google e a fare clic solo sul primo link.

Ma ci sarà sempre un 3% del mondo che sceglierà di saltare nelle prime 5/10 pagine o userà Duckduckgo invece per navigare e navigare davvero su Internet come ai vecchi tempi.

L’IA è super-cattiva sui social media perché controllo, censura e manipolazione di massa, ma non così tanto nelle istanze dei forum.

Un giorno pochissime persone al mondo sapranno tutto di tutte le persone, ma ciò includerà la nostra possibilità di cambiare?

Non credo (e lo stesso vale per la tecnologia quantistica che romperà tutto in una volta).

5 Mi Piace

Anni fa una delle riviste tecnologiche collegò due programmi simili a Eliza, uno progettato per parlare come un medico, l’altro come una persona con paranoia. I risultati furono divertenti, ma non erano motori sofisticati come GPT.

Se due istanze di GPT iniziassero a chiacchierare tra loro di squadre sportive, scacchi o cucina (le aree su cui gestisco attualmente forum di discussione), sarà una lettura interessante? Dubito fortemente.

6 Mi Piace

Sembra una risposta onesta alla domanda dell’OP. Viviamo davvero in tempi interessanti :slight_smile:
La mia speranza è che i forum possano essere utilizzati per aiutarci a mantenere il senso di ciò che significa essere umani.

6 Mi Piace

Il termine “Intelligenza Artificiale” può legittimamente incutere timore e le IA sono state spesso causa di scompiglio nei libri, nei film, ecc.

Mi chiedo se la penseremmo diversamente se tutta questa tecnologia che diventa virale oggigiorno (midjourney, chatGPT…) non usasse affatto il termine “IA”, ma qualcos’altro verso cui siamo meno prevenuti culturalmente.

7 Mi Piace

Vorrei ottenere un chatbot veterinario AI per la consultazione iniziale automatica, nonché l’acquisizione di informazioni per costruire un argomento di richiesta di supporto dettagliato per i veterinari umani.

2 Mi Piace

Non mi sorprenderei se qualcosa del genere per i veterinari fosse già sul mercato, alcune delle pratiche mediche stanno iniziando a usarli per ridurre il tempo del personale.

2 Mi Piace

Come mi sento, con un piccolo aiuto da midjourney e chatgpt… :upside_down_face:


4 Mi Piace

Suppongo di non poter parlare a nome di altri. Ma dalla mia esperienza, ho utilizzato principalmente forum Discourse (& chat Discord) per interagire con persone su determinati interessi condivisi in prodotti che sono in crescita, dove non sono sicuro che sarebbe molto utile chattare con un’IA, ad esempio:

  • Forum dell’app Auxy (app musicale, ora chiusa ma sono su Discord) dove le persone condividevano feedback sui brani WIP reciproci e davano consigli specifici per l’app. Non esiste materiale scritto pregresso sull’app oltre a ciò che scrive la community.
  • Forum di Hopscotch (app di codifica drag-and-drop, dove lavoro e ho contribuito a seminare quando è iniziata). Anche in questo caso non c’era materiale scritto e guide dettagliate sull’app da nessuna parte su Internet, prima che la community scrivesse tutti quei post, quindi qualsiasi IA starebbe rigurgitando ciò che abbiamo scritto.
  • Sky: Children of the Light (gioco, community su Discord ma la premessa è sempre la stessa) Di nuovo, l’ho giocato durante la beta prima che ci fosse qualsiasi materiale scritto. E ho contribuito a SCRIVERE il contenuto musicale sul wiki e sono con la community da prima che tutto quel contenuto fosse generato.

in tutti i casi, l’IA non ha nemmeno “utilizzato le app” da sola.

Quindi non so se l’IA sarebbe stata d’aiuto, tranne forse per formulare bene tutto ciò che la community ha generato, perché non c’era alcun contenuto scritto su quegli argomenti prima che tutte quelle persone lo scrivessero attraverso le discussioni.

(Penso che Marx in Das Kapital, dopo aver osservato gli operai in Inghilterra, abbia detto qualcosa del tipo che le persone non usano le macchine; le macchine usano le persone)

Non che questa IA non sia fantastica o utile, è solo che probabilmente non sarebbe stata molto utile se fosse stata presente mentre ero in quelle community.

10 Mi Piace

Gestisco un forum che offre supporto agli imprenditori.

Da novembre, ho creato @Robolivier, un simpatico robot AI che aiuta gli utenti quando lo menzionano. Risponde anche a ogni nuovo argomento una volta, nella speranza di fornire all’utente una risposta soddisfacente. Ho aggiunto un disclaimer a ciascuno dei suoi messaggi.

Finora, gli utenti lo hanno trovato divertente e utile per la maggior parte del tempo.

Ho intenzione di addestrarlo sulle mie interazioni sul forum, vedremo come andrà.

Dato che si tratta di un forum a pagamento, i bot non sono un problema per me. Ma posso capire come un forum aperto e gratuito possa essere invaso dallo spam fino a diventare irrilevante.

8 Mi Piace

Una differenza cruciale è che quando l’IA può generare in massa informazioni di qualità sotto un numero arbitrariamente elevato di “identità” (etichette) distinte, diventa economico violare la fiducia che è stata erroneamente costruita attorno a tali identità in momenti critici/proficui. Come essere umano, non voglio violare la fiducia che ho costruito con gli altri, non solo per la mia coscienza, ma per l’effetto dannoso sulla mia reputazione. Ma un’identità artificialmente legata a un’IA è molto più sacrificabile e abusabile sia per l’avidità capitalistica che per le macchinazioni politiche.

Quindi, come mi sento? Ho paura del futuro. È molto probabile che questa tecnologia ci rovini socialmente nel prossimo futuro (anni) e alla fine (decenni) ci distrugga fisicamente se non troviamo un modo per fermarla.

4 Mi Piace

In uno dei forum che gestisco, sospettiamo da anni che una persona pubblicasse con almeno due nomi diversi e con diverse personalità, una più conflittuale dell’altra. Recentemente ha commesso un errore e ha firmato un post da un indirizzo email con il suo nome dall’altro, e poi ha firmato un altro post con un terzo nome. Quindi ora lo sappiamo per certo!

C’è un libro molto interessante in cui analizzano famosi scrittori attraverso l’analisi statistica dei modelli di utilizzo delle parole. Diventa interessante quando i libri sono scritti da più autori; molti degli ultimi libri di Tom Clancy sono stati in gran parte scritti da altri scrittori.

Questo tipo di analisi statistica è stato il modo in cui si è determinato che J. K. Rowling stesse scrivendo anche sotto un nome diverso, prima che lei confermasse il fatto. È stato anche utilizzato per analizzare i Federalist Papers, concludendo nel 1962 che, come molti avevano affermato, Alexander Hamilton ne scrisse un bel po’, inclusi diversi di cui altri avevano rivendicato la paternità. (Furono pubblicati anonimamente all’epoca perché si pensava che sapere chi li avesse scritti potesse diminuirne l’efficacia politica.)

Quindi forse c’è un valore nell’avere interfacce simili a chatGPT nei nostri forum se possiamo usarla per analizzare gli stili di scrittura dei nostri partecipanti.

7 Mi Piace