Per quanto riguarda le persone che rispondono copiando e incollando da ChatGPT, ecco un curioso esempio di reazione:\n\nhttps://community.home-assistant.io/t/want-to-help-others-leave-your-ai-at-the-door/523704/11\n\nSto vedendo questo anche nei forum che frequento di più (che sono di natura piuttosto tecnica). Un nuovo utente specifico ha pubblicato 8 o 9 risposte al giorno, tutte da ChatGPT.\n\nCi sono molte informazioni preziose, ma ci sono anche imprecisioni e cose decisamente fuorvianti (immagina un complicato elenco di 7 passaggi, guardo il passaggio 6 e so che non funzionerà mai… ma molti non lo fanno).\n\nQuesto utente sembra voler costruirsi una reputazione… stiamo pensando di chiedere alle persone di etichettare sempre esplicitamente i contenuti di ChatGPT come tali. Una richiesta che possiamo solo sperare che rispettino, ma che non possiamo davvero far rispettare.\n\nQuesto mi mette a disagio, non credo che questo ci porterà in un buon posto. Temo che conversazioni prive di significato finiranno per dominare Internet. Potremmo essere costretti a vivere vite reali nel mondo reale, non sono sicuro che possiamo gestirlo… ![]()
Mio figlio maggiore si diverte a mandarmi articoli e post che mostrano le stupidaggini di chatGPT. Continuo a dirgli che la tecnologia di chatGPT è forse a livello di seconda o terza elementare in molte aree, come la matematica. Per citare uno dei miei professori anni fa, non sa ciò che non sa.
Non gli ho ancora chiesto una ricetta per fare una torta, rabbrividisco al pensiero di cosa potrebbe sbagliare. (Ho visto troppe ricette pubblicate da umani online che sono totalmente impraticabili.)
Penso che la conversazione senza senso possa aver preso il sopravvento su Internet quando sono stati inventati Facebook e Twitter. Quelli di noi abbastanza vecchi da ricordare USENET, quando era ancora corretto definirlo un videogioco per persone che sanno leggere, potrebbero tracciare una linea ancora più indietro nel tempo.
Lo stiamo sicuramente sperimentando in questo momento: gestiamo un forum Discourse gratuito e aperto e vediamo molti bot di spam in stile ChatGPT superare le protezioni esistenti.
Akismet al momento non tiene il passo, poiché non ho mai visto così tanti account di spam superare i controlli prima. Tendono a pubblicare commenti dall’aspetto innocuo che rispondono a una domanda (o la riformulano e poi rispondono) con una risposta piuttosto prolissa che sembra utile, ma manca di un po’ di contesto o sfumatura dalla domanda originale.
Presumo che i forum Discourse siano presi di mira come terreno di prova, per ragioni simili ai siti WordPress un decennio fa: è una tecnologia open-source piuttosto diffusa, quindi i bot che riescono a superare il flusso di registrazione in un forum possono probabilmente accedere a molti altri.
Al momento non vediamo il comportamento tradizionale dei bot di spam (creare un account, pubblicare qualcosa di abbastanza innocuo da superare le misure anti-spam, e poi modificarlo entro 48 ore per aggiungere link), quindi non sono sicuro di quale sia l’obiettivo finale. È possibile che stiamo semplicemente eliminando quei post troppo rapidamente e che vengano poi modificati in fattorie di backlink.
8 post sono stati divisi in un nuovo argomento: LLM e l’impatto sul customer support
Cosa ti consiglia ChatGPT riguardo al tuo problema
E tutti gli altri? E sono d’accordo tra loro
![]()
Penso che un 2FA obbligatorio dovrebbe filtrare la maggior parte dei bot. Qualche pensiero?
Altrimenti, probabilmente farei compilare agli utenti un typeform dopo la creazione del loro account e li aggiungerei a un gruppo “verificato” tramite un webhook alla sottomissione del modulo e renderei il forum di sola lettura per tutti coloro che non sono verificati.
Detto questo, ora che i bot possono navigare sul web e comprendere le intenzioni dei pulsanti, penso che sia un approccio palliativo.
La maggior parte dei forum sono aperti (non è necessario registrarsi per visitarli) e possono essere trovati con Google e simili. Il 2FA non lo impedirà.
L’autenticazione a due fattori (2FA) obbligatoria per la creazione dell’account funzionerà sul 99,9% dei bot…
Ecco un robot interessante.
Mi chiedo se qualcuno addestrato nella lettura labiale sarebbe in grado di capirlo a volume spento?
Un altro motivo per essere cauti nell’uso della tecnologia ChatGPT.
Un professore di legge della California è stato incluso in un elenco generato da ChatGPT di studiosi di diritto accusati di molestie sessuali. ChatGPT ha citato una storia del Washington Post come fonte.
Il problema è che non esiste una storia del Washington Post del genere e non sono mai state sollevate accuse di molestie sessuali contro quel professore di legge.
Ecco un link alla storia, sul sito web del Washington Post, guarda caso:
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/
Se quel link non funziona, prova questo: https://wapo.st/3KhD2R2
Tutti possono stare tranquilli, il Dipartimento del Commercio ha annunciato piani per garantire che l’IA abbia “guardrail” appropriati
Dal WSJ:
“È incredibile vedere cosa possono fare questi strumenti anche nella loro relativa infanzia”, ha detto Alan Davidson, a capo della National Telecommunications and Information Administration, l’agenzia del Dipartimento del Commercio che ha pubblicato la richiesta di commenti. “Sappiamo che dobbiamo mettere in atto alcuni guardrail per assicurarci che vengano utilizzati in modo responsabile.”
:sarcasm off:
Sì… se il testo fosse ancora scritto da partecipanti umani.
Cosa che probabilmente non sarà, sempre di più. Da qui il problema.
L’IA potrebbe causare un peggioramento di tutto ciò che hai descritto, rendendolo sempre più difficile da rilevare.
Gli autori di libri sono una cosa. Non sapere più con chi si ha a che fare nelle discussioni online è un’altra. Tutti gli indizi che dovresti ricavare da un testo scritto diventano distorti se non è scritto genuinamente da un individuo, ma usando l’IA.
Questa è una domanda totalmente dipendente dalla nicchia. Le mie cerchie sono fortemente connesse alla nutrizione e all’alimentazione dei cani. Vedo subito se un testo è generato dall’IA, perché le IA pensano che un milione di mosche non possano sbagliarsi.
La stessa cosa è visibile quando parliamo di escursionismo, canottaggio, ecc.
Quindi, dipende da quale tipo di set ha scritto la maggior parte del testo sul web. Ecco perché tutti tranne i programmatori nei miei amici/comunità contano l’IA solo come un’altra moda passeggera, almeno per il momento ![]()
Ho appena visto questo e ho pensato che sarebbe stato pertinente per quanto sarà facile (in realtà lo è già) inserire risposte AI in ogni casella di input:
Leggermente NSFW…
Ho il primo caso di un utente che probabilmente usa ChatGPT per risposte argumentative. Questa persona è già al limite del troll, e non sono felice di questo sviluppo.
Un altro utente ha utilizzato una nuova estensione di Chrome per l’identificazione:
Non sono ancora sicuro di quanto sia valida questa estensione: sembra impostare di default su “umano” per campioni insufficienti, ma potrebbe non rilevare certi tipi/stili di testo generati dall’IA (come i limerick generati da ChatGPT).
Il mio attuale piano di moderazione, se così si può chiamare, è lasciare che altri utenti identifichino e segnalino questi abusi, e lasciare che la pressione sociale sia il deterrente. Non sono sicuro di cos’altro si possa fare al momento.
Se ciò accade nel mio forum, voglio chiarire che pubblicare testo generato da macchine senza annotarlo è un’infrazione segnalabile. Essenzialmente, è ingannevole, quindi è contro le linee guida.
Sono d’accordo in linea di principio, ma i criteri per identificare il testo generato dalla macchina sono un bersaglio mobile. La buona notizia è che l’estensione di Chrome non ha ancora generato alcun falso positivo, sebbene in test molto limitati. La cattiva notizia è un lavoro extra per i moderatori per fare la determinazione e la necessità di tenere il passo con gli strumenti di rilevamento più aggiornati man mano che il testo generato dall’IA migliora sempre di più. Il testo AI raggiungerà eventualmente un punto in cui il rilevamento è problematico.
In effetti, ma ci sto pensando come a un problema di moderazione. I nostri moderatori umani tengono già d’occhio i post che sono conflittuali, scortesi, offensivi, ripetitivi o fuorvianti. Questa è un’estensione di ciò: e con una norma culturale locale che dice che le persone reali non pubblicano testo di macchina senza un avviso, tutto ciò che sembra (o odora) di testo di macchina, specialmente da un utente relativamente nuovo, è automaticamente sospetto.
Penso che i cervelli umani, specialmente i cervelli dei moderatori, diventeranno ragionevolmente bravi a individuare il testo di macchina. Quando il testo di macchina sarà indistinguibile da un post utile che fa progredire la conversazione, non avremo più un problema. (Le persone che fanno post di basso sforzo e basso valore saranno forse penalizzate.)