In un problema quasi correlato, uno dei columnist del WSJ ha sottoposto il sistema di ordinazione tramite chatbot al drive-through di Hardee a 30 test, e apparentemente ha fatto un buon lavoro, solo 3 hanno dovuto essere sottoposti a risposta umana.
Puoi linkare all’annuncio?
Darebbe a noi che siamo fuori dal giro (iper veloce) un po’ di contesto ![]()
Perfetto, grazie @RGJ ![]()
Sembra che si tratti specificamente di questo impegno:
Quindi penso che spetti davvero alle aziende facilitare. Ma filigranare il testo è praticamente impossibile, come ha menzionato @merefield sopra.
Cosa ti aspetteresti che Discourse facesse in questo caso @MikeNolan? Se un utente copia e incolla semplicemente testo generato dall’IA, non c’è modo per Discourse di saperlo (a parte l’esecuzione di rilevatori di spam e IA), quindi non vedo davvero come questo accordo specifico cambi qualcosa per ora.
Il contenuto incollato dall’utente generato dall’IA probabilmente non è qualcosa con cui Discourse può fare molto, poiché è probabile che sia indistinguibile dal contenuto generato dall’uomo (a parte forse essere scritto meglio), ma se si utilizza un plugin AI ufficiale di Discourse, forse Discourse può fare qualcosa riguardo al watermarking o alla designazione di ciò che genera?
Ah in that way, yes, I can see how that makes sense ![]()
Abbiamo iniziato a lavorarci, ad esempio questo riassunto dell’argomento è già watermarked:
Il lavoro sull’interfaccia utente di riepilogo è quello che ha ricevuto più attenzione, quindi è lì che siamo già vicini alla forma finale e abbiamo questa configurazione. Altri seguiranno.
Forse un po’ semantico, ma due proprietà delle filigrane digitali sono che sono nascoste allo spettatore occasionale e difficili da rimuovere.
Ritengo che il riconoscimento APERTO dei contenuti generati dall’IA sia importante, sia per il testo che per le immagini.
Le firme digitali nascoste sono più utili per cose come l’applicazione del copyright delle immagini.
Sono attivo nel forum di fotografia Ugly Hedghog, dove l’argomento se le immagini generate o modificate dall’IA si qualifichino come fotografie è molto discusso. (Alcune immagini generate dall’IA hanno vinto concorsi fotografici.)
Il problema di cui stiamo discutendo al momento è che persone con intenti malevoli utilizzeranno l’IA per generare contenuti e poi rimuovere il riconoscimento, cercando di farli passare per contenuti generati dall’uomo. Ciò implica la necessità di un “tag” di origine difficile da rimuovere.
L’intento non è necessariamente malevolo, ma è meno che onesto.
Buona fortuna a trovare un modo per “etichettare” il testo generato dall’IA che non possa essere superato da qualcosa di forse rudimentale come il copia e incolla.
I caratteri a larghezza zero potrebbero essere usati per questo?
No, quelli possono essere facilmente rimossi passando il contenuto attraverso un filtro che mantiene solo i caratteri alfabetici normali. L’inserimento di filigrane nel testo è molto, molto difficile. Fondamentalmente non puoi farlo a livello di rappresentazione dei caratteri.
Questo post del blog di Scott Aaronson spiega un po’ come potrebbe funzionare. Scorri verso il basso fino alla sezione “My Projects at OpenAI”. Il metodo delineato lì è a prova di copia/incolla @MikeNolan
Grazie, è interessante:
Il mio progetto principale finora è stato uno strumento per la filigranatura statistica degli output di un modello di testo come GPT. In pratica, ogni volta che GPT genera un testo lungo, vogliamo che ci sia un segnale segreto altrimenti impercettibile nelle sue scelte di parole, che puoi usare per dimostrare in seguito che, sì, questo proviene da GPT. Vogliamo rendere molto più difficile prendere un output di GPT e farlo passare come se provenisse da un essere umano. Questo potrebbe essere utile per prevenire il plagio accademico, ovviamente, ma anche, ad esempio, la generazione di massa di propaganda… O impersonare lo stile di scrittura di qualcuno per incriminarlo. Sono tutte cose che si potrebbe voler rendere più difficili, giusto?
…
Quindi, per filigranare, invece di selezionare il token successivo in modo casuale, l’idea sarà quella di selezionarlo in modo pseudocasuale, utilizzando una funzione pseudocasuale crittografica, la cui chiave è nota solo a OpenAI. Ciò non farà alcuna differenza rilevabile per l’utente finale, supponendo che l’utente finale non possa distinguere i numeri pseudocasuali da quelli veramente casuali.
Una delle mie preoccupazioni riguardo al tentativo di identificare testi generati dall’IA è che possa accidentalmente colpire testi umani ben scritti.
il testo ben scritto generato da un essere umano sembra essere l’eccezione su molti forum. :sigh:
Torno alla motivazione.
Se identifichi cattive intenzioni, banna o sospendi.
Se si tratta di testo ben scritto e ben intenzionato con fatti comprovati, lascialo stare?
Cosa succede se la lingua madre dell’utente non è l’inglese e ha utilizzato ChatGPT per perfezionare la sua grammatica?
OK, sono preoccupato che possa prendere di mira i miei post ![]()
Penso di sì. Non vedo alcun problema con le persone che usano l’IA per aiutare a comporre post, supponendo che ci sia un essere umano reale che prende la decisione se il testo generato dall’IA sia degno di essere pubblicato o meno.
Ci sono una serie di strumenti che possono aiutare a migliorare la grammatica, non so se ChatGPT sia migliore del resto.
Migliorare la grammatica è una questione piuttosto diversa dalla generazione di contenuti “originali”, tuttavia. I motori AI stanno iniziando ad essere presi di mira dai proprietari di contenuti che vogliono essere rimborsati per l’utilizzo del loro materiale per addestrare il motore AI.


