Capisco il punto di vista, ma questo mi lascia con sentimenti contrastanti. Qui, l’idea sarebbe che l’input dell’IA sia indesiderabile perché non sarebbe “abbastanza buono”. Non sono nemmeno sicuro che sia vero. L’IA potrebbe già produrre testi migliori di parecchi umani.
Non è forse l’idea reale che i forum siano “per umani” e che le macchine siano indesiderabili del tutto? Sì, potrebbe essere vista come una forma di discriminazione, ma stiamo parlando di macchine, non di persone.
L’idea reale non è avere una discussione significativa? Se alcune parti di quella discussione sono generate dall’IA, ben scritte e ben documentate, questo rende la discussione meno significativa?
Considera questo forum, per esempio. Se ci fosse un’IA che aiutasse a risolvere problemi con risposte altrettanto buone, se non migliori, di quelle che scriviamo noi stessi, sarebbe una cosa negativa?
I motori di IA potrebbero non aver creato il distintivo di liquirizia, o richiederlo.
Anche a me, a pensarci bene. E penso che dipenderà molto dallo scopo del forum: un gruppo di mutuo supporto è un caso, un sito di supporto al prodotto un altro.
Ma, come moderatori, abbiamo già a che fare con individui un po’ indisciplinati, che non rimangono del tutto sull’argomento della discussione, o addirittura sull’argomento del forum.
Sì, probabilmente. Ma ciò potrebbe tornare alla domanda “cos’è una discussione?”. Si può avere una “discussione significativa” con un’IA? Sembra che alcune persone abbiano già trascorso del tempo a “discutere” con ChatGPT.
E se qualche altra IA rispondesse alle prime? E se stessero tutte avendo una “discussione significativa” insieme? Qualcosa in cui anche solo la maggioranza dei partecipanti è un’IA sarebbe ancora una “discussione”?
Non lo so, sembra che domande e risposte complesse possano dipendere dal punto di vista. C’è anche una differenza tra avere un’IA interna che inietta alcune informazioni e iniziare ad avere IA esterne come partecipanti. Per me, il vero punto del post di @Ed_S e di quanto sopra riguardava la parte “indistinguibile”.
Ottimi punti, ma ci sto pensando da circa 12 anni. Penso che la richiesta di regolamentazione da parte di alcuni del settore e dei creatori sia, nella migliore delle ipotesi, ipocrita, mentre inondano la tecnologia con questi gadget chiaramente irresistibili. Non ci credo e quindi mi tiro indietro invece di rimanere a bocca aperta di fronte ai nuovi scintillanti “giocattoli”, perché questo non è certo Natale e non è tutto oro quel che luccica.
Chiunque abbia occhi può vedere ora che in un cybermondo in cui l’IA può generare testo e immagini come gli esseri umani, ciò significa che i regolatori si lanceranno per un’identità digitale universale per l’intera internet, e improvvisamente quei giocattoli saranno verniciati di piombo.
Circa 30 anni fa, quando le email di spam e lo spoofing/phishing stavano appena iniziando a diventare fastidiosi, ci fu una richiesta simile per un ID universale. Fallì allora, sospetto che fallirà di nuovo, perché la tecnologia per farlo funzionare in modo affidabile ancora non esiste e potrebbe non esistere mai.
Non ricordo nulla di simile. La mia percezione è che il mondo “abbia” iniziato a diventare folle solo dopo l’11 settembre. Prima di allora, non ricordo che ci sia stata una spinta per una maggiore sorveglianza e identificazione di tutto e di tutti usando ogni possibile scusa. Quello che dici puzza di razionalizzazione, ma non vedo l’ora di essere smentito. Anche se le cose erano brutte prima, non è una scusa per renderle brutte oggi o domani.
Al momento non ricordo molti dettagli. Inizialmente è stato creato un comitato da persone della mailing list dei gestori di posta elettronica, con un paio di membri che facevano parte di alcuni comitati ANSI e che erano disposti a sponsorizzarlo per la valutazione all’interno della struttura dei comitati ANSI. Ricordo che eravamo due o tre dagli Stati Uniti, uno dalla Svizzera, uno dalla Germania, alcuni altri, circa una dozzina in totale.
Abbiamo elaborato una proposta per un sistema di ‘ID e credito universale’ che avrebbe addebitato agli ISP qualcosa come 0,00001 centesimi per ogni e-mail inviata. Non è passata attraverso la struttura dei comitati ANSI, gli esperti di sicurezza hanno detto che il sistema di ID non era sicuro, altri hanno detto che l’amministrazione della struttura di credito centrale sarebbe stata troppo costosa e un argomento politico, altri hanno detto che poteva essere utilizzata dai governi per tracciare le e-mail private, ecc.
Per quanto vale, un mio amico esperto di crittografia era d’accordo con il consenso sul fatto che il sistema di ID non fosse sicuro, ma era dell’opinione che nessun sistema crittografico fosse sicuro, data sufficiente potenza di calcolo.
Voglio dire, c’erano migliaia di quelli che descriverei come strani (se questo ti riguarda, calmati… colleziono Ninja Turtles) quando quell’“IA relazionale” ha perso parte della sua “personalità” e ha smesso di imitare le emozioni, che stavano impazzendo su Twitter e Reddit perché il loro pseudo-contatto era stato fatto saltare in aria dalle loro vite. E questo è successo dopo, cosa, due mesi circa? Fai quello che vuoi.
Anche se non penso che la maggior parte delle persone usi i forum come un simulatore di amicizia personale, anche se potrei sbagliarmi, e tutte queste persone si sono rivolte a strumenti di sostituzione dei forum per lamentarsi di questo…
Ma soprattutto ciò di cui gli sviluppatori e gli amministratori di forum hanno bisogno sono le API e queste sono raramente, se non mai, gratuite: anche se esegui il tuo LLM locale devi pagare per costi infrastrutturali significativamente più elevati.
Il Wall Street Journal riferisce che la FTC sta avviando un’indagine per verificare se ChatGPT stia danneggiando le persone pubblicando informazioni false su di loro.
Non sono sicuro che questo link funzionerà, potrebbe essere dietro il loro paywall
Esistono anche cartoni animati generati dall’IA (come ai_peter) in cui si inseriscono argomenti e un’IA scrive una sceneggiatura.
e molto altro ancora!
L’IA può generare risposte allucinanti, rendendone rischioso l’uso, verifica sempre i fatti. Dovresti fare molta attenzione, risposte errate possono causare problemi.
La maggior parte degli amministratori di forum ha visto molti post errati da parte di poster umani, quelli generati dall’IA saranno più difficili da gestire?
In che modo il recente accordo annunciato tra i principali sviluppatori di IA per richiedere cose come il watermarking dei contenuti generati dall’IA influenzerà gli LLM incorporati? Discourse può aggiungere watermark ai contenuti generati da ChatGPT?
Questo si riferisce sicuramente a immagini, video e potenzialmente suoni, ma non a testi? Come si filigrana il testo senza comprometterne il contenuto?
Questa è la sfida, potrebbe non esserci un modo pratico per aggiungere una filigrana al testo generato dall’IA. Il che significa che ci chiederemo ancora “È reale o è IA?”.