Dipende, vero? Nell’esempio sopra, sarei arrabbiato con chi ha pubblicato se la risposta fosse stata palesemente errata, specialmente se quell’errore avesse portato l’utente a problemi maggiori. Non ho problemi con le persone che pubblicano risposte generate dall’IA se hanno anche dedicato del tempo a convalidare e verificare l’appropriatezza e la correttezza delle informazioni. Ancora meglio se concordano che il contenuto generato sia simile, o migliore, di come avrebbero condiviso quelle informazioni comunque.
Se invece hai semplicemente inserito qualcosa in un LLM, copiato e incollato la risposta, e ti aspetti che io, come lettore del tuo argomento, capisca se quel contenuto è corretto, allora non sarò felice. Non solo stai sprecando il mio tempo presentando informazioni false come corrette, ma stai riducendo l’affidabilità della comunità in generale, o almeno delle tue future risposte.
Guardando al futuro, sospetto che molte persone ben intenzionate si allontaneranno dall’uso degli LLM nei forum nei prossimi anni, e coloro che rimarranno saranno malintenzionati, o persone che semplicemente non capiscono i forum in primo luogo. È puramente aneddotico, ma uso gli LLM quotidianamente da circa 2 anni, e mi sto orientando sempre più verso contenuti autogenerati. Ieri volevo scrivere un post sul blog a cui non ero super interessato. Ho deciso di provare GPT, ma non importa cosa facessi, suonava sempre come GPT e odiavo quello. Quindi ho provato Claude, e nonostante ci abbia lavorato per un’ora, il contenuto non è mai sembrato scritto da una persona reale e vivente. Quindi, dopo circa 3 ore totali, ho stracciato tutto e l’ho scritto da solo in circa un’ora.
Il punto di quella storia è dire - almeno per me - che il contenuto autogenerato si sta dimostrando sempre più gratificante, non importa quanto buoni diventino i modelli. Spero davvero che anche altre persone che usano gli LLM raggiungano quella fase nei prossimi 2-3 anni. Se ciò accade, le risposte AI nei forum proverranno solo da malintenzionati, o da persone con buone intenzioni che non sanno fare di meglio. In entrambi i casi, quella situazione rende il contenuto molto più facile da gestire: puoi bannare i malintenzionati, educare coloro che hanno buone intenzioni, e avere una politica di moderazione del tipo “i contenuti AI sono vietati, tranne se hai chiaramente digerito il contenuto che stai pubblicando E sei pienamente d’accordo che i suoi contenuti rappresentano la tua opinione e comprensione della materia E il contenuto esprime la tua opinione in modo uguale o più digeribile di quanto genereresti tu stesso.” o qualcosa del genere.