Il lancio della cautela al vento, l’integrazione selvaggia di chatGPT in qualsiasi cosa è motivo di immensa preoccupazione.
C’è una domanda che, come amministratore, è importante conoscere: esiste una parte o un componente, per quanto piccolo, che sia essenzialmente AI all’interno dell’installazione principale di Discourse?
Presumo che la risposta sia no, ma voglio verificarlo.
Dall’arrivo dei plugin che sembrano isolare l’AI al di fuori di un’installazione principale di Discourse, penso anche che sia importante conoscere, dal punto di vista della roadmap, se ci sono piani per integrare qualsiasi AI dove attualmente non ce n’è (se ciò è vero).
Se la risposta è sì a una o più di queste domande, sarebbe fantastico averne conferma.
Sì, un buon punto per quanto riguarda le definizioni. Penso che l’OP sia chiaro in termini generali, trattandosi di un caso di prima e dopo ChatGPT (+ simili) e quali sono i piani per Discourse, lungo le linee di almeno:
utilizzarlo per scrivere codice di base
utilizzarlo per integrarlo nel core
Se qualcun altro vuole aiutare a definire lungo queste linee, ma come hai detto potrebbe essere la migliore definizione, fondamentalmente qualsiasi cosa che non sia “codice generato dall’uomo nel vecchio stile, che esegue logica procedurale tradizionale”
Puoi fornirmene alcuni (diciamo 10, grandi) esempi di progetti open source che hanno uno statuto / documento pubblico che vieta l’uso di GitHub Copilot?
Sì, quindi il bot che fa il programmatore è il motivo per cui ho posto questa domanda in modo così ampio. Ora che ne sono consapevole, suppongo che dai correttori di ortografia e grammatica (ad esempio Grammarly) agli aiuti e assistenti di programmazione come Copilot. Immagino non ci sia una risposta chiara e netta, vero?
All’estremo, che dire degli strumenti di refactoring di un IDE? Estrai metodo non consentito? Continua a cavalcare quest’onda e si tornerà alle schede perforate.
Per aggiungere, Discourse (e molti plugin) utilizzano ampie suite di test funzionali e controlli di linting.
Ciò mitiga enormemente i problemi del codice (prova a distribuire in RoR senza controlli…) e coprirebbe anche il codice generato dall’IA o supportato da Copilot. E questo senza contare il fatto che Copilot potrebbe effettivamente trovare problemi che ti sfuggono…
La disciplina principale per quanto riguarda i test sulla piattaforma è impareggiabile e dà l’esempio all’ecosistema.
È anche in qualche modo irrilevante? Non credo che la distribuzione di codice IA non supervisionata avverrà a breve… non si arriverebbe nemmeno a eseguire i test (Hai provato a chiedere a ChatGPT una soluzione in EmberJS compatibile con Discourse? Le allucinazioni sono fuori scala ). Forse migliorerà con l’evoluzione dei modelli.
Discourse deve tenere il passo con i tempi o morire secondo me, e ciò significa esplorare e adottare nuove tecnologie dove appropriato.
In qualità di autore di due plugin “AI” (entrambi scritti a mano! ), riconosco che ovviamente devono essere accompagnati da avvertenze e clausole di esclusione della responsabilità e non vedo che ciò cambi per un bel po’…
Quindi, nell’ambito di “discourse”, per attenersi all’OP perché stai cavalcando quest’onda e la prossima, ovviamente è un problema espansivo, ma:
Dove stanno le cose finora (se ho interpretato correttamente i feedback).
Non ci sono componenti AI attivi nel core di discourse
Non ci sono componenti AI inattivi o codice all’interno del core di Discourse
Parte o tutto il codice di Discourse può essere nato con l’applicazione indiretta o diretta di strumenti AI all’interno di varie piattaforme di sviluppo e IDE, ecc. disponibili agli sviluppatori.
L’aggiunta di qualsiasi funzionalità AI al core non è attualmente in Roadmap
I plugin sono la porta d’accesso a funzionalità basate sull’AI che funzionano con Discourse
L’IA non è un termine tecnico… una persona potrebbe interpretare un’euristica come IA. Il modo in cui “punteggiamo” i post dando peso a like, letture e visualizzazioni può essere considerato IA. Akismet può essere definito “IA”. L’elenco è lungo un miglio.
Allo stato attuale, l’industria è “preoccupata” per la sicurezza dell’IA nel contesto dei grandi modelli linguistici.
Allo stato attuale, Discourse core e Discourse AI non distribuiscono alcun grande modello linguistico. Discourse AI integra grandi modelli linguistici esistenti tramite API che gli amministratori possono inserire (Open AI e Anthropic), in futuro probabilmente supporteremo ancora più modelli.
Un grande modello linguistico (LLM) è un modello linguistico costituito da una rete neurale con molti parametri addestrati su grandi quantità di testo non etichettato utilizzando tecniche di deep learning. Questi modelli possono riconoscere, riassumere, tradurre, prevedere e generare testo e altre forme di dati. Gli LLM hanno visto significativi progressi negli ultimi anni, eccellendo in una varietà di compiti e trasformando i campi dell’intelligenza artificiale, della scienza e della società nel suo complesso [1][2].
Alcuni esempi di grandi modelli linguistici includono GPT-3 di OpenAI, che è addestrato a prevedere la parola successiva in una frase, molto simile a una funzione di completamento automatico dei messaggi di testo [3].
Testo tramite Google + GPT-4
Trovo gran parte di questa discussione alquanto perplessa, c’è la preoccupazione che “cancrizzeremo” il codice sorgente di Discourse? C’è la preoccupazione che avremo una dipendenza stretta e incondizionata da Open AI?
Preferisco decisamente il termine “stochastic parrot” coniato da Emily Bender e Timnit Gebru- è decisamente più accurato quando ci si riferisce a questi LLM.
Intendi tramite plugin, come è attualmente il caso?
La mia opinione è che se sei genuinamente perplesso, scommetterei che non sei abbastanza attivamente consapevole, informato o empatico verso le “conseguenze” perché potrebbe non esserci alcun valore apparente nello sviscerare questo, dato che il cavallo è già scappato e la porta del fienile è spalancata, quindi tutti lasciano andare!
Dici cancro, più come un’arma quantistica di distruzione [compila il vuoto], tuttavia alcuni penseranno che sia tutta iperbole. Va bene. Ognuno ha la sua opinione, ma sto pensando nel complesso e non specificamente a Discourse, quello che fai con lo sviluppo dipende da come funziona, quindi per chiarire il punto in relazione all’OP: Il motivo principale per cui chiedo è che, in qualità di amministratore di Discourse, hai un dovere nei confronti di una base di utenti e, sebbene questa possa essere una piccola parte in termini di mercato reale, la tua base di utenti o una parte della tua base di utenti è comunque importante, e potrebbe effettivamente desiderare di non utilizzare una piattaforma che impiega qualsiasi forma di questa generazione di IA quando si tratta dei contenuti che genera, per molte ragioni diverse. Allo stesso modo in cui potrebbero usare adblocker, non vogliono far parte di questa “cosa” - quando quella domanda arriva dal primo utente che la pone, è perché non c’era una politica sull’IA chiaramente indicata, devi anche avere una qualche forma di risposta che sia veritiera.
Pertanto, segregare gli strumenti di IA come plugin che non sono core è un buon approccio, ma se arrivasse il caso che l’IA fosse core, diciamo in un futuro aggiornamento, potrebbe lasciare spazio all’esitazione o al rifiuto totale della piattaforma.
Finché questa linea rimarrà chiara e delineata, allora potrebbe essere un modo soddisfacente per tutti di procedere e una chiara guida di sviluppo e rassicurazione potrebbero essere importanti anche qui.
Capisco anche che sia difficile inquadrarlo per ottenere l’accordo di tutti, ma ecco il nocciolo della questione ora, questo è ciò che accade quando viene posta una domanda per un motivo reale. Se il motivo è fondato o non si lascia scoraggiare, sarà la base per gli utenti per prendere decisioni di valore che si traducono in azioni.
Se si tratta semplicemente di una semplice affermazione che non c’è ChatGPT o IA simile nel core di Discourse, con la precisazione che una certa IA viene utilizzata nello sviluppo e nella creazione come strumento, questa potrebbe essere la risposta più vicina a una risposta soddisfacente per il comune utente su un forum Discourse.
Nel complesso, la questione di come l’IA influenzerà il web e, di conseguenza, il mondo è già stata affrontata e vista in termini di applicazione e conseguenze, questa fase di rilascio ufficiale di questi “giocattoli”, cioè dare una scatola di Pandora con API e tutto il resto al mondo dello sviluppo e, di conseguenza, al mondo, è un’escalation, poiché prima era una fase di apprendimento molto controllata e sperimentale e relativamente clandestina in cui questa IA era stata infusa in gran parte del web per anni senza che molte persone comuni se ne accorgessero nemmeno.
Mentre cerco di rimanere nell’ambito della mia domanda, se vuoi davvero essere meta e discutere del metafisico, allora dico pure, ma quell’argomento è già qui - How are we all feeling about ChatGPT and other LLMs and how they'll impact forums?
Un altro aspetto sono, diciamo, gli annunci. Presumo che Google utilizzi da tempo IA di questo tipo nei suoi servizi di erogazione di annunci e persino di analisi, ma almeno per ora gli utenti possono distribuire software di blocco e utilizzare VPN, anche quegli strumenti utilizzano l’IA?!
Forse si riduce a come le persone percepiscono l’IA e forse il modo più semplice per articolarlo è che alcuni la vedono come sandbox (strumenti), altri la vedono come un fuoco nel tessuto stesso della matrice della realtà che deve essere spento, in entrambi i casi sta succedendo e succederà qualunque cosa sia, ma ci sono sempre conseguenze, e a volte tutto ciò che hai è una scelta tra far parte della creazione di quelle conseguenze o mitigarle, quello che abbiamo con l’“industria” è che, secondo me, stanno facendo entrambe le cose.
Se mi chiedi di dire “Da ora… fino alla fine dell’universo puoi impegnarti a che i LLM non entrino mai nel prodotto principale”… la risposta è no.
Se mi chiedi “Sarò in grado di disattivarmi, se dovesse succedere qualcosa del genere?” La mia risposta è… probabilmente… tendiamo a concedere agli amministratori un’enorme libertà con le impostazioni e la configurazione del sito.
Ora, ti chiederei di dire qualcosa di diverso da ciò che è, poiché sarebbe irragionevole come indica la tua risposta sopra, chi può dirlo su una linea temporale infinita, certo, in realtà è uno sforzo per stabilire la posizione attuale del core di Discourse che utilizza attivamente l’IA nel miglior modo possibile.
Né sto cercando promesse.
Il mio suggerimento principale in anticipo rispetto a una risposta rimane lo stesso.
Considera di mantenere l’IA attiva separata dal core in modo che proprietari/amministratori abbiano una scelta chiara senza confusione. La mia preferenza è per questo rispetto a un’opzione on/off nell’amministrazione, chiamami paranoico e all’antica se vuoi, sto pensando a una sorta di air gap.
ChatGPT et al vengono interrogati in così tante piattaforme e strumenti, è selvaggio e in termini generali le implicazioni sono vaste, quindi perché Discourse dovrebbe perdere il treno (non l’ha fatto, il plugin è quell’evento nella linea temporale dello sviluppo di Discourse).
Considero la domanda chiarita per quanto possibile e spero che se ci fosse un cambiamento dimostrabile nell’equilibrio del gioco, verrebbe fatta una comunicazione molto chiara in anticipo o in un lasso di tempo adeguato.
Avere un forum con IA attiva profondamente integrata nel core potrebbe essere un passo troppo lontano per alcuni amministratori/proprietari e/o basi di utenti, e penso che l’IA dovrebbe essere considerata qualcosa di ancora più grande di un evento di paradigma che è meta+