Sì, l’esperienza utente è fondamentale, è il punto centrale di questo argomento. Esistiamo solo grazie agli “utenti”, ma a volte mi chiedo se gli sviluppatori e simili lo dimentichino. 
Queste cose IA caricano così tanto il server che si iniziano a ottenere errori 50x. Soprattutto se si tenta una ricerca. La piattaforma può gestire molto traffico e resistere, ma diventa un po’ scattosa.
Mi chiedo con quale specifica si abbia a che fare e se sia dietro CF o un altro WAF?
Ho visto questo picco di IA colpire droplet 4vCPU 8Gb 160+Gb HD, che gestiscono facilmente decine di utenti unici colpiti da un vero picco di visitatori unici, iniziare a soffrire davvero sotto la suzione dell’IA.
Eseguendo Discourse su un droplet entry-level, diciamo un droplet da 2GB, molto rapidamente la piattaforma inizierà a cedere e collassare, se non è protetta da qualcosa come CF.
Questo fattore non si verificava prima dell’IA, a meno che non ci fosse un argomento caldo. L’ho visto accadere, ma solo dopo, perché non c’era una differenza percepibile nelle prestazioni, Discourse gestiva il servizio senza problemi.
Guardando i dati medi di CF serviti al giorno, sono circa 2Gb al giorno su un mese, quando questo sciame ha colpito è saltato a 14GB senza segno di fermarsi, finché alcune regole del WAF non hanno messo ordine nell’assalto.
Dover intensificare l’attrito all’ingresso significa che gli utenti che vogliono davvero entrare ci riescono, devi dare valore a quelli, ma più o meno il traffico organico extra e così via, beh, quello non darà fastidio.
Come ho detto, la sostenibilità a medio-lungo termine qui pone un problema davvero serio.
Ora richiede risorse di tempo e anche denaro, uno o entrambi. Non ho idea di come aggirare questo problema in altro modo, se non con la postura attuale, e poi c’è l’opzione nucleare, staccare la spina. Ho visto siti chiudere per meno.
Internet aperto non è stato costruito pensando a questo tipo di gioco.