Hi there, I wanted to report some aggressive crawling by the bot with the user agent
Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/600.2.5 (KHTML, like Gecko) Version/8.0.2 Safari/600.2.5 (Amazonbot/0.1; +https://developer.amazon.com/support/amazonbot)
It seems to be a bot by amazon but I couldn’t check the originating IP addresses to confirm that.
This is what the last 5 days look like:
For comparison, this our user agents table for the last two days. 39649 vs 457
I personally don’t care too much about this as we’re not the ones doing the hosting and we haven’t noticed performance issues but CDCK is. So I figured this could be interesting to share here.
From our site and container logs it appears that there was a spike only that particular day and only on that site
May 1st:
Client IP
Amazonbot*
107.23.182.118
3,560
54.90.49.0
3,210
35.175.129.27
3,204
3.80.18.217
2,646
35.153.79.214
2,529
34.201.164.175
2,432
107.21.55.67
1,959
34.204.61.165
1,538
18.208.120.81
1,473
100.25.191.160
1,276
* Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/600.2.5 (KHTML, like Gecko) Version/8.0.2 Safari/600.2.5 (Amazonbot/0.1; +https://developer.amazon.com/support/amazonbot)
I see. Thanks for checking it. Probably a technical user, having a bad day and making a trashy bot to target our website with no effect. We’ve since blocked that crawler.
Dato che sono stato appena colpito da qualcosa di simile…
Sono molto felice che Alexa possa utilizzare i contenuti del mio sito per rispondere alle domande, quindi non voglio davvero bloccarla. Tuttavia, ho appena visto un picco di tre giorni di traffico intenso da AmazonBot (rispetto a tutto il resto dell’utilizzo del sito, inclusi tutti gli altri bot combinati, nonché tutto il resto del traffico del sito in generale), e vedo che Amazon dice:
AmazonBot non supporta la direttiva crawl-delay in robots.txt
Sembra quindi prudente aggiungere Amazonbot a slow_down_crawler_user_agents in modo che non abbiano un impatto sproporzionato sulle prestazioni del sito per gli utenti.
Grazie, gente di Discourse, per aver implementato una funzionalità che i crawler dovrebbero avere, ma in questo caso non hanno.