Docker Manager: AGGIORNAMENTO FALLITO

Ciao,

Ho provato ad aggiornare Discourse, ma ho ricevuto questo messaggio:

Spiacenti, si è verificato un errore durante l’aggiornamento di Discourse. Si prega di controllare i log riportati di seguito.

********************************************************
*** Si prega di attendere, i prossimi passaggi potrebbero richiedere del tempo ***
********************************************************
Riavvio di Unicorn per liberare memoria
Riavvio di unicorn pid: 663
In attesa del ricaricamento di Unicorn.
In attesa del ricaricamento di Unicorn..
In attesa del ricaricamento di Unicorn...
In attesa del ricaricamento di Unicorn....
Utilizzo di oj 3.10.15
Utilizzo di optimist 3.0.1
Utilizzo di pg 1.2.3
Utilizzo di r2 0.2.7
Utilizzo di raindrops 0.19.1
Utilizzo di rchardet 1.8.0
Utilizzo di rinku 2.0.6
Utilizzo di rotp 6.2.0
Utilizzo di rqrcode_core 0.1.2
Utilizzo di rtlit 0.0.5
Utilizzo di rubyzip 2.3.0
Utilizzo di tilt 2.0.10
Utilizzo di sshkey 2.0.0
Utilizzo di stackprof 0.2.16
Utilizzo di unf_ext 0.0.7.7
Utilizzo di xorcist 1.1.2
Utilizzo di i18n 1.8.5
Utilizzo di tzinfo 1.2.7
Utilizzo di nokogiri 1.10.10
Utilizzo di rack-test 1.1.0
Utilizzo di mail 2.7.1
Utilizzo di addressable 2.7.0
Utilizzo di aws-sigv4 1.2.0
Utilizzo di barber 0.12.2
Utilizzo di cose 1.2.0
Utilizzo di ember-data-source 3.0.2
Utilizzo di sprockets 3.7.2
Utilizzo di discourse_image_optim 0.26.2
Utilizzo di faraday 1.1.0
Utilizzo di request_store 1.5.0
Utilizzo di message_bus 3.3.4
Utilizzo di pry 0.13.1
Utilizzo di rack-mini-profiler 2.2.0
Utilizzo di rack-protection 2.1.0
Utilizzo di uglifier 4.2.0
Utilizzo di logstash-logger 0.26.1
Utilizzo di mini_racer 0.3.1
Utilizzo di sidekiq 6.1.2
Utilizzo di mini_suffix 0.3.0
Utilizzo di nokogumbo 2.0.2
Utilizzo di omniauth 1.9.1
Utilizzo di puma 5.0.4
Utilizzo di rbtrace 0.4.14
Utilizzo di redis-namespace 1.8.0
Utilizzo di rqrcode 1.1.2
Utilizzo di ruby-readability 0.7.0
Utilizzo di sassc 2.0.1
Utilizzo di unf 0.1.4
Utilizzo di unicorn 5.7.0
Utilizzo di webpush 1.0.0
Utilizzo di activesupport 6.0.3.3
Utilizzo di loofah 2.7.0
Recupero di bootsnap 1.5.0
Utilizzo di ember-handlebars-template 0.8.0
Utilizzo di mini_scheduler 0.12.3
Utilizzo di oauth2 1.4.4
Utilizzo di omniauth-oauth 1.1.0
Utilizzo di sanitize 5.2.1
Utilizzo di pry-byebug 3.9.0
Utilizzo di pry-rails 0.3.9
Utilizzo di rails-dom-testing 2.0.3
Utilizzo di rails-html-sanitizer 1.3.0
Utilizzo di globalid 0.4.2
Utilizzo di activemodel 6.0.3.3
Utilizzo di aws-sdk-core 3.99.1
Utilizzo di css_parser 1.7.1
Utilizzo di actionview 6.0.3.3
Utilizzo di activejob 6.0.3.3
Utilizzo di active_model_serializers 0.8.4
Utilizzo di activerecord 6.0.3.3
Utilizzo di aws-sdk-kms 1.31.0
Utilizzo di aws-sdk-sns 1.25.1
Utilizzo di omniauth-oauth2 1.7.0
Utilizzo di omniauth-twitter 1.4.0
Utilizzo di onebox 2.1.4
Utilizzo di actionpack 6.0.3.3
Utilizzo di actionview_precompiler 0.2.3
Utilizzo di aws-sdk-s3 1.66.0
Utilizzo di omniauth-facebook 8.0.0
Utilizzo di omniauth-github 1.4.0
Utilizzo di omniauth-google-oauth2 0.8.0
Utilizzo di seed-fu 2.3.9
Utilizzo di actionmailer 6.0.3.3
Utilizzo di railties 6.0.3.3
Utilizzo di sprockets-rails 3.2.2
Utilizzo di jquery-rails 4.4.0
Utilizzo di lograge 0.11.2
Utilizzo di rails_failover 0.5.7
Utilizzo di rails_multisite 2.5.0
Utilizzo di sassc-rails 2.1.2
Utilizzo di discourse-ember-rails 0.18.6
Installazione di bootsnap 1.5.0 con estensioni native
Bundle completo! 123 dipendenze del Gemfile, 161 gemme ora installate.
Le gemme nei gruppi test e development non sono state installate.
Le gemme del bundle sono installate in `./vendor/bundle`
$ bundle exec rake plugin:pull_compatible_all
docker_manager è già all'ultima versione compatibile
discourse-data-explorer è già all'ultima versione compatibile
$ SKIP_POST_DEPLOYMENT_MIGRATIONS=1 bundle exec rake multisite:migrate
Il migratore multisito è in esecuzione con 1 thread

Migrazione del sito predefinito
== 20201027110546 CreateLinkedTopics: in corso ===============================
-- create_table(:linked_topics)
   -\u003e 0.0524s
-- add_index(:linked_topics, [:topic_id, :original_topic_id], {:unique=\u003etrue})
   -\u003e 0.0066s
-- add_index(:linked_topics, [:topic_id, :sequence], {:unique=\u003etrue})
   -\u003e 0.0045s
== 20201027110546 CreateLinkedTopics: migrato (0.0676s) ======================

Inserimento dati per il sito predefinito

[...]\n\n\nCompletata la compressione di locales/ko-0c530732e52b234cd31ea1959ec4b5127cfcc2cb5b076d4999abfa0530e5bba5.js : 0.11 secondi\n\n8625116.65540771 Compressione in corso: application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js\nuglifyjs '/var/www/discourse/public/assets/_application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js' -m -c -o '/var/www/discourse/public/assets/application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js' --source-map \"base='/var/www/discourse/public/assets',root='/assets',url='/assets/application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js.map'\"\nUcciso\nDocker Manager: AGGIORNAMENTO FALLITO\n#\u003cRuntimeError: RuntimeError\u003e\n/var/www/discourse/plugins/docker_manager/lib/docker_manager/upgrader.rb:178:in `run'\n/var/www/discourse/plugins/docker_manager/lib/docker_manager/upgrader.rb:86:in `upgrade'\n/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:19:in `block in \u003cmain\u003e'\n/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:6:in `fork'\n/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:6:in `\u003cmain\u003e'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:59:in `load'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:59:in `load'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/commands/runner/runner_command.rb:42:in `perform'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/thor-1.0.1/lib/thor/command.rb:27:in `run'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/thor-1.0.1/lib/thor/invocation.rb:127:in `invoke_command'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/thor-1.0.1/lib/thor.rb:392:in `dispatch'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/command/base.rb:69:in `perform'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/command.rb:46:in `invoke'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/commands.rb:18:in `\u003cmain\u003e'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:23:in `require'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:23:in `block in require_with_bootsnap_lfi'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/loaded_features_index.rb:92:in `register'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:22:in `require_with_bootsnap_lfi'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:31:in `require'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/activesupport-6.0.3.3/lib/active_support/dependencies.rb:324:in `block in require'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/activesupport-6.0.3.3/lib/active_support/dependencies.rb:291:in `load_dependency'\n/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/activesupport-6.0.3.3/lib/active_support/dependencies.rb:324:in `require'\nbin/rails:17:in `\u003cmain\u003e'\nAvvio di 1 worker(i) di Unicorn che erano inizialmente fermi
1 Mi Piace

La tua macchina ha RAM e swap adeguate? I comandi free o top possono dirtelo. Inoltre, puoi provare a eseguire
dmesg | egrep -3i kill
per verificare se ci sono informazioni su un processo terminato. Sospetto un problema di memoria esaurita (il killer OOM).

1 Mi Piace

Well, oddly enough, my upgrade just failed the same way! I had successfully updated docker manager and data explorer, and got the ‘killed’ failure at the same step, running uglifyjs on the same file.

I have a Digital Ocean droplet with 1G RAM and 2G swap, and a relatively small forum (a backup is 700MByte)

Here’s my dmesg log, FWIW:

[36473663.447053] systemd-journal invoked oom-killer: gfp_mask=0x14200ca(GFP_HIGHUSER_MOVABLE), nodemask=(null), order=0, oom_score_adj=0
[36473663.447056] systemd-journal cpuset=/ mems_allowed=0
[36473663.447070] CPU: 0 PID: 22784 Comm: systemd-journal Not tainted 4.15.0-60-generic #67-Ubuntu
[36473663.447071] Hardware name: DigitalOcean Droplet, BIOS 20171212 12/12/2017
[36473663.447081] Call Trace:
[36473663.447349]  dump_stack+0x63/0x8b
[36473663.447388]  dump_header+0x71/0x285
[36473663.447393]  oom_kill_process+0x21f/0x420
[36473663.447395]  out_of_memory+0x2b6/0x4d0
[36473663.447405]  __alloc_pages_slowpath+0xa53/0xe00
[36473663.447410]  __alloc_pages_nodemask+0x29a/0x2c0
[36473663.447774]  alloc_pages_current+0x6a/0xe0
[36473663.447937]  __page_cache_alloc+0x81/0xa0
[36473663.447942]  filemap_fault+0x3ea/0x6f0
[36473663.447953]  ? page_add_file_rmap+0x134/0x180
[36473663.447957]  ? filemap_map_pages+0x181/0x390
[36473663.448469]  ext4_filemap_fault+0x31/0x44
[36473663.448476]  __do_fault+0x5b/0x115
[36473663.448479]  __handle_mm_fault+0xdef/0x1290
[36473663.448482]  handle_mm_fault+0xb1/0x210
[36473663.448502]  __do_page_fault+0x281/0x4b0
[36473663.448507]  do_page_fault+0x2e/0xe0
[36473663.448683]  ? async_page_fault+0x2f/0x50
[36473663.448851]  do_async_page_fault+0x51/0x80
[36473663.448856]  async_page_fault+0x45/0x50
[36473663.448865] RIP: 0033:0x7fea40ede2a0
[36473663.448866] RSP: 002b:00007ffeefb58698 EFLAGS: 00010246
[36473663.448869] RAX: 0000000000000000 RBX: 0000000000000000 RCX: 0000000000000000
[36473663.448870] RDX: 00005591e7e980d8 RSI: 0000000000000001 RDI: 00007ffeefb586e8
[36473663.448871] RBP: 0000000000000003 R08: 0000000000000000 R09: 0000000000000000
[36473663.448872] R10: 0000000000000000 R11: 00005591e7e980d7 R12: 0000000000000001
[36473663.448873] R13: 00007ffeefb58f2b R14: 0005b3218d061ac0 R15: 00007ffeefb5b110
[36473663.448876] Mem-Info:
[36473663.448881] active_anon:103502 inactive_anon:103644 isolated_anon:0
                   active_file:11 inactive_file:28 isolated_file:0
                   unevictable:0 dirty:0 writeback:0 unstable:0
                   slab_reclaimable:6881 slab_unreclaimable:11795
                   mapped:200 shmem:924 pagetables:5723 bounce:0
                   free:12159 free_pcp:177 free_cma:0
[36473663.448886] Node 0 active_anon:414008kB inactive_anon:414576kB active_file:44kB inactive_file:112kB unevictable:0kB isolated(anon):0kB isolated(file):0kB mapped:800kB dirty:0kB writeback:0kB shmem:3696kB shmem_thp: 0kB shmem_pmdmapped: 0kB anon_thp: 0kB writeback_tmp:0kB unstable:0kB all_unreclaimable? no
[36473663.448887] Node 0 DMA free:4392kB min:756kB low:944kB high:1132kB active_anon:5156kB inactive_anon:4388kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:15992kB managed:15908kB mlocked:0kB kernel_stack:16kB pagetables:376kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
[36473663.448897] lowmem_reserve[]: 0 909 909 909 909
[36473663.448901] Node 0 DMA32 free:44244kB min:44296kB low:55368kB high:66440kB active_anon:408852kB inactive_anon:410188kB active_file:44kB inactive_file:112kB unevictable:0kB writepending:0kB present:1032172kB managed:993356kB mlocked:0kB kernel_stack:3360kB pagetables:22516kB bounce:0kB free_pcp:708kB local_pcp:708kB free_cma:0kB
[36473663.448906] lowmem_reserve[]: 0 0 0 0 0
[36473663.448910] Node 0 DMA: 20*4kB (UME) 9*8kB (UE) 27*16kB (UME) 25*32kB (UE) 13*64kB (UME) 7*128kB (UE) 3*256kB (UME) 1*512kB (E) 0*1024kB 0*2048kB 0*4096kB = 4392kB
[36473663.448924] Node 0 DMA32: 5*4kB (MH) 4460*8kB (UEH) 236*16kB (UEH) 107*32kB (UEH) 7*64kB (H) 3*128kB (H) 2*256kB (H) 0*512kB 0*1024kB 0*2048kB 0*4096kB = 44244kB
[36473663.449132] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=1048576kB
[36473663.449147] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
[36473663.449149] 6868 total pagecache pages
[36473663.449151] 5896 pages in swap cache
[36473663.449153] Swap cache stats: add 105451532, delete 105445636, find 1375786355/1418920464
[36473663.449153] Free swap  = 0kB
[36473663.449154] Total swap = 2097144kB
[36473663.449156] 262041 pages RAM
[36473663.449156] 0 pages HighMem/MovableOnly
[36473663.449157] 9725 pages reserved
[36473663.449158] 0 pages cma reserved
[36473663.449158] 0 pages hwpoisoned
[36473663.449160] [ pid ]   uid  tgid total_vm      rss pgtables_bytes swapents oom_score_adj name
[36473663.449180] [  404]     0   404    24427        0    90112       53             0 lvmetad
[36473663.449184] [  408]     0   408    11305       81   114688      169         -1000 systemd-udevd
[36473663.449187] [  621] 62583   621    35482        0   188416      183             0 systemd-timesyn
[36473663.449189] [  697]   100   697    17992        0   167936      194             0 systemd-network
[36473663.449192] [  715]   101   715    17689        0   176128      187             0 systemd-resolve
[36473663.449194] [  889]     0   889   163096        0   163840      537             0 lxcfs
[36473663.449197] [  891]   102   891    65759       42   163840      406             0 rsyslogd
[36473663.449199] [  894]     0   894     7937        0   102400       77             0 cron
[36473663.449202] [  896]     0   896     7083        0   102400       61             0 atd
[36473663.449204] [  900]   103   900    12545        0   143360      200          -900 dbus-daemon
[36473663.449212] [  907]     0   907    42752        2   237568     1979             0 networkd-dispat
[36473663.449215] [  910]     0   910    17665        2   176128      207             0 systemd-logind
[36473663.449217] [  914]     0   914    71996       32   204800      198             0 accounts-daemon
[36473663.449220] [  919]     0   919   194250     1174   303104     3846             0 containerd
[36473663.449222] [  920]     0   920   230106     2962   585728     8271          -500 dockerd
[36473663.449225] [  925]     0   925     4103        0    77824       38             0 agetty
[36473663.449227] [  931]     0   931     3722        0    73728       36             0 agetty
[36473663.449230] [  939]     0   939    72220        0   200704      249             0 polkitd
[36473663.449237] [  942]     0   942    18074        3   176128      187         -1000 sshd
[36473663.449240] [  951]     0   951    46930        0   266240     2008             0 unattended-upgr
[36473663.449242] [22784]     0 22784    26418       41   225280     2854             0 systemd-journal
[36473663.449245] [25413]     0 25413   101377        0   122880      360          -500 docker-proxy
[36473663.449248] [25424]     0 25424   119810        0   126976      362          -500 docker-proxy
[36473663.449256] [25430]     0 25430    27189       62    73728      194          -999 containerd-shim
[36473663.449259] [25454]     0 25454     1666        1    49152       79             0 boot
[36473663.449261] [25534]     0 25534      578        6    40960       15             0 runsvdir
[36473663.449263] [25535]     0 25535      540        0    40960       26             0 runsv
[36473663.449266] [25536]     0 25536      540        0    40960       22             0 runsv
[36473663.449268] [25537]     0 25537      540        0    40960       24             0 runsv
[36473663.449270] [25538]     0 25538      540        0    40960       29             0 runsv
[36473663.449273] [25539]     0 25539      540        0    40960       24             0 runsv
[36473663.449275] [25540]     0 25540      540        3    40960       13             0 runsv
[36473663.449277] [25541]     0 25541      576        0    45056       35             0 svlogd
[36473663.449280] [25542]   105 25542    53482       35   159744      442             0 postmaster
[36473663.449282] [25543]     0 25543    13506        1    81920      282             0 nginx
[36473663.449284] [25544]  1000 25544     3783       58    57344       62             0 unicorn_launche
[36473663.449286] [25545]     0 25545      576        0    45056       25             0 svlogd
[36473663.449289] [25547]     0 25547     2110       27    57344       42             0 cron
[36473663.449291] [25548]     0 25548    39047        0    77824      203             0 rsyslogd
[36473663.449293] [25546]   106 25546    23422      738   192512     5508             0 redis-server
[36473663.449296] [25561]    33 25561    13971      190    86016      465             0 nginx
[36473663.449298] [25562]    33 25562    13647       34    73728      302             0 nginx
[36473663.449305] [25570]   105 25570    53537       43   417792      510             0 postmaster
[36473663.449308] [25571]   105 25571    53515       67   417792      459             0 postmaster
[36473663.449310] [25572]   105 25572    53482       32   147456      457             0 postmaster
[36473663.449313] [25573]   105 25573    53650      117   159744      494             0 postmaster
[36473663.449315] [25574]   105 25574    17255      135   135168      443             0 postmaster
[36473663.449318] [25575]   105 25575    53616       46   147456      510             0 postmaster
[36473663.449320] [ 4226]  1000  4226  2211682        0  1052672    65182             0 ruby
[36473663.449323] [ 4227]  1000  4227  2211682        0  1052672    65183             0 ruby
[36473663.449326] [ 4228]  1000  4228  2209633        1  1048576    63664             0 ruby
[36473663.449329] [ 5795]  1000  5795  2192955        0   901120    56821             0 ruby
[36473663.449331] [ 5796]  1000  5796  2192955        0   901120    56821             0 ruby
[36473663.449333] [ 5797]  1000  5797  2198075        0   942080    59138             0 ruby
[36473663.449335] [ 7772]  1000  7772  2191931        0   888832    60531             0 ruby
[36473663.449338] [ 7773]  1000  7773  2193980        0   892928    60533             0 ruby
[36473663.449340] [ 7774]  1000  7774  2201147        0   966656    58519             0 ruby
[36473663.449343] [ 2288]  1000  2288  2209634        0  1060864    61931             0 ruby
[36473663.449351] [ 2289]  1000  2289  2209634        0  1060864    61931             0 ruby
[36473663.449353] [ 2290]  1000  2290  2209634        0  1060864    62542             0 ruby
[36473663.449356] [ 5703]  1000  5703    85022    31182   630784     9841             0 ruby
[36473663.449358] [ 5769]  1000  5769    85061    13030   643072    37318             0 ruby
[36473663.449360] [ 5860]   105  5860    56272       91   311296     2231             0 postmaster
[36473663.449363] [ 5966]  1000  5966  2195273    31501   925696    25578             0 ruby
[36473663.449365] [ 6043]   105  6043    54544      368   352256     1199             0 postmaster
[36473663.449368] [ 6288]  1000  6288      597        0    40960       21             0 sh
[36473663.449370] [ 6289]  1000  6289  4448400    61634  1380352    48635             0 bundle
[36473663.449373] [ 7218]  1000  7218      597       17    40960        0             0 sh
[36473663.449375] [ 7219]  1000  7219   198147    65087  4608000      134             0 node
[36473663.449377] Out of memory: Kill process 6289 (bundle) score 142 or sacrifice child
[36473663.454341] Killed process 7218 (sh) total-vm:2388kB, anon-rss:68kB, file-rss:0kB, shmem-rss:0kB
[36473663.531344] oom_reaper: reaped process 7218 (sh), now anon-rss:0kB, file-rss:0kB, shmem-rss:0kB
1 Mi Piace

A costo di un breve periodo di inattività, sono riuscito a completare l’aggiornamento applicando la consueta soluzione alternativa:

./launcher rebuild app

Tuttavia, dato che 1 GB di RAM + 2 GB di swap costituiscono la configurazione minima consigliata per un forum di piccole dimensioni, sembra che qualcosa non vada.

Durante la ricostruzione, l’utilizzo della memoria virtuale non è stato eccessivo: il punto più basso, durante lo stesso processo di uglifyjs, è stato

# free
              total        used        free      shared  buff/cache   available
Mem:        1009264      380204      537900        5712       91160      510756
Swap:       2097144      498540     1598604
4 Mi Piace

Grazie,
Funziona!

1 Mi Piace

“killed” significa fuori memoria.

Questo è probabilmente legato alle modifiche del gestore Docker che tentano di mantenere il sito attivo più a lungo durante l’aggiornamento, il che avrebbe aumentato i requisiti di RAM durante l’aggiornamento.

La ricostruzione del contenitore funzionerà sempre perché porta temporaneamente il sito offline, ottenendo così la massima RAM disponibile.

3 Mi Piace

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.