Hi,
It seems that Discourse has some trouble dealing with Chinese characters. Our users cannot submit topics/posts if they use in chinese? In this case, I can see that it’s a long message but we still get the “Body seems unclear” message.
Any idea?
Hi,
It seems that Discourse has some trouble dealing with Chinese characters. Our users cannot submit topics/posts if they use in chinese? In this case, I can see that it’s a long message but we still get the “Body seems unclear” message.
Any idea?
I see what is happening here.
We automatically disable this on Chinese forums but your forum appears to be English with a Chinese category.
Just set body min entropy to 0 in site settings.
Hum. Correction. It seems setting the body min entropy to 0 did not fix the issue. I tried with another text in Chinese and I still get the same error even though the body min entropy is set to 0


Did i miss something?
Hi,
Following up on this issue. I’m running some test with the latest version of discourse.
Body min entropy is set to 0. Same for Title min entropy.
When trying to create a topic with the body below I get the “Body unclear” error:
【澳門日報5月29日消息】國際會議協會(ICCA)日前發佈《二○一七年國際協會會議市場年度報告》。當中澳門多項評比的排位連續兩年均有上升,其中全球城市排名由一六年的七十二名躍升至第六十五名;亞太區域城市排名升一位至第十六,排名超過瑞士的日內瓦、澳大利亞的布里斯班、阿拉伯聯合酋長國的迪拜、韓國的釜山和濟州等城市
Is there a quick work around on this? My Chinese users are getting nervous because of this issue.
Thx
Seb
I’ve clarified this issue. But newbie is only able to put single picture on a post. So just a evidence and conclusion.
Conclusion, for both title and body
Sorry for reviving this, but we have hit the same issue on our Forum which is primarily in English, but some sections in other scripts. Setting body min entropy to 0 did not fix this.
The issue seems to be that the use of some latin characters trips the all caps check. Here’s an example of a message that bumps into the Body seems unclear notice:
我看了一下,我8/15寄往俄罗斯的明信片10/13对方收到了,但是10/27寄的对方还没收到,现在已经36天了(不过同一批寄往不同国家的也没被收到)。
因为我是直接投的邮筒所以也不太清楚是不是寄不过去… 如果你在UCPC微信群里也许可以问下大家?
Is the allow uppercase posts the only solution here? On forums like ours where English is the main language, enabling that is not ideal, but I can also understand the frustration of users entering a valid message in their script bumping into that error. Could checking the ratio of CAPS versus the size of the body help here?
That is what it does and in you example the ratio is 100%.
When a forum default language is set to Chinese we tweak those settings automatically, but if you have mixed languages in a single instance you need to tweak that setting.
If the text has a single letter character that has no upper/lower case variant (like with Chinese), then the text is automatically not all uppercase. This could be checked by matching against /\p{Lo}/ in here.
This approach would not require a special setting tweak for forums primarily in zh//ko/ja and can also play well with forums where mixed languages are used, only enforcing the allow upper case where only uppercase-able characters are used.
Maybe a similar logic could also be used to optimize the existing check for all caps: if the text matches /\p{Ll}/ (lowercase letter that has an uppercase variant), then the text is not all caps.
Sounds like a good idea for a pull request!
My Ruby chops are nearly non existent, but I can try to put something together as it is somewhat contained.
With that said, I’m seeing a TODO at the top of that file which seems related with this precise line of code. Is it as simple as remove the require, or should someone that knows what they are doing go for this PR?
لقد حاولت في FIX: Allow all caps within CJK text by mentalstring · Pull Request #27900 · discourse/discourse · GitHub
لا أزال بعيدًا عن كوني مطور Ruby، لذا تحملوني. ![]()
شكراً @mentalstring، لقد استخدمت طلب السحب الخاص بك كمصدر إلهام لـ
والذي يتضمن أيضًا بعض التحسينات وأفضل معالجة للمناطق غير اللاتينية ![]()
(مع الإشارة إلى @lindsey)
يسعدني رؤية هذا الأمر معالجًا!
ندير منتدى دوليًا وبينما الإنجليزية هي اللغة الرئيسية، لدينا فئات مخصصة للغات أخرى وكان هذا مصدر إزعاج طويل الأمد.
الآن بعد أن تم استخدام skipped_locale فقط لـ seems_unpretentious، أتساءل عما إذا كان بإمكاننا تخطي ‘ko’ لأن اللغة الكورية الحديثة تستخدم المسافات؟ ضع في اعتبارك أنني لا أتحدث الكورية، لذلك قد ترغب في التحقق من ذلك مرة أخرى.
بينما لفت انتباهك، هناك شيء آخر أعتقد أنه يمكن أن يكون تحسينًا سهلاً لـ TextSentinel ولكني لم أجرؤ على لمسه (مرة أخرى، لست مطور Ruby). إذا كان لديك لحظة، أعتقد أنه بسيط جدًا ويمكن أن يحقق مكاسب أداء مجانية.
على حد فهمي، هذا يتحقق مما إذا كانت الكلمة أطول من الحد عن طريق تقسيم النص إلى كلمات، وحساب طول كل كلمة، ومسح جميع الأطوال للعثور على الأطول، ثم مقارنة ذلك بالحد.
هل يمكننا ربما تخطي كل ذلك عن طريق محاولة مطابقة النص مع شيء مثل /\\p{Alnum}{#{max_word_length + 1},}/ (الصيغة على الأرجح خاطئة، ولكن نأمل أن تفهم الفكرة)؟
بدون معرفة العمليات الداخلية لـ Ruby، من المرجح أن يتوقف التحقق بمجرد وجود تطابق، وإذا لم تكن هناك كلمة طويلة جدًا (وهي الحالة الأكثر شيوعًا)، يتم مسح النص مرة واحدة فقط، مع تخطي التقسيم، وفحص طول الكلمة الفردية، وما إلى ذلك.
آسف إذا كنت أقوم باختطاف الموضوع هنا، ولكن نظرًا لأن طلب السحب الجديد قد تم دمجه بالفعل، لست متأكدًا من أفضل مكان لنشر هذا لأنه ربما يكون صغيرًا جدًا بحيث لا يستحق موضوعًا جديدًا، ولكنه يبدو مكسبًا سهلاً. لا تتردد في المضي قدمًا.
ليس لدي أي فكرة أيضًا. أود الحصول على بعض التأكيد من المتحدثين باللغة الكورية.
هذه فكرة ممتازة ![]()
رائع!
شكراً على تخصيص الوقت.
ربما يمكن لأحد المترجمين الكوريين (/cc @9bow، @alexkoala، @changukshin
) تأكيد أن اللغة الكورية الحديثة تستخدم مسافات بين الكلمات بشكل مشابه للنصوص الرومانية/اللاتينية، حتى يتمكن Discourse من استخدام هذا الافتراض عند معالجة النص الكوري للعثور على الكلمات الطويلة جدًا؟ ![]()