API経由で投稿を追加しました。以下のスニペットが含まれています。

ここで見えるように、エディタでは正しくレンダリングされています。
保存直後は、トピックでも正しく表示されます。しかし、ウェブサイトをリロードすると、次のようにレンダリングされます。

すでに試したこと:
- データベース内の生のコンテンツが正しいことを確認しました。
- Webインターフェースから「HTMLの再構築」を選択しました。
- サーバーコンソールから
rake posts:rebake を実行しました(エラーなし)。
- ブラウザキャッシュを無効にして、古いレンダリングを見ていないことを確認しました。
./launcher restart app を使用してアプリを再起動しました。
- サーバー全体を再起動しました。
この時点で他に何をすればよいかわかりません。さらにデバッグする方法についてのヒントはありますか?
これはDockerを使用した新規の標準インストールです。バージョンは 3.2.0.beta4-dev です。
念のため、メッセージを手動で作成した場合でも、同様の問題が発生しますか?
また、これは思いつきですが、画像が表示されるように、前に改行を挿入してみましたか?
こちら側では、APIを使用した場合でも、手動で実行した場合でも、再現できませんでした。
画像リンクの追加方法について、その形式には詳しくありませんが、問題が block hotlinked media 設定に関連している可能性はありませんか?
アイデアありがとうございます。しかし、この設定は私のインスタンスでは有効になっていません。
「いいね!」 1
pfaffman
(Jay Pfaffman)
5
Imgur によってサーバーがレート制限されています。ブラウザで画像を読むことはできますが、サーバーからダウンロードすることはできません。
サーバーから curl や wget で画像を取得しようとすると、エラーが発生します。
「いいね!」 3
これをテストしたところ、そこでも発生しました。したがって、APIに関連しているわけではないようです(トピックタイトルを調整します)。
違いはありません。これはまだ発生しています。再現については、これを完全なトピックコンテンツとして使用することで、確実に再現できます。
Test

なるほど、わかりました。これは、インポートを実行する前に12万件のトピックをインポートしたため、Imgurから多くの画像をフェッチしたことになります。
クライアントがすべての画像リクエストを行うと思っていました!
サーバーがこれらのリクエストを行うのは興味深いですね。元の画像が消えた場合にローカルにキャッシュするためでしょうか?
12万件の投稿がより長い期間にわたって構築されるように、プロセスを分散させる方法を探します。これにより、サーバーがブラックリストに登録されたり、レート制限されたりするのを防ぐことができます。
このサーバーでは問題ありませんが、統合時のみです。しかし、本番環境でインポートを行う際には、これを避けたいです:sweat_smile:
新しい質問として継続します: How to spread out import over longer timer to prevent running into rate limits of external services
「いいね!」 1
pfaffman
(Jay Pfaffman)
8
そうです。
この動作を有効にする設定をオフにしない限り。
別のマシンでインポートを実行し、バックアップを本番環境に復元してください。より複雑な解決策としては、サーバーがプロキシサーバー経由でコンテンツを取得するように工夫することです。
「いいね!」 1
system
(system)
クローズされました:
9
This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.