良い指摘ですね。それは、可能性のある選択肢として提案されただけでした。そのブログ記事以降、GPT4-TurboやClaude 3のようなより優れたモデルが登場しており、理論的にはより良いパフォーマンスを示唆する可能性があります。
「いいね!」 1
これは全体的なアプローチに対する批判ではありませんでした。
LLMを使用して、スパムを示唆する可能性のあるテキストの特徴を探すことは、非常に優れた目標であり、全面的に歓迎します。
私の唯一の問題は、AIによって生成されたテキストを自動的に特定できるという主張でした。これは非常に難しい問題です。
区別を以下に示します。
- LLMによる一般的なスパムの特定 = 素晴らしい。これが実行可能で非常に価値があることは理解できます。
- スパムがAIによって生成されたことの特定 - LLMの使用の有無にかかわらず、これは困難です。現在のモデルがこれをうまく特定できるとは思えません。肯定的な結果は、おそらく単なる幻覚でしょう。
「いいね!」 3
おっしゃることはよくわかります!そうですね、もっとニュアンスのある問題です。実際、私の最初のテストでは、両方に対応できるように設定しようとしましたが、スパムに焦点を当てる方が、ここではより良い結果が得られるでしょう。
「いいね!」 2
合意ですね。
ただ、AIであることの兆候はいくつかあると思います。例えば、投稿の長さや、異常に装飾的な言葉遣いの多用などです。ですから、それらの側面を分析できるかもしれません。投稿の長さはLLMには難しいかもしれませんが、「装飾的な」度合いはそれほど難しくないかもしれません。もちろん、投稿の長さをフラグ付けするために決定論的な関数を使用することもできます。
とはいえ、もし誰かが例えば第二言語としての英語を向上させるためにChatGPTを使用したとしたら、その投稿にフラグを立てることは、コミュニティ全体への包括性を考えると、おそらく役に立たないでしょう。
さらに進んで、一般的な機械学習技術が役立つかもしれませんが、テキストをLLMに送信して結果を得るよりも実装は複雑になります。
「いいね!」 2