ChatGPTや他のLLMについて、フォーラムにどのような影響を与えるか、皆さんはどう感じていますか?

ほぼ関連する問題として、WSJのコラムニストの一人がハーディーズのドライブスルー注文システムを30回テストしたところ、かなりの良い成績を収め、人間による対応が必要だったのはわずか3回でした。

「いいね!」 2

発表へのリンクを教えていただけますか?
(超速で)状況についていけていない私たちに、少し文脈を与えてくれると思います :slight_smile:

「いいね!」 1

https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/

「いいね!」 2

RGJさん、ありがとうございます :slight_smile:

このコミットメントに関するもののようです。

ですので、これは企業が対応すべきことだと思います。しかし、merefieldさんが上で言及したように、テキストにウォーターマークを付けることは非常に困難です。

MikeNolanさん、この場合Discourseに何を期待しますか?ユーザーがAI生成テキストを単純にコピー&ペーストした場合、Discourse側でそれを知る方法はありません(スパム検出やAI検出を実行する以外は)。そのため、この特定の合意が今のところ何かを変えるとはあまり思えません。

「いいね!」 1

ユーザーが貼り付けたAI生成コンテンツは、おそらく人間が生成したものと区別がつかないため、Discourseではあまり対応できないでしょう(場合によっては、よりうまく書かれている可能性もあります)。しかし、公式のDiscourse AIプラグインを使用すれば、Discourseが透かしを入れたり、生成されたものであることを示す方法を見つけられるかもしれません。

「いいね!」 4

なるほど、そういうことなら理にかなっていると分かります :slight_smile:

「いいね!」 1

たとえば、このトピックの要約に透かしを入れるなど、この作業を開始しました。

要約UIの作業が最も注力された部分であり、最終形態に近く、この設定が完了しています。他のものも追って対応します。

「いいね!」 3

少し言葉遊びかもしれませんが、デジタルウォーターマークの2つの特性は、カジュアルな視聴者には隠されており、削除が困難であることです。

「いいね!」 2

AI生成コンテンツのオープンな認識は、テキストと画像の両方にとって重要だと思います。

隠されたデジタル署名は、画像の著作権執行などに役立ちます。

私はUgly Hedghog写真フォーラムで活動していますが、AI生成または変更された画像が写真と見なされるかどうかは、そこで活発に議論されているトピックです。(AI生成画像が写真コンテストで優勝した例もあります。)

「いいね!」 1

現在議論している問題は、悪意のある人々がAIを使用してコンテンツを生成し、その後に帰属表示を削除して人間が生成したコンテンツとして提示しようとするということです。これは、削除が困難なオリジン「タグ」の必要性を示唆しています。

「いいね!」 2

その意図は必ずしも悪意のあるものではありませんが、正直とは言えません。

コピー&ペーストのような、おそらく初歩的な方法で克服できない、AI生成テキストを「タグ付け」する方法を見つける幸運を祈ります。

「いいね!」 1

ゼロ幅文字でそれが可能ですか?

「いいね!」 1

いいえ、アルファベットのみを保持するフィルターを通してコンテンツを処理することで、それらは簡単に削除できます。テキストのウォーターマーキングは非常に、非常に困難です。文字表現レベルでは基本的に不可能です。

Scott Aaronson によるこのブログ記事では、それがどのように機能するかを少し説明しています。「My Projects at OpenAI」セクションまでスクロールしてください。そこに概説されている方法は、コピー&ペースト防止です @MikeNolan

「いいね!」 2

ありがとうございます。興味深いですね。

私のこれまでの主なプロジェクトは、GPTのようなテキストモデルの出力を統計的にウォーターマークするためのツールでした。基本的に、GPTが長いテキストを生成するたびに、その単語の選択に、後で「はい、これはGPTから来たものです」と証明するために使用できる、目立たない秘密の信号を埋め込みたいのです。GPTの出力を人間から来たように見せかけることを、より困難にしたいのです。これは、学術的な盗用を防ぐのに役立つだけでなく、例えば、プロパガンダの大量生成や、誰かの文章スタイルを模倣して陥れることにも役立つ可能性があります。これらはすべて、より困難にしたいことですよね?

ですから、ウォーターマークを付けるために、次のトークンをランダムに選択する代わりに、暗号学的な疑似乱数関数を使用して疑似ランダムに選択するという考え方になります。このキーはOpenAIのみが知っています。エンドユーザーが疑似乱数を真の乱数と区別できないと仮定すれば、エンドユーザーには検出可能な違いはありません。

「いいね!」 2

AIが生成した文章を特定しようとすることについて懸念していることの一つは、人間が書いた優れた文章を誤ってターゲットにしてしまう可能性があることです。

「いいね!」 2

多くのフォーラムでは、よく書かれた人間が生成したテキストは例外のようです。 :sigh:

「いいね!」 3

私は動機に戻ります。

悪意を特定したら、禁止または一時停止します。

事実に基づいた、意図の良い優れた文章であれば、そのままにしておきますか?

ユーザーの母国語が英語ではなく、ChatGPTを使って文法を洗練させた場合はどうなりますか?

「いいね!」 2

ちなみに、AIトピックの要約は以下のように前置きしています。

(CSSの微調整が必要です!)

「いいね!」 1

わかりました。私の投稿が対象になるのではないかと心配です :slight_smile:

そう思います。AIが生成したテキストが投稿する価値があるかどうかを最終的に判断する人間がいることを前提に、AIを使って投稿を作成することを支援することに問題はないと思います。

「いいね!」 1

文法を改善するのに役立つツールはたくさんありますが、ChatGPTが他のツールより優れているかどうかはわかりません。

文法を改善することは、'オリジナルの’コンテンツを生成することとは少し異なる問題です。AIエンジンは、AIエンジンをトレーニングするために素材を使用したことに対して補償を求めるコンテンツ所有者から標的になり始めています。

「いいね!」 1