ChatGPTや他のLLMについて、フォーラムにどのような影響を与えるか、皆さんはどう感じていますか?

ChatGPTからコピー&ペーストして回答する人々に関して、興味深い反発の例があります。

私が最も頻繁に利用するフォーラム(かなり技術的な性質のもの)でも同様の状況が見られます。特定の新規ユーザーが、1日に8〜9件の回答を投稿しており、すべてChatGPTからのものです。

そこには多くの貴重な情報が含まれていますが、不正確な情報や、まったく誤解を招くような情報も含まれています(複雑な7ステップのリストを想像してみてください。ステップ6を見ると、それは決してうまくいかないとわかります…しかし、多くの人はそうではありません)。

このユーザーは評判を築こうとしているようです…私たちは、ChatGPTのコンテンツであることを常に明示的にラベル付けするように人々に依頼することを検討しています。これは、私たちが尊重することを願うばかりで、実際には強制できない要求です。

これは私を不安にさせます。これが良い場所につながるとは思いません。インターネットが無意味な会話で支配されるのではないかと恐れています。私たちは現実世界で現実の生活を送ることを余儀なくされるかもしれません。それができるかどうかはわかりません…:slight_smile:

「いいね!」 14

私の長男は、ChatGPTの愚かな記事や投稿を送ってくるのを楽しんでいます。私は彼に、ChatGPTの技術は、数学のように多くの分野で現在、せいぜい小学校2年生か3年生レベルだと伝え続けています。何年も前の教授の一人の言葉を借りれば、「知らないことを知らない」のです。

ケーキを焼くレシピをChatGPTに尋ねたことはまだありません。何を間違えるのか考えるとぞっとします。(オンラインで人間が投稿した、全く実用的でないレシピを数多く見てきました。)

FacebookとTwitterが発明されたとき、無意味な会話がインターネットを席巻してしまったのだと思います。USENETを、読める人向けのビデオゲームと呼ぶのがまだ正確だった頃を覚えているほど年配の私たちなら、さらに過去に線を引くかもしれません。

「いいね!」 3

現在、まさにそれを実感しています。無料でオープンなDiscourseフォーラムを運営していますが、既存のスパム対策をすり抜けてくるChatGPTスタイルのスパムボットが多数見られます。

Akismetは現在、それらに追いつけていません。これほど多くのスパムアカウントが通過するのを見たのは初めてです。それらは、質問に答えたり(または言い換えたりしてから答える)、一見役立つように見えるかなり冗長な回答を投稿したりしますが、元の質問の文脈やニュアンスが欠けていることが多いです。

Discourseフォーラムが、10年前のWordPressサイトと同様の理由で、テストグラウンドとして標的にされていると推測します。オープンソース技術であり、かなり広く普及しているため、あるフォーラムでサインアップフローをナビゲートできるボットは、おそらく他の多くのフォーラムにもアクセスできるでしょう。

現在、従来のスパムボットの動作(アカウントを作成し、スパム対策をすり抜けるのに十分無害なものを投稿し、48時間以内にリンクを追加するために編集する)は見られません。そのため、最終的な目的が何なのかはわかりません。投稿をあまりにも早く削除している可能性があり、後でバックリンクファームに編集されるのかもしれません。

「いいね!」 13

8件の投稿が新しいトピックに分割されました:LLMとカスタマーサポートへの影響

ChatGPTはあなたの問題について何とアドバイスしていますか?:rofl: 他のチャットボットもですか? そして、それらは互いに同意していますか?:rofl: :rofl:

「いいね!」 4

必須の2FA(2要素認証)で、ほとんどのボットを排除できるのではないでしょうか。ご意見をお聞かせください。

そうでなければ、アカウント作成後にユーザーにTypeformに記入してもらい、フォーム送信時にWebhookで「確認済み」グループに追加し、確認されていないユーザーはフォーラムを読み取り専用にするという方法もあるでしょう。

とはいえ、ボットはすでにウェブを閲覧し、ボタンの意図を理解できるようになった今、それは対症療法にすぎないように感じます。

「いいね!」 2

ほとんどのフォーラムは公開されており(訪問するために登録する必要はない)、Googleなどで見つけることができます。2FAではそれを防ぐことはできません。

「いいね!」 1

アカウント作成に必須の2FAは、ボットの99.9%で機能します…

「いいね!」 5

面白いロボットです。

「いいね!」 2

音声オフでも、読唇術の訓練を受けた人なら理解できるのだろうか?

「いいね!」 3

ChatGPTテクノロジーの使用に注意すべきもう一つの理由です。

カリフォルニア州の法学教授が、性的嫌がらせで告発された法学者のChatGPTが生成したリストに含まれていました。ChatGPTは情報源としてワシントン・ポストの記事を引用しました。

問題は、そのようなワシントン・ポストの記事は存在せず、その法学教授に対して性的嫌がらせの告発が一度も提起されていないことです。

偶然ですが、ワシントン・ポストのウェブサイトにあるこの記事へのリンクはこちらです。
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/

そのリンクが機能しない場合は、こちらをお試しください: https://wapo.st/3KhD2R2

「いいね!」 9

AIに適切な「ガードレール」を設ける計画を発表したため、誰もが安心して休むことができます。

WSJより:

「これらのツールが、その比較的新しい段階でさえ、何ができるかを見るのは驚くべきことです」と、コメントを求めた商務省の機関である国立電気通信情報庁を率いるアラン・デイビッドソンは述べています。「責任ある方法で使用されるように、いくつかのガードレールを設置する必要があることを認識しています。」

:sarcasm off:

「いいね!」 3

はい…もしそのテキストが実際に人間の参加者によって書かれ続けているのであれば
おそらくそうではなくなり、ますますそうなるでしょう。それゆえ問題なのです。

AIは、あなたが説明したすべてをますます悪化させ、検出をますます困難にする可能性があります。
本の著者であることは一つのことです。オンラインディスカッションで実際に誰とやり取りしているのか分からなくなることは、別のことです。文章から得られるはずの手がかりはすべて、個人が書いたものではなく、AIを使用して書かれたものであれば歪んでしまいます。

「いいね!」 3

これは完全にニッチに依存する質問です。私の周りは犬の栄養と給餌に強く結びついています。AIが生成したテキストかどうかはすぐにわかります。AIは「百万匹のハエが間違っているはずがない」と考えているからです。

ハイキングやパドリングなどについて話しているときも同じことが見られます。

したがって、どの宗派がウェブ上のテキストの大部分を執筆したかによって異なります。だからこそ、私の友人/コミュニティのコーダー以外の人々は、AIを単なる誇大広告と見なしているのです。少なくとも現時点では :wink:

「いいね!」 2

これを見たばかりで、AIの回答をすべての入力ボックスにどれだけ簡単に入れることができるか(実際にもうすでに)について関連性があると思ったからです。

「いいね!」 3

わずかにNSFW…

「いいね!」 5

ユーザーが議論のための応答にChatGPTを使用している可能性のある最初のケースが発生しました。この人物はすでに境界線のトロールであり、この展開には満足していません。

別のユーザーが、この識別のために新しいChrome拡張機能を使用しました。

この拡張機能がどれほど優れているかはまだわかりません。サンプルが不十分な場合は「人間」にデフォルトするようですが、AI生成テキストの特定のタイプ/スタイル(ChatGPTが生成したリメリックなど)を見逃す可能性があります。

私の現在のモデレーション計画は、それを計画と呼ぶことができるなら、他のユーザーにこれらの乱用を特定して指摘させ、社会的圧力を抑止力とすることです。現時点では他にできることはわかりません。

「いいね!」 2

私のフォーラムでこれが起こった場合、機械生成されたテキストを注釈なしで投稿することはフラグ付け可能な違反であることを明確にしたいです。本質的に、それは欺瞞的なので、ガイドラインに違反します。

「いいね!」 3

原則として同意しますが、機械生成テキストを特定するための基準は常に変化しています。良いニュースは、Chrome拡張機能はまだ誤検知を生成していないことです。これは非常に限定的なテストですが。悪いニュースは、モデレーターが判断を下すための追加作業が必要であり、AI生成テキストがますます良くなるにつれて、最新の検出ツールに追いつく必要があることです。AIテキストは、検出が問題になるポイントに最終的に到達するでしょう。

「いいね!」 3

確かに、しかし私はそれをモデレーションの問題として考えています。私たちの人間のモデレーターはすでに、対立的、無礼、侮辱的、反復的、または誤解を招く投稿に注意を払っています。これはその拡張です。そして、人間が警告なしに機械テキストを投稿しないというローカルな文化規範があり、機械テキストのように見えるもの(または匂いがするもの)、特に比較的若いユーザーからのものは、自動的に疑わしいものとなります。

人間の脳、特にモデレーターの脳は、機械テキストを見分けることにかなり長けていくと思います。機械テキストが会話を進める有用な投稿と区別がつかなくなったとき、私たちはもはや問題ありません。(低労力で低価値の投稿をする人は、おそらく罰せられるでしょう。)

「いいね!」 3