jimkleiber
(Jim Kleiber)
2023 年 3 月 23 日午後 11:58
1
ChatGPT、GPT-4、その他のLLMに関するニュースを追いかけ、Discourse Chatbot 🤖 で遊んでいると、オンラインコミュニケーションにとってそれが何を意味するのか、興奮し、恐れ、そして不確実な気持ちになります。
フォーラムやテキストベースのコミュニケーション全般にどのような影響を与えるのか疑問に思います。また、最終的に音声ベースのコミュニケーションにどのような影響を与えるのかも心配です。
ほとんどのユーザーがChatGPTで投稿を作成し、フォーラムにコピー&ペーストするようになるでしょうか?もしそうなら、人々はAIが書いた投稿を要約するために、フォーラムの投稿をChatGPTにコピー&ペーストしようとするでしょうか?誰かが「有機的」に書いたのか、AIの助けを借りたのかを気にするでしょうか?人々がChatGPTから同様の回答を得られる場合、フォーラムやウェブサイト全般にそれほど大きなメリットがあるでしょうか?フォーラムはどのように差別化し、比較的関連性を保つのでしょうか?
何が起こるのか全く確信が持てず、皆さんが今、それについてどのように感じ、考えているのかを聞きたいです
「いいね!」 31
simon
2023 年 3 月 24 日午前 3:15
2
ChatGPTが地元のマウンテンバイクコースについて非常に間違った答えを自信を持って返してきたばかりなので、LLMがオンラインでの議論に大きな影響を与えるとは期待しないと言っても過言ではない。その答えは時間とともに改善されるだろうが、インターネット上で間違ったことを避けるという人間の動機を持つことは決してないだろう。また、言語モデルとして、「マウンテンバイクに乗るような物理的な行動はできない」とのことだ。したがって、たとえコースに関する正確な情報を提供できたとしても、地元のマウンテンバイクフォーラムを持つことによって得られる人間的な側面が欠けている。
「いいね!」 25
sam
(Sam Saffron)
2023 年 3 月 24 日午前 4:09
3
さて、これらのことについてどう感じているかというと?
明らかに、私は興奮しています。私たちは遊ぶための真新しいおもちゃ箱を手に入れました。そして、これらのおもちゃは、過去にあったどのおもちゃとも異なります。ほとんどのテクノロジーと同様に、これは善にも悪にも使われます。
個人的には、AIの霧の中にいるような気分です。かつては、今後3年から4年で何が起こるかについてかなりよく把握していましたが、LLMとこのテクノロジーの将来の進化は、事態を混乱させました。1年後に何が起こるか全くわかりません。
過去数ヶ月でStable Diffusionがどれほど速く進歩したかを狭く見ると、それは驚くべきことです。GPT 3.5から4への進歩の範囲を見ると、それもまた驚くべきことです。
新しいAIの霧にもかかわらず、私は非常に現実的な懸念を抱いています。
サポートフォーラムがLLMに取り込まれ、役立つチャットボットのトレーニングデータとして使用されることは、私にとって100%明らかです。これの利点は、サポートに関する多くの退屈な作業がなくなり、すぐに回答を得られることです。しかし、欠点は、新しいコンテンツの作成が少なくなり、緩和されない限り、非常に急速に死のスパイラルを引き起こす可能性があることです。
スパムやその他の悪意のあるアクターがこのテクノロジーに頼り、これまでに見たことのないはるかに洗練された攻撃を開始し、注意しないとフォーラムを破壊する可能性があると確信しています。
この支援技術は信頼を損なう可能性があります。私が書いた言葉を読むとき、あなたはそれらの言葉が私から来ていることを期待します。人々は校正以上のこと にAIを使用できます。それは私たちの言葉を完全に言い換えることができます。マルコム・グラッドウェルのように聞こえたいですか?問題ありません、できます。責任あるフォーラムユーザーが期待すべきラベリングのレベルは何ですか?人々が人と話しているのか、それとも単に偽物と話しているのかを信頼しなくなると、人々は フォーラムを放棄するでしょう。
マルコムの言葉で読んでください
今日の世界では、支援技術は私たちが予期しなかった方法で信頼を損なう力を持っています。書かれた言葉の消費者として、私たちは特定の期待を持っています。つまり、私たちが読む言葉は本物であり、その表明されたソースから発せられるという期待です。しかし、AI技術の出現により、個人は単なる校正を超えた方法で書かれたテキストを操作できます。本質的に、彼らは誰にでも聞こえるようにメッセージを完全に言い換えることができます。したがって、マルコム・グラッドウェルや他の著名人のように聞こくことを夢見たことがあるなら、この技術はそれを簡単に実現できます。しかし、これはフォーラムユーザーにとって責任あるラベリングに関する疑問を提起します。人々がもはや他の人と会話しているのではなく、コンピューター生成された偽物とだけ会話していることを信頼できなくなると、フォーラムを完全に放棄する可能性があります。オンラインディスコールにおける信頼を維持するために必要なラベリングのレベルは、真剣な検討に値する差し迫った懸念事項です。
過去にはSEOファクトリーフォーラムを見てきました。より精巧で恐ろしいバージョンを見るでしょう。
GPT 4が抱える同様の懸念事項
フォーラムでのLLMの使用は、ユーザーがAI技術に過度に依存して回答や洞察を提供するようになり、ユーザーの怠惰な文化を生み出すリスクがあります。これは、フォーラムユーザーの批判的思考力と問題解決能力の低下につながる可能性があります。
フォーラムでのLLMの使用は、データプライバシーとセキュリティに関する倫理的な懸念を引き起こします。ユーザーは、特に自分のデータがどのように使用されているかを完全に理解していない場合、自分の個人情報ややり取りがAIシステムによって分析および処理されるという考えに不快感を覚える可能性があります。
フォーラムへのLLMの統合は、特にAI技術がフォーラムユーザーの多様な経験や視点を捉えきれない限られたデータセットでトレーニングされている場合、既存のバイアスや不平等を悪化させる可能性があります。
フォーラムでのLLMの使用は、ユーザーが他の人間のユーザーからの微妙で多様なフィードバックではなく、AIシステムによって生成された標準化された応答を受け取る可能性が高いため、ディスコールの均質化につながる可能性もあります。これは、フォーラムの会話における創造性と独創性を stifling する可能性があります。
フォーラムへのLLMの統合は、人間のモデレーターやサポートスタッフの解雇につながるリスクがあり、これは雇用の安定性とユーザーに提供されるサポートの質に悪影響を与える可能性があります。
これらの恐怖やその他の懸念にもかかわらず、私は興奮と希望の両方を保っています。この技術には、喜ばしく、非常に有用なアプリケーションが登場するでしょう。そして、私たちはDiscourseでそれを探求したいと考えています。
火は消えました。ここでできる最善のことは、アプローチと実験に非常に注意を払い、火を封じ込めようとすることです。火を封じ込めることができることを願っています。しかし、ご存知の通り…AIの霧…
「いいね!」 34
angus
(Angus McLeod)
2023 年 3 月 24 日午前 6:12
4
これはAIに関するより深遠な疑問の一つに触れています。すなわち、私が普通の人間、「強化された」人間、あるいは人工知能とコミュニケーションしている場合、それは重要なのか、そしてどのような点で重要なのかということです。これを「対話者同一性問題」と呼びましょう。
ある意味で、人間は常に「対話者同一性問題」に対処してきました。哲学では、これはしばしば「他我問題」として知られています。その最もよく知られた表現の一つはデカルトの悪霊であり、彼の「我思う、ゆえに我あり」の文脈です。AIと関係することについて、私たちがどのように感じ、あるいはどのように感じるべきかという問いは、本質的に同じ問いの拡張です。
これはフォーラムの文脈で興味深い形で生じます。なぜなら、ある意味で、私たちはすでに「対話者同一性」における高いレベルの不透明さを受け入れていると私は思うからです。対話者を判断できるのは、彼らの言葉と、おそらく自己提示(つまり、アバター、ユーザー名など)だけです。良くも悪くも、多くの場合、私たちは「対話者同一性」についてあまり考えないか、少なくとも不透明さを受け入れることをいとわないのです。
この文脈は、これがフォーラムにどのように影響するかについて、より慎重な結論(あるいは疑問かもしれません)につながります。例えば、スパムを考えてみましょう。私たちはさまざまな理由でスパムを好みませんが、ここでは2つの関連する理由に焦点を当てましょう。
フォーラムを魅力のないものにする、醜いノイズであること。
私たちが助長したくない商業的、悪意のある、あるいはその他の目的を持っていること。
LLMを「スパム」に適用することで、最初のものが減少し、2番目のものに対してよりニュアンスのあるアプローチが得られると仮定しましょう。もしそれがこれらのことをしないのであれば、既存のスパム除去方法で十分でしょう。ある意味で、これをスパムと呼ぶのは誤称であり、むしろ「洗練された自動マーケティング」、あるいは…「サム」(すみません、これは言わずにはいられませんでした)のようです。
しかし、サムの領域に入ると、必然的に同じ根本的な「対話者同一性問題」に近づきます。すでに、一部の人々がフォーラムでの存在感をニュアンスがあり、間接的な方法でマーケティングに利用しているという事実があります。問題は、それを実行しているアクターの同一性を気にするかどうかです。
労働市場への影響については、あなたの懸念を強く共有しますが、関連する理由から、それがより愚かで、怠惰で、醜く、あるいはより商業的なフォーラムエコシステムにつながるとは確信が持てません。もしLLMがフォーラムにそのような影響を与えるなら、そのフォーラムは確かにうまく機能しないでしょうが、そのかつてのユーザーは、LLMの影響を受けていない、あるいはより洗練されたLLMの影響を受けている別のフォーラムを見つけるでしょう。
フォーラムは、知識、関心、そして人間的なつながりの市場を促進します。もしLLMがそれらの市場で成功するなら、それは間違いなく労働に影響を与えるでしょうが、それが需要を slacken させるとは確信が持てません。実際、成功は反対を意味します。
「いいね!」 24
AIは最悪だ。
何のメリットも見いだせない。
あらゆることへの参加意欲を削がれるだろう。
「いいね!」 7
Tris20
(Tristan)
2023 年 3 月 24 日午前 7:07
6
これはおそらく最も重要な要素でしょうか?すべての投稿はユニークなアイデンティティに結び付けられています。「あなた」や(おそらく)本物のサムからの投稿を見ると、その情報がどれくらい真実である可能性が高いかを推定します。私はサムがポッドキャストで話しているのを聞いたことがあり、昨年エキスパートのビデオ通話であなたとも話したので、これらの投稿のどこかに実在の人物がいると仮定できます。
しかし、実在の人物は重要なのでしょうか?「Hal Mcdave」というアカウントがあり、一貫性のある首尾一貫したスタイルで正しい情報を提供している場合、私もその情報を信頼し、利用し始めるでしょう。それはそれで良いのではないでしょうか?
確かに、本当の問題は人工知能ではなく、人工的な愚かさだったのではないでしょうか。
「いいね!」 5
Jagster
(Jakke Lehtonen)
2023 年 3 月 24 日午前 7:50
7
いいえ。フォーラムを少し見て、コンテンツが実際 に何であるかを確認してください。
AIはCMSの世界を変えるでしょう。そして、それはWordPressスタイルの世界に強く影響を与えるでしょう。そして、そこではすでにコピー&ペーストされたスパムのようなコンテンツ、「XXXX年のリスト」、「~のやり方」などが増えるでしょう。
ここのコミュニティは、ChatGPTなどの利用を強く意識し、その利用を目にする層の一部です。しかし、世界の大多数の人々はそうではありません。彼らはもう文章を書かず、コピー&ペーストの方法を知らず、Discourseなどが提供するような気の利いたツールを何も使いません。
皆さんはピンクのユニコーンです 珍しい存在です。皆さんにとって、AIベースのものは、それが皆さんの仕事や趣味の一部であるため、新しい遊び場やおもちゃになります。
CDCKにとって、これは近い将来の問題です。なぜなら、主要なクラスの法人顧客がいるからです。彼らはドキュメント、ヘルプ、サポートのためにDiscourseをよく利用しています。彼らにとって、そのようなサポート機能は収益を生まず、有料の人員が必要です。AIが顧客に応答し、サポートクルーが不要になれば、彼らは天にも昇る心地でしょう。そして開発者も、我々が知っているように、終わりのないデバッグと修正なしでは技術は機能しないため、満足するでしょう。
したがって、AIベースのソリューションは信頼などを食い潰すことはありません。なぜなら、現時点でもそのような信頼は存在しないからです。一般のユーザーは、回答やコメントがコードの塊から来ているのかどうかを見分けることも、気にかけることもできません。彼らは新しいミームクリエイターやTikTokフィルターに完全に満足しています 神にかけて、彼らはすでに、相手のほとんどが人間ではないマッチングアプリにお金を払っているのです…
皆さん、ごめんなさい、皆さんは今、狭い箱の中で議論しています
「いいね!」 8
Jagster
(Jakke Lehtonen)
2023 年 3 月 24 日午前 8:09
8
しかし、プラットフォームの所有者のみをサポートする自動コンテンツ作成の代わりに、実際に機能するAIベースのオンザフライ翻訳者を見てみたいです。なぜなら、現在あるものはまったく機能しないからです。
これにより、ユーザーはテキストベースだけでなく、もちろん音声でもあらゆる種類のコンテンツを作成できるようになり、フォーラム、チャットなどが真のグローバルオーディエンスにリーチできるようになります。それが私が待っているツールの一つです。
あるいはそれに類するものです。サムは、AIがトピックを適切なカテゴリに分類するために使用するという考えをいくつかのトピックで検討しました。ユーザーの読み取り/検索履歴に基づいた、本当に役立つユーザーごとのタグ付けを取得することは、何かになるでしょう。そのようなことです。
したがって、AIを創造と会話に対する本当の脅威とは見なしていません。AIは「単に」退屈な作業を最小限に抑えるためのツールだと考えています
繰り返しますが、すでに低レベルで質の低いコンテンツが何兆ものページロードに値するものが存在します。AIがそれを変えるなら、私はそれを脅威とは見なしません。そして、AIソリューションが同じように悪いものを作成した場合…まあ、それは(単なるメールベースのフォームの派手なスキンにすぎない)偽の自動サポートチャットのように消滅するでしょう。
「いいね!」 7
Heliosurge
(Dan DeMontmorency)
2023 年 3 月 24 日午後 3:39
9
非常に良い質問ですね。@merefield は最近、ChatGPT を使用してトピックの要約を作成する素晴らしいプラグインをリリースしました。
It’s brilliant!
Except I just had summary created that contained details of an internal “Whisper” post. Any chance these posts could be excluded from what gets sent to openai?
Google は、Bard という名前の独自のフレーバーをリリースしました。
「いいね!」 5
私も同じですが、人間が(コードを書いたり、データをコピー&ペーストしたりするだけでなく)議論のような人間らしいことをし続けたいと願っています。
IAツールは、操作的で反復的なタスクに非常に役立つ可能性があり、ボットが実際に人間の会話に真に参加できるとは思いません。
それは根本的に不可能であり、自由、選択、そして人生のために、世界の99.99%のデータでもそれを変えることはできません。
人生は変化であり、AIは(スカイネットを除いて)自ら根本的に変化することはできません。
世間の大多数の人は、Googleで検索し、最初の リンクのみをクリックし続けるでしょう。
しかし、世界の3%は、最初の5/10ページにジャンプしたり、代わりにDuckduckgoを使用して、昔のようにインターネットを本当にナビゲートしたりすることを選択するでしょう。
AIは、管理、検閲、大規模な操作のためにソーシャルメディアでは非常に悪いですが、フォーラムインスタンスではそれほどではありません。
いつか、世界のほんの一握りの人々がすべての人のすべてを知るようになるでしょうが、それは私たちの変化する可能性も含まれるのでしょうか?
そうは思いません(そして、すべてを一度に破壊する量子技術についても同様です)。
「いいね!」 5
MikeNolan
(Mike Nolan)
2023 年 3 月 25 日午後 4:34
11
数年前、テクノロジー雑誌が2つのEliza風プログラムを接続しました。1つは医者のように話すように設計され、もう1つは偏執病の人のように話すように設計されていました。結果は面白かったですが、これらはGPTのような洗練されたエンジンではありませんでした。
2つのGPTインスタンスが、スポーツチーム、チェス、またはベーキング(現在ディスカッションフォーラムを運営している分野)についてお互いにチャットし始めたら、興味深い読み物になるでしょうか?私はそうは思いません。
「いいね!」 6
simon
2023 年 3 月 25 日午後 8:18
12
それはOPの質問に対する正直な答えのように感じます。私たちは本当に興味深い時代に生きていますね
フォーラムが、人間であることの意味を理解し続けるのに役立つことを願っています。
「いいね!」 6
Canapin
(Coin-coin le Canapin)
2023 年 3 月 25 日午後 8:51
13
「人工知能」という言葉は、正当に恐怖を伝えることができ、AIはしばしば書籍や映画などで大混乱を引き起こしてきました。
もし、今日(この頃)バイラルになっているテクノロジー(midjourney、chatGPT…)が、すべて「AI」という言葉を使わずに、文化的に偏見の少ない別の言葉を使っていたら、私たちは違うように感じていたのだろうかと思います。
「いいね!」 7
meglio
(Anton)
2023 年 3 月 26 日午前 8:26
14
AI獣医チャットボットによる自動初期相談、および人間の獣医向けの詳細なサポートリクエストトピックを作成するための情報収集を行いたいと考えています。
「いいね!」 2
MikeNolan
(Mike Nolan)
2023 年 3 月 26 日午後 4:52
15
獣医向けのそのようなものがすでに市場に出ているとしても、私は驚きません。一部の医療機関では、スタッフの時間を短縮するためにそれらを使用し始めています。
「いいね!」 2
manuel
(Manuel Kostka)
2023 年 3 月 27 日午前 3:42
16
私の気持ち、MidjourneyとChatGPTの助けを借りて…
「いいね!」 4
他者の代弁はできないと思いますが、私の経験から言うと、主にDiscourseフォーラム(とDiscordチャット)を、成長途中の特定の共通の関心事を持つ人々との交流に利用してきました。例えば、以下のような製品ではAIとのチャットはあまり役に立たないと思います。
Auxyアプリのフォーラム(音楽アプリ、現在は閉鎖されていますがDiscordで活動しています)。ここでは、人々がお互いの制作中のトラックに対するフィードバックを共有し、アプリ固有のヒントを提供していました。コミュニティが書いたもの以外に、アプリに関する事前の書き込み資料は存在しませんでした。
Hopscotchフォーラム(ドラッグ&ドロップコーディングアプリ。私はそこで働いており、開始当初から参加を促しました)。ここでも、コミュニティがそれらの投稿をすべて書く前に、インターネット上のどこにもアプリに関する書き込み資料や詳細なガイドはありませんでした。したがって、AIは私たちが書いたことを繰り返すだけでしょう。
Sky: Children of the Light(ゲーム、コミュニティはDiscordにありますが、前提は同じです)。これも、書き込み資料が全く存在しないベータ版の間にプレイしました。そして、私がWikiの音楽コンテンツの作成を手伝い、そのコンテンツがすべて生成される前からコミュニティにいました。
いずれの場合も、AIはアプリ自体を「使用」していません。
そのため、AIが役に立ったかどうかは分かりませんが、コミュニティが生成したすべてのものを、コミュニティのメンバーが議論を通じて書く前に書き込みコンテンツが全く存在しなかったため、うまく言い換えることくらいはできたかもしれません。
(マルクスが『資本論』の中で、イングランドの工場労働者を観察した後、人々は機械を使わず、機械が人々を使う、といったようなことを言ったと思います。)
このAIがクールで役に立たないと言っているわけではありません。ただ、私がこれらのコミュニティにいたときに存在していたとしても、あまり役に立たなかっただろうということです。
「いいね!」 10
起業家向けのサポートを提供するフォーラムを運営しています。
11月から、フレンドリーなAIロボット「@Robolivier 」を作成しました。ユーザーが彼に言及すると、彼はユーザーを支援します。また、ユーザーが満足のいく回答を得られることを期待して、新しいトピックごとに一度返信します。彼のメッセージにはすべて免責事項を追加しました。
これまでのところ、ユーザーはほとんどの場合、面白く役立つと感じています。
フォーラムでの自身のやり取りを彼に学習させる予定です。どうなるか見てみましょう。
有料フォーラムなので、私にとってボットは問題ではありません。しかし、オープンで無料のフォーラムがスパムによって無関係なものにされてしまう可能性があることは理解できます。
「いいね!」 8
重要な違いは、AIが「アイデンティティ」(ラベル)をいくらでも多く持つことができる場合、AIは、それらのアイデンティティの周りに誤って築き上げられた信頼を、重要な/収益性の高い瞬間に侵害することが安価になるということです。人間としては、良心だけでなく、評判への損害のためにも、他者との間に築き上げた信頼を侵害したくありません。しかし、AIに人工的に結び付けられたアイデンティティは、資本主義的な貪欲と政治的な策略の両方にとって、はるかに使い捨て可能で悪用されやすいのです。
では、私はどう感じているのでしょうか?未来への恐怖です。この技術は、近い将来(数年)に私たちを社会的に破滅させ、もし私たちがそれを止める方法を見つけなければ、最終的には(数十年)私たちを物理的に破壊する可能性が非常に高いです。
「いいね!」 4
MikeNolan
(Mike Nolan)
2023 年 3 月 28 日午後 4:58
20
私が運営しているフォーラムの1つで、長年、対立的なペルソナとそうでないペルソナの少なくとも2つの異なる名前で投稿していたと思われる人物がいました。最近、彼はミスをして、一方のメールアドレスから投稿に署名し、もう一方の名前で別の投稿に署名しました。これで確実になりました!
有名な作家の言葉遣いのパターンを統計的に分析した非常に興味深い本があります。複数の作家が書いた本になると興味深いものになります。トム・クランシーの後期の作品の多くは、他の作家が主に執筆していました。
この種の統計分析は、J.K.ローリングが事実を確認する前に、彼女が別の名前で執筆していたことも特定された方法でした。また、フェデラリスト・ペーパーズを分析するために使用され、1962年に、多くの人が主張していたように、アレクサンダー・ハミルトンが、他人が執筆権を主張していたものを含む、かなりの数の論文を書いたと結論付けられました。(当時、誰が書いたかを知ることが政治的な効果を低下させる可能性があると考えられていたため、匿名で出版されました。)
したがって、フォーラムの参加者の文章スタイルを分析するために、フォーラムにChatGPTのようなインターフェースを導入することには、何らかの価値があるかもしれません。
「いいね!」 7