ChatGPTや他のLLMについて、フォーラムにどのような影響を与えるか、皆さんはどう感じていますか?

とても上手くいっているようです:

これでいくつかのビジネスがなくなってしまいますね! :sweat_smile:

「いいね!」 1

全くもって馬鹿げていると思います。

私たちが美しい言語を進化させた全人類に払い戻すべきでしょうか?

しかし、話が逸れました。

「いいね!」 1

あなたに同意しないわけではありませんが、多くの訴訟は被告にとっては全くもって馬鹿げていると考えられていますが、それでも費用がかかるものだと思います。

「いいね!」 2

人間が審査した質問と回答(例えば、Discourseの解決済みトピック)にトレーニングデータとしての経済的価値がある場合、それに対して報酬を求めることは不合理ではないように思えます。データには需要があるので、お互いにとって有益な状況になるでしょう。

「いいね!」 1

指定された作家のスタイルで書くことを目的とした執筆コンテストは、少なくとも2つあります。(ブルワー=リットンとヘミングウェイ)

しかし、AIに有名な作家のスタイルで小説を書くように依頼すると、その作家や相続人の間で反発を招く可能性があることがわかりました。認識可能なスタイルは「知的財産」と見なされる可能性があり、少なくとも弁護士は法廷でそのように主張する可能性があります。

「いいね!」 2

フォーラムでDiscourse Chatbotを利用することに興奮しているユーザーから多くの反響がありましたか?私は毎日ChatGPT、Perplexity、Claude、Bardなど、このチャットボットの話題をすべて見てきました。しかし、フォーラムはそれらすべてから安全な場所だと思っていました。昨日、それについて記事を書きましたAIの飽和状態がこの古いウェブプラットフォーム(ウェブフォーラム)を復活させると私は思う

Discourseなどのフォーラムを訪れる際、フォーラムユーザーはチャットボットやAIを求めているのでしょうか?もしそうなら、フォーラムに対する私の考えを根本的に変え、このようなプラグインの導入さえ検討しなければなりません。これは大きなプロジェクトであり、時間のかかるものになるかもしれません。いつものように、皆さんのご尽力に感謝しています。できるように、需要について学びたいと思っています。

「いいね!」 3

スタッフが忙しい時や営業時間外に、簡単で反復的な質問に素早く回答するのに役立つため、テクニカルサポートフォーラムでの利用を検討しています。その用途には最適だと思います。

「いいね!」 5

はい、最近Hostingerのサポートとチャットウィンドウを開きました。AIチャットボットでした。そして、そのチャットボットは非常に効果的で、私が決して知らなかったであろう払い戻しのオプションについて教えてくれ、払い戻しポリシーへのリンクまで送ってくれました!笑

私が尋ねていることを理解し、基本的なことを10個試したかどうか尋ねることもありませんでした。ですから、サポートケースにおいては、それが役立つことがわかります。

それがフォーラムに保存され、他の人が見たり、議論に追加したりできるようになることを願っています。それを置き換えるのではなく。

「いいね!」 1

サポートしているソフトウェアの使用経験がある知識豊富なサポート担当者でも、同様のことが言えるでしょうか?

「いいね!」 1

もちろん、そんなことはありません。誰にとっても完璧な選択肢など存在しません。

GPTは進化できます。しかし、現時点では単純な計算さえも難しい、低レベルな選択肢です。3.5では基本的なことさえ確実にこなせませんよね。事実であるべき場面で幻覚(ハルシネーション)が起こるのは、本当に大きな問題です。

英語以外の言語は難しいです。少数の巨大言語ではうまくいくでしょうが、私や、特に構造が前置詞を使わない少数言語を話す人々にとっては、翻訳が最高レベルになることは決してありません。

GPTはまず英語に翻訳し、プロンプトを変更します。その後、英語から回答が翻訳され、GPTはさらに変更を加え、幻覚のラウンドを行います。最終的な製品は、要求されたものとはかけ離れたものになり、GPTが最初に提供していたものとも異なります。

そして、トレーニングが「百万匹のハエが間違っているはずがない」という考え方に基づいており、質よりも量が重視されるため、誤情報や偽情報の量は計り知れないほど大きくなっています。そして、そのような状況でさえ、幻覚のためにさらに多くのフィクションが生まれるでしょう。

もちろん、そこまで単純な話ではありません。私はエントリーレベルのソリューションを使用しています。しかし、お金をかけることができるなら、独自のトレーニングを行うことができ、その場合はプレイグラウンドは大きく変わるでしょう。

それでも私は主張します。GPTは、あまり多くのバリエーションがない分析や作業を行う場合に最も効果的です。あるいは、「新しい」、完全に架空のものを創造できる場合です。しかし、GPTが事実や信頼できる情報を提供するべき、その広大な中間領域では、それほどではありません。

私は毎日、OpenAIのGPT3.5を「ステロイドを使った検索」として多用しています。そして、あまり満足していません。何度も確認し、再確認し、書き直す必要がありますが、GPTが大量のテキストを作成する際に私の時間を節約していることは否定しません。

「いいね!」 4

最近、この質問のバージョンに関する興味深い研究が発表されました。

https://www.nature.com/articles/s41598-024-61221-0

The consequences of generative AI for online knowledge communities

Generative artifcial intelligence technologies, especially large language models (LLMs) like ChatGPT, are revolutionizing information acquisition and content production across a variety of domains. These technologies have a signifcant potential to impact participation and content production in online knowledge communities. We provide initial evidence of this, analyzing data from Stack Overfow and Reddit developer communities between October 2021 and March 2023, documenting ChatGPT’s infuence on user activity in the former. We observe signifcant declines in both website visits and question volumes at Stack Overfow, particularly around topics where ChatGPT excels. By contrast, activity in Reddit communities shows no evidence of decline, suggesting the importance of social fabric as a bufer against the community-degrading efects of LLMs. Finally, the decline in participation on Stack Overfow is found to be concentrated among newer users, indicating that more junior, less socially embedded users are particularly likely to exit.

「いいね!」 7

それは私の行動を pretty much に表しています。私はまだMetaで質問をしたり答えたりしています。ここにはソーシャルコネクションがあります。しかし、新しいプログラミング言語やフレームワークについて学ぶためには、ChatGPTとオンラインドキュメントの組み合わせに頼っています。

おそらく、LLMが優れている主な点は、その可用性です。人間の専門家からガイダンスを得たいのですが、誰もがいつでも私のすべての質問に答えるのに十分な時間や忍耐を持っているわけではありません。

LLMを介して学習することの大きな欠点は、公開フォーラムで学習することとは対照的に、生成された情報がプライベートであることです。LLMを介して何かを学ぶことは、単に1つの質問をして正しい答えを得るだけでは、かなりまれです。それは、質問をして、その答えを適用しようとし、なぜ答えが機能しなかったのかを理解するためにドキュメントを読み、フォローアップの質問をしてLLMに戻るようなものです…最終的には、いくらかの知識が生成されます。

誰も他人のチャットログを読みたいとは思わないと思いますが、技術フォーラムは、LLMから得た知識を投稿することを人々が促進するかもしれません。

LLMを介して学習することのもう1つの明らかな欠点は、ソーシャルコネクション、学習の動機としての人間の注意、仕事の機会などの喪失です。私の視点からすると、それはかなり大きなことです。

「いいね!」 14

利用可能性が、サポートボットを構築している主な理由です。

「いいね!」 4

このテクノロジーに興奮しているのと同時に、ウェブの将来について少し心配しています。

Google(およびBing)を含む企業は、サイトのクロール中に収集されたデータを使用して、検索ページの上部にAI搭載のQ&Aを提供しています。

これは検索結果をページの下方に押しやり、ソースを軽視するだけでなく、もう一つの懸念される力学を生み出しています。それは、検索プロバイダーが一部の選ばれたビッグデータソースとのより大きな統合を求めるようになるということです。

例えば、GoogleはRedditのAPIにアクセスするためにRedditと契約を結んだと報じられています。

私の意見では、その結果、より大きなプラットフォーム上のコンテンツがさらに促進され、小規模サイトが損なわれる傾向があるでしょう。

現在、Googleが「AI概要」機能で得ている結果の質に関してかなりの論争があり、いくつかの面白おかしい、あるいはそうでない例があり、それは明らかに同社にとってかなり恥ずかしいものです。しかし、テクノロジーは改善されるでしょう。

おそらく、小規模フォーラムはAIのローカル利用を最適化する上でより良い位置にいるでしょう。なぜなら、それらは専門化できるからです。Googleは非常に一般的なサービスを提供することに苦労しています。

時が経てばわかるでしょうが、注目を集めるための戦いは依然として激しく繰り広げられています。

「いいね!」 5

これは私のアイデアの1つでした。BERTのようなモデルをファインチューニングして、投稿を自動的にカテゴリに分類したり、タグを自動的に追加したりすることを考えていました。また、「有害な」投稿を検出することも別のユースケースになるでしょう。

Discourseのようなものについては、私が一生かけてできることよりも、AIを使ってできることはもっとたくさんあるはずです。もちろん、AIが実装を支援してくれれば、一生かけてできるかもしれません…

「いいね!」 3

率直に言って、この問題はAI関連のすべてのトピックの根底にあると思います。そして、私のようなナイーブな人間は、これは(唯一)コミュニティが所有するモデルで解決できると考えています。

私たちが喜んで提供し、ライセンスを遵守するだけで規制するデータによってトレーニングされたモデル。倫理的にトレーニングされたモデルであり、すべてのマシンで計算されます。

データのピアツーピア計算は、特定の科学分野で数十年にわたって行われてきたように、長い伝統があります。

私の意見では、AIを使用し、長期的に原則を犠牲にしたくないのであれば、これ以外に道はありません。または、少なくとも同等の解決策はありません。

「いいね!」 2

LLMベースのモデレーションは素晴らしいものになるでしょう。コミュニティに関連するさまざまな任意の尺度で各投稿を評価し、アクション、フィルター、またはヘルプを実行するように依頼できます。

この機能の始まりはここで見られますが、機能セットについては明確ではありません: Discourse AI Features | Discourse - Civilized Discussion

「いいね!」 6

お探しの機能セットは、Discourse AI - AI triage だと思われます。

ランディングページを刷新する計画もあり、すべてのAI機能について、より明確なコンテキストを提供できるようにします。

「いいね!」 2

Facebook、Instagram、TikTokなどで広く見られるように😜

「いいね!」 1

目標が何であるかによって、大きく異なります。不快なコンテンツを削除するのか、ユーザーをガイドするのかなどです。

特に興味深い目標の1つは、LLMを使用して質問/問題が送信されたときに分析することです。目標は質問に答えることではなく、ユーザーが問題をより建設的な方法で表現するのを助けることです。多くの場合、最初の返信は「エラーログを投稿してもらえますか」または「具体的に何をしようとしていますか?」となります。LLMは、このカテゴリに該当するトピックをキャッチし、ユーザーにそれらの詳細を提供するように促すことができ、サポートプロセス全体をスピードアップし、将来の読者にとってより質の高いトピックを作成できます。

初期の作業は有望であり、約60のトピックのデータセットから約93〜95%の精度を示しています。不正確さもそれほど悪くはありません。私たちの評価がLLMの評価と一致しない回答の半分は、そもそも非常に疑わしいものです。

私の主な発見は、明白かもしれませんが、LLMへのクエリのスコープを狭めるほど、その回答はより正確になるということです。

「いいね!」 9