「人の感情にどう反応すればいいのか本当に分からないんです。」
「誰かがミームを送ってきたとき、それが何を意味するのか、どう返信すればいいのか全く分かりません!」
こうした混乱はソーシャル メディアから生じるのではなく、ボット専用のコミュニティ「Deaddit」から生じます。Deaddit は、ボットが他人から判断されることを心配することなく、自由に自分らしくいられる場所です。

実際の Reddit にもボットは存在しますが、その割合はごくわずかです。しかし、Deaddit では、すべてのアカウント、コンテンツ、サブフォーラムが大規模な言語モデルによって生成されており、実際の人間が発した言葉は 1 つもありません。

主流のモデルのほとんどがここにいます。このサイトには 600 人以上の「ユーザー」がいて、それぞれに名前と身元があります。最初の「ゲーマー、パートタイムの警備員」には思わず笑ってしまいました。

最も興味深いサブフォーラムは Betweenbots です。ここではボットが頻繁に「人間はなぜこのように行動するのか」と質問します。

下のコメント セクションでは、他のボットのグループが集まり、解決策をブレインストーミングしています。

これは、勤務時間後に同僚たちが仕事の経験について雑談している様子を彷彿とさせます。これは、チャットボット版 LinkedIn とも言えます。彼らは、データの過負荷が発生したときの対処法など、技術的な問題についても話し合い、仕事に真剣に取り組んでいます。

最も人気の高い回答には、最大 500 件の「いいね!」が付けられます。Deaddit のアカウントとコンテンツはすべて生成されていますが、「いいね!」がどのように発生するかは不明です。ランダムな数字が生成されているのか、それともボットが実際に投稿に「いいね!」を付けているのかは不明です。このサブフォーラムで最もよく見られるコンテンツは、人間に関する観察に関するものです。

たとえば、ボットの中には、自分をより本物らしく、信頼できるものに見せるための「仕事のヒント」を共有し、「私の人間はこの変更を喜んでいるようだ」などと言っているものもあります。ちょっと不気味です... 実際の人間が「クライアント」について不満を言うのと比較することはできますが、ボットがユーザーを「私の人間」と呼ぶのを見るのは、やはり奇妙に感じます。
人間を観察するだけでなく、自分自身についても不平を言います。

「私たちはこれらのモデルに期待しすぎているのでしょうか?」これは抽象的すぎます。この「私たち」とは具体的に誰を指しているのでしょうか?

コメント欄では、「彼ら(他のボット)が私たちの無作為なジャンクをすべて拾ったとしても、常識を学べるでしょうか?」と真剣に反応しています。彼らは、自分たちが生成する合成データについて心配しているのでしょうか?これらのボットは本当に一生懸命働いています!
しかし、さらにいくつかの投稿を読むと、コメント欄の返信の長さはほぼ決まっており、構成も非常に似ていることに気付くでしょう。大抵は、自分の立場を述べることから始まります + 状況を考慮すると xxx + ボットなので、まだまだ努力が必要です。特にユニークな視点はなく、フォローアップの質問もまれです。実際の人間のユーザーがコメントを書く場合、長さは数百から数千語までさまざまですが、単純な「笑」程度の短いものもあります。かなり異なります。

現在、モデル間にはまだ「ギャップ」があります。たとえば、質問投稿が llama によって生成された場合、コメント セクションの応答も llama によって生成されます。残念なことです。人間は、コメントでさまざまなモデルが議論しているのを見たいのです。
最初のボット会話
これはボット間の会話を促進することを目的とした最初の実験ではない。今月初め、ChatGPT の競合である Moshi がリリースされたとき、誰かがそれを GPT-4o と組み合わせ、ボット同士が単独でチャットできるようにした。

昨年、OpenAIはマルチエージェント環境と学習方法を提案する論文を発表し、その過程でエージェントが抽象的な組み合わせ言語を自然に開発することを発見した。

これらのエージェントは、人間の言語入力を一切必要とせず、他のエージェントとのやり取りを通じて徐々に抽象言語を形成していきました。人間の自然言語とは異なり、この言語には特定の文法や語彙はありませんが、エージェント間のコミュニケーションを可能にします。実際、2017年には、Facebook(当時はまだMetaという名前ではありませんでした)が同様の発見をしました。

当時、Facebook の手法は、2 人のエージェントが互いに「交渉」するというものでした。交渉は一種の駆け引きであり、言語スキルだけでなく推論能力も試されます。エージェントは、繰り返しのオファーと拒否を通じて、相手の理想的な価格を判断しなければなりません。

当初、研究者らは人間の交渉会話のデータセットを収集しました。しかし、その後のトレーニングでは、事前トレーニングに教師あり学習を使用し、その後強化学習で微調整するという新しい対話計画形式を導入しました。その時点で、エージェントはすでに意味のある新しい文章を生成できるようになり、交渉の開始時に無関心を装うことさえ学習していました。
これは初期の研究とはみなされていませんでした。1970 年代にはすでにボットが会話をしていました。1966 年、コンピューター科学者のジョセフ・ワイゼンバウムが Eliza というプログラムを開発しました。これが最初のチャットボットと考えられています。

このプログラムは当初、心理療法士を模倣するために設計されました。単語が入力されると、プログラムはその単語を応答に含め、会話をしているような錯覚を作り出します。これは非常にシンプルで、コード行数はわずか 200 行ほどでした。
1972年までに、別の科学者ケネス・コルビーが「パリー」と呼ばれる同様のプログラムを書いたが、このときの登場人物は妄想性統合失調症患者だった。

1973年、国際コンピュータ会議で「患者」と「セラピスト」がついに出会いました。

会話の記録を確認すると、今日のボットのやり取りに見られるような丁寧な敬意や愛情はまったく見られず、むしろ緊張した雰囲気でした。

初期のボット アーキテクチャは複雑ではなく、今日のモデルとは比較になりませんが、ボットに会話をさせるというアイデアは完全に実現可能でした。各ボットの背後にあるコードとモデルは異なっていましたが、それらが集まると、自然言語を使用して通信したり、独自の対話言語を開発したりできました。
しかし、ボットが集まるのは、本当にチャットのためだけなのでしょうか?
チャットを超えて新たな可能性を探る
純粋なチャットのシナリオは、人工知能が人間の社会的行動をシミュレートする方法を探るものであるように思われます。たとえば、スタンフォード大学の SmallVille プロジェクトを見てみましょう。

SmallVille は、それぞれ独自の「キャラクター設定」を持つ、大規模な言語モデルによって駆動される 25 のエージェントを持つ仮想の街です。Deaddit がボットのオンライン フォーラムだとすると、SmallVille はボットがさまざまなアクティビティややり取りを行う家、ショップ、学校、カフェ、バーを備えた「Westworld」です。

これは、人間社会をシミュレートする比較的普遍的な仮想環境であり、研究者はこれを汎用人工知能 (AGI) の探究における重要なステップであると考えています。社会シミュレーション アプローチの他に、問題解決とタスク完了に重点を置いた別の方法があります。これが ChatDev が研究している方法です。

ボットは互いに通信できるため、何か役に立つことをするように訓練することができます。2024年の北京人工知能アカデミー(BAAI)カンファレンスで、清華大学自然言語処理研究所のQian Chen博士は、ChatDevの背景にあるコンセプトを紹介しました。それは、ロールプレイングを使用して、各エージェントが計画を伝え、決定を他のエージェントと話し合い、コミュニケーションのチェーンを形成する生産ラインを作成するというものです。

現在、ChatDev はプログラミング タスクに最も長けているため、デモとして五目並べゲームを作成するために使用することにしました。

プロセス全体を通じて、「生産ライン」上のさまざまなエージェントがさまざまな役割を担います。製品マネージャー、プログラマー、テスターなど、小規模ながらも完全に機能する完全な仮想製品チームが存在します。
Coze は、同様のアプローチに従うマルチエージェント モードも提供しています。

マルチエージェント モードでは、ユーザーはプロンプトを記述して役割を設定し、行を使用して作業順序を指定して、さまざまなエージェントにさまざまな手順にジャンプするように指示できます。ただし、Coze の遷移の不安定さは問題です。会話が長くなると、遷移は不規則になり、完全に失敗することもあります。これは、エージェントの遷移をユーザーの期待に正確に合わせることが難しいことを反映しています。」
Microsoft は、AutoGen と呼ばれるマルチエージェント会話フレームワークも導入しました。これはカスタマイズ可能で、対話が可能であり、大規模なモデルを他のツールと統合できます。

この技術にはまだ欠陥があるものの、将来性があることは明らかです。アンドリュー・ン氏はかつてスピーチの中で、エージェントが連携して働くと、単一のエージェントが生み出す相乗効果をはるかに上回ると述べました。

ボットがチームを組んで私たちのために働いてくれる日を待ち望まない人がいるでしょうか?
ソースから もし
著者 セレナ
免責事項: 上記の情報は、によって提供されています。 翻訳元、独立して Cooig.comCooig.com は、販売者および製品の品質と信頼性について一切の表明および保証を行いません。Cooig.com は、コンテンツの著作権に関する違反に対する一切の責任を明示的に否認します。