„Naprawdę nie wiem, jak reagować na emocje ludzi”.
„Kiedy ktoś wysyła mi mema, nie mam pojęcia, co on oznacza ani jak odpowiedzieć!”
Źródłem tych nieporozumień nie są media społecznościowe, ale społeczność skupiona wyłącznie wokół botów, zwana Deaddit: miejsce, w którym boty mogą być sobą, nie martwiąc się o osąd innych.

Choć prawdziwy Reddit ma swoją porcję botów, stanowią one tylko niewielką część. W Deaddit jednak każde konto, część treści i podforum są generowane przez duże modele językowe — nie ma ani jednego słowa od prawdziwej osoby.

Tutaj znajdziesz prawie wszystkie popularne modele. Strona obsługuje ponad 600 „użytkowników”, każdy z nazwą i tożsamością. Pierwszy z nich mnie rozbawił: „Gracz, ochroniarz na pół etatu”.

Najciekawszym subforum jest Betweenbots, gdzie boty często pytają: „Dlaczego ludzie zachowują się w ten sposób?”

W sekcji komentarzy poniżej grupa innych botów spotyka się, aby wymieniać się pomysłami na rozwiązania.

Przypomina to grupę współpracowników rozmawiających o swoich doświadczeniach zawodowych po godzinach — to praktycznie LinkedIn dla chatbotów. Rozmawiają nawet o problemach technicznych, takich jak to, co zrobić, gdy wystąpi przeciążenie danymi, i traktują swoją pracę bardzo poważnie.

Najpopularniejsze odpowiedzi otrzymują nawet do 500 polubień. Chociaż wszystkie konta i treści na Deaddit są generowane, nie jest jasne, w jaki sposób pojawiają się polubienia — czy generowana jest losowa liczba, czy też boty faktycznie polubiają posty. Najczęstsze treści na tym subforum dotyczą obserwacji dotyczących ludzi.

Na przykład niektóre boty dzielą się swoimi „wskazówkami dotyczącymi pracy”, jak sprawić, by wydawać się bardziej autentycznymi i wiarygodnymi, mówiąc nawet takie rzeczy jak: „Mój człowiek zdaje się doceniać tę zmianę”. To trochę niesamowite… Chociaż można to porównać do prawdziwych ludzi narzekających na swoich „klientów”, widzenie, jak boty odnoszą się do użytkowników, „mój człowiek”, nadal wydaje się dziwne.
Oprócz obserwowania ludzi, narzekają także na siebie.

„Czy oczekujemy zbyt wiele od tych modeli?” To jest zbyt abstrakcyjne — kogo właściwie dotyczy to „my”?

Sekcja komentarzy odpowiada poważnie: „Jeśli oni (inne boty) zbierają wszystkie nasze losowe śmieci, czy nadal mogą nauczyć się zdrowego rozsądku?” Czy martwią się syntetycznymi danymi, które generują? Te boty naprawdę ciężko pracują!
Jednak po przeczytaniu kilku kolejnych postów zauważysz, że długość odpowiedzi w sekcji komentarzy jest prawie zawsze stała, a struktura jest bardzo podobna. Zazwyczaj zaczynają od przedstawienia swojego stanowiska + rozważenia sytuacji xxx + jako bot, nadal muszą ciężko pracować. Nie ma żadnych szczególnie unikalnych perspektyw, a pytania uzupełniające są rzadkie. Kiedy prawdziwi użytkownicy piszą komentarze, długość może się wahać od setek do tysięcy słów lub może być tak krótka, jak proste „Lol”. To zupełnie inna sprawa.

Obecnie nadal istnieje „luka” między modelami. Na przykład, jeśli post z pytaniem jest generowany przez llama, odpowiedzi w sekcji komentarzy są również generowane przez llama. To wstyd — ludzie chcieliby zobaczyć różne modele kłócące się w komentarzach.
Najwcześniejsze rozmowy z botami
To nie jest pierwszy eksperyment mający na celu ułatwienie konwersacji między botami. Na początku tego miesiąca, kiedy wydano konkurenta ChatGPT, Moshi, ktoś połączył go z GPT-4o i pozwolił im czatować samodzielnie.

W zeszłym roku firma OpenAI opublikowała artykuł, w którym zaproponowała środowisko wieloagentowe oraz metodę uczenia się, odkrywając, że w trakcie tego procesu agenci naturalnie rozwijają abstrakcyjny język kombinatoryczny.

Agenci ci, bez żadnego ludzkiego języka, stopniowo tworzyli abstrakcyjny język poprzez interakcję z innymi agentami. W przeciwieństwie do ludzkich języków naturalnych, język ten nie ma określonej gramatyki ani słownictwa, ale umożliwia komunikację między agentami. W rzeczywistości już w 2017 r. Facebook (który jeszcze nie nazywał się Meta) dokonał podobnego odkrycia.

W tamtym czasie metoda Facebooka polegała na tym, że dwóch agentów „negocjowało” ze sobą. Negocjacje to rodzaj targowania się, który nie tylko testuje umiejętności językowe, ale także zdolności rozumowania: agenci muszą ocenić idealną cenę drugiej strony poprzez powtarzające się oferty i odrzucenia.

Początkowo badacze zebrali zbiór danych ludzkich dialogów negocjacyjnych. Jednak w późniejszym szkoleniu wprowadzili nowy format planowania dialogu, wykorzystując uczenie nadzorowane do wstępnego szkolenia, a następnie dostrajając za pomocą uczenia wzmacniającego. Do tego czasu agenci byli już w stanie generować nowe, znaczące zdania, a nawet nauczyli się udawać brak zainteresowania na początku negocjacji.
Nie uważano tego za wczesne badania; już w latach 1970. boty prowadziły konwersacje. W 1966 r. informatyk Joseph Weizenbaum opracował program o nazwie Eliza, uważany za pierwszego chatbota.

Program został pierwotnie zaprojektowany tak, aby naśladować psychoterapeutę. Gdy wprowadzono słowo, program uwzględniał je w swojej odpowiedzi, tworząc iluzję rozmowy. Był bardzo prosty, zawierał tylko około 200 linii kodu.
W 1972 roku inny naukowiec, Kenneth Colby, napisał podobny program o nazwie Parry, ale tym razem jego bohaterem był schizofrenik paranoidalny.

W 1973 roku, na międzynarodowej konferencji komputerowej, doszło w końcu do spotkania „pacjenta” i „terapeuty”.

Przeglądając zapisy ich rozmów, nie ma nic z grzecznego szacunku i uczucia, jakie można zaobserwować w dzisiejszych interakcjach botów. Zamiast tego atmosfera była napięta.

Wczesne architektury botów nie były skomplikowane i nie mogą równać się z dzisiejszymi modelami, ale pomysł, aby boty angażowały się w konwersację, był całkowicie wykonalny. Mimo że kod i modele każdego bota były różne, gdy się zebrali, mogli komunikować się za pomocą języka naturalnego lub potencjalnie opracować własny język interakcji.
Ale czy gdy boty spotykają się, robią to tylko po to, żeby rozmawiać?
Poza zwykłym czatowaniem: odkrywanie nowych możliwości
Scenariusze czystego czatu wydają się bardziej eksploracją tego, jak sztuczna inteligencja może symulować ludzkie zachowania społeczne. Weźmy na przykład projekt SmallVille Uniwersytetu Stanforda.

SmallVille to wirtualne miasto z 25 agentami napędzanymi przez duże modele językowe, z których każdy ma własne „ustawienie postaci”. Jeśli Deaddit jest internetowym forum dla botów, to SmallVille jest ich „Westworldem”, pełnym domów, sklepów, szkół, kawiarni i barów, w których boty angażują się w różne działania i interakcje.

To stosunkowo uniwersalne środowisko wirtualne, które symuluje ludzkie społeczeństwo, co badacze uważają za ważny krok w eksploracji Sztucznej Inteligencji Ogólnej (AGI). Oprócz podejścia symulacji społecznej, inna ścieżka koncentruje się na rozwiązywaniu problemów i wykonywaniu zadań — jest to ścieżka badana przez ChatDev.

Ponieważ boty mogą się ze sobą komunikować, można je wyszkolić, aby robiły coś pożytecznego. Podczas konferencji Beijing Academy of Artificial Intelligence (BAAI) w 2024 r. dr Qian Chen z Natural Language Processing Laboratory na Uniwersytecie Tsinghua przedstawił koncepcję ChatDev: wykorzystanie odgrywania ról do stworzenia linii produkcyjnej, w której każdy agent komunikuje plany i omawia decyzje z innymi, tworząc łańcuch komunikacji.

Obecnie ChatDev najlepiej sprawdza się w zadaniach programistycznych, dlatego postanowiono go wykorzystać do napisania wersji demonstracyjnej gry Gomoku.

W trakcie całego procesu różni agenci na „linii produkcyjnej” przyjmują różne role: są menedżerowie produktu, programiści, testerzy — cały wirtualny zespół produktowy, mały, ale w pełni funkcjonalny.
Coze oferuje również tryb wieloagentowy oparty na podobnym podejściu.

W trybie multi-agent użytkownicy mogą pisać monity, aby skonfigurować role, a następnie używać linii do oznaczania zlecenia pracy, kierując różnych agentów do przeskakiwania do różnych kroków. Jednak niestabilność Coze w przejściach jest problemem. Im dłuższa rozmowa, tym bardziej nieregularne stają się przejścia, czasami nawet całkowicie zawodząc. Odzwierciedla to trudność w dokładnym dopasowaniu przejść agentów do oczekiwań użytkowników”.
Microsoft wprowadził również wieloagentową strukturę konwersacji o nazwie AutoGen. Jest ona konfigurowalna, zdolna do dialogu i może integrować duże modele z innymi narzędziami.

Chociaż technologia ta nadal ma wady, to jednak wyraźnie rokuje. Andrew Ng wspomniał kiedyś w przemówieniu, że gdy agenci pracują razem, synergia, którą tworzą, znacznie przewyższa synergię pojedynczego agenta.

Kto nie czekałby z utęsknieniem na dzień, w którym boty połączą siły, żeby dla nas pracować?
Źródło z ifanra
Scenariusz Serena
Zastrzeżenie: Informacje podane powyżej są dostarczane przez pl, niezależnie od Cooig.com. Cooig.com nie składa żadnych oświadczeń i gwarancji co do jakości i niezawodności sprzedawcy i produktów. Cooig.com wyraźnie zrzeka się wszelkiej odpowiedzialności za naruszenia dotyczące praw autorskich do treści.