推 ghostl40809: 去汪梯徵人哄睡還比較快 08/29 21:55
推 terry0201: 可以用prompt engineering對LLM做一些暗示,讓它看起 08/29 22:14
→ terry0201: 來有自己的人格 08/29 22:14
推 martin12345m: 一直都是這樣 從30年前的機器學習到10年前的深度學 08/29 22:27
→ martin12345m: 習 本質上都沒有完全擺脫 回歸 機率 的特性 08/29 22:27
推 Kroner: 我有在用UC2,感覺效果還不錯欸! 08/29 22:27推 GooglePlus: 可以調 topk topp temperature 阿 但也不代表什麼你 08/30 00:05
→ GooglePlus: 所謂的價值觀 08/30 00:05
我當然知道可以調這些 但是這些只是調整最終文字的取用結果 不代表真的可以創建人格
※ 編輯: Rosor (114.25.4.94 臺灣), 08/30/2024 00:19:45
推 KanadeYu: 我覺得其實人也一樣是被環境(文本)塑造人格的,差別大 08/30 00:26
→ KanadeYu: 概是人類的文本大部分來自生活經驗吧,如果能搞出一個模 08/30 00:26
→ KanadeYu: 擬人類社會互動的情境把ai丟進去,他們搞不好也能發展出 08/30 00:26
→ KanadeYu: 價值觀之類的 08/30 00:26
→ KanadeYu: 喔可能還要幫他們賦予一些慾望、目標之類像人性的東西 08/30 00:27
現在的語言模型跟專門用來角色扮演的LLM已經就在做這個了
只是這跟有真正的價值觀還差遠了
舉個例子:我在聊天機器人的人格中描述她是一個不離不棄鐵桿喵迷
如果我在與她的對話中說喵喵很爛 正常人類一定會否定吧:你怎麼這樣說我喵 之類的
但是LLM的問題就是在於你多刷個幾次 她就可能會回答:喔對阿對阿喵喵很爛
因為她的底層邏輯就是文字的合理與流暢性 而不是她的性格 在人格描述中寫的只是參考
※ 編輯: Rosor (114.25.4.94 臺灣), 08/30/2024 00:57:44
另外謝謝大家願意點進來推文 沒想到能在這邊問這種問題還得到不少回覆
※ 編輯: Rosor (114.25.4.94 臺灣), 08/30/2024 00:59:54
推 simon1203: 你怎麼會覺得人在地球幾百萬年的演化 只要短短一兩百 08/30 08:50
→ simon1203: 年的科技發展就能追趕得上 08/30 08:50