古老的智慧能否促進大型語言模型(LLMs)的道德行為? 發布了新數據! 沉思的見解改善了對齊(d = .96),並在迭代囚徒困境任務中提升了合作和共同獎勵(d = 7+),使用的是GPT-4o + 4.1 這裡是基本邏輯 1/x
35.3K