对 @xai API 的快速评估: 他们的 API 提供对 grok 4 的访问。然而,这并不是我真正关心的 - 我想要实时访问推文。 xAI API 有一个名为 "实时搜索" 的功能,LLM 的源数据可以是实时的 X 推文。你可以按特定的 X 账号进行过滤,甚至设置日期范围。 从理论上讲,这看起来令人难以置信,但实际上它的表现并没有我预期的那么好。我想生成我正在耕作的协议的推文的 AI 摘要,比如 @katana 和 @turtledotxyz,并让我的脚本每天发送给我一个摘要。 LLM 错过了 katana 4 小时前发送的一条推文。API 输出给你一个引用列表(它找到的所有推文),而那条推文却找不到。由于数据不可靠,我无法继续使用这个 API :( AI 总结 X 数据的最佳方法仍然是直接查询实际的推文(无论是通过官方 X API 还是通过 <redacted>),然后将其输入到你的 LLM 中。
2.76K