资源
社区集成
Grok 还可以通过您喜欢的社区集成进行访问,使您能够轻松地将 Grok 连接到系统的其他部分。
第三方 SDK/框架
LiteLLM
LiteLLM 提供了一个简单的 SDK 或代理服务器,用于调用不同的 LLM 提供商。如果您正在使用 LiteLLM,将 xAI 集成作为您的提供商非常简单——只需在配置中将模型名称和 API 密钥替换为 xAI 的 Grok 模型即可。
有关最新信息和更多示例,请访问LiteLLM xAI 提供商文档。
作为快速入门,您可以按以下方式使用 LiteLLM:
Vercel AI SDK
Vercel 的 AI SDK 支持 xAI Grok 提供商,用于与 xAI API 集成。
默认情况下,它使用您在 XAI_API_KEY
变量中的 xAI API 密钥。
要生成文本,请使用 generateText
函数。
您还可以按以下方式自定义设置:
您还可以使用 generateImage
函数生成图像。
编码助手
Continue
您可以在 VSCode 或 JetBrains 中使用带有 xAI 模型的 Continue 扩展。
要开始使用带有 Continue 的 xAI 模型,您可以在 Continue 的配置文件 ~/.continue/config.json
(macOS 和 Linux)/%USERPROFILE%\.continue\config.json
(Windows)中添加以下内容。
访问 Continue 的文档以获取更多详细信息。