资源

社区集成

Grok 还可以通过您喜欢的社区集成进行访问,使您能够轻松地将 Grok 连接到系统的其他部分。


第三方 SDK/框架

LiteLLM

LiteLLM 提供了一个简单的 SDK 或代理服务器,用于调用不同的 LLM 提供商。如果您正在使用 LiteLLM,将 xAI 集成作为您的提供商非常简单——只需在配置中将模型名称和 API 密钥替换为 xAI 的 Grok 模型即可。

有关最新信息和更多示例,请访问LiteLLM xAI 提供商文档

作为快速入门,您可以按以下方式使用 LiteLLM:

Vercel AI SDK

Vercel 的 AI SDK 支持 xAI Grok 提供商,用于与 xAI API 集成。

默认情况下,它使用您在 XAI_API_KEY 变量中的 xAI API 密钥。

要生成文本,请使用 generateText 函数。

您还可以按以下方式自定义设置:

您还可以使用 generateImage 函数生成图像。


编码助手

Continue

您可以在 VSCode 或 JetBrains 中使用带有 xAI 模型的 Continue 扩展。

要开始使用带有 Continue 的 xAI 模型,您可以在 Continue 的配置文件 ~/.continue/config.json(macOS 和 Linux)/%USERPROFILE%\.continue\config.json(Windows)中添加以下内容。

访问 Continue 的文档以获取更多详细信息。