Skip to main content

Konko

与 Konko 相关的所有功能

Konko AI 提供一个完全托管的 API,帮助应用程序开发者

  1. 选择 适合其应用程序的开源或专有大型语言模型 (LLMs)
  2. 更快地构建 应用程序,集成领先的应用程序框架和完全托管的 API
  3. 微调 较小的开源大型语言模型,以在成本的很小一部分下实现行业领先的性能
  4. 部署生产级 API,满足安全性、隐私、吞吐量和延迟服务水平协议 (SLA),无需基础设施设置或管理,使用 Konko AI 的 SOC 2 合规的多云基础设施

安装和设置

  1. 登录我们的网络应用程序以 创建 API 密钥,通过我们的端点访问模型以进行 聊天完成完成
  2. 启用 Python3.8+ 环境
  3. 安装SDK
pip install konko
  1. 将API密钥设置为环境变量(KONKO_API_KEY,OPENAI_API_KEY)
export KONKO_API_KEY={your_KONKO_API_KEY_here}
export OPENAI_API_KEY={your_OPENAI_API_KEY_here} #Optional

有关更多详细信息,请参见Konko文档

大型语言模型

探索可用模型: 首先浏览Konko上的可用模型。每个模型适用于不同的用例和能力。

查找在Konko实例上运行的模型列表的另一种方法是通过此端点

查看使用示例

端点使用示例

  • 使用mistralai/Mistral-7B-v0.1进行补全:

    from langchain_community.llms import Konko
    llm = Konko(max_tokens=800, model='mistralai/Mistral-7B-v0.1')
    prompt = "Generate a Product Description for Apple Iphone 15"
    response = llm.invoke(prompt)

聊天模型

查看使用示例

  • 使用 Mistral-7B 的聊天完成:

    from langchain_core.messages import HumanMessage
    from langchain_community.chat_models import ChatKonko
    chat_instance = ChatKonko(max_tokens=10, model = 'mistralai/mistral-7b-instruct-v0.1')
    msg = HumanMessage(content="Hi")
    chat_response = chat_instance([msg])

如需进一步帮助,请联系 support@konko.ai 或加入我们的 Discord


Was this page helpful?


You can also leave detailed feedback on GitHub.

扫我,入群扫我,找书