使用Cloudflare AI免费托管Host LLama 2。

在本指南中,我们将探讨如何使用Cloudflare Workers免费部署和托管强大的语言模型LLaMA 2。

LLMs(大规模语言模型)和人工智能技术正在快速发展,而且有了Cloudflare慷慨的定价模型,你完全有条件开始开发自己的人工智能应用程序。

Cloudflare workers pricing

遵循以下步骤设置您的应用程序:

1. 创建一个 Cloudflare 账户

开始注册或登录您的Cloudflare账户。

2. 导航至工人和页面

在您的控制台中,找到“工作人员和页面”部分,开始设置您的新应用程序。

3. 创建您的应用

点击“创建应用程序”按钮来启动设置流程。

4. 创建工人

从“Workers”选项卡下的模板中选择“LLM App”。这个选择将作为您的应用程序的基础,使JavaScript能够在Cloudflare的服务器上执行。选择LLM App模板将为运行此类应用程序提供所需的必要包的起点。

Workers Tab

5. 部署您的工作人员

创建工作者后,单击“部署”。不用担心,您以后可以根据需要更新工作者的代码。

Deploy LLM App

好耶!我们的工作程序已经上线了,按照以下的格式发送请求就可以看到奇迹发生了。请将URL替换为您的工作程序URL。

curl --location 'https://worker-white-tooth-29e9.2000-aman-sinha.workers.dev/' \
--header 'Content-Type: application/json' \
--data '{
"prompt": "say a joke"
}'

6. 编辑您的工作者代码

现在,是时候自定义您的工作程序了。点击“编辑代码”开始编码。最初,您的工作程序已启动运行。

在index.js中编辑,将下面的内容添加进去。

最终项目如下所示。

点击“保存并部署”

我们的法学硕士(LLM)项目已经开始运转,并且接受我们的请求和提示。

让我们尝试通过以下请求来获取一个笑话。将URL更改为您的worker的URL,以使其生效。

curl --location 'https://worker-white-tooth-29e9.2000-aman-sinha.workers.dev/' \
--header 'Content-Type: application/json' \
--data '{
"prompt": "say a joke"
}'

干得好。我们的应用已经上线,现在我们可以开始使用Llama2了。

您可以在Cloudflare AI上查看各种可用模型。

尝试各种模型,看哪个最适合您的使用情况,然后继续前进。

我深度参与人工智能和法学硕士课程。欢迎在Medium上关注我以获取更多见解。

随时打招呼或通过Twitter和LinkedIn与我联系。

参考文献

2024-02-14 04:21:19 AI中文站翻译自原文