AI程序员,开源的Devin,OpenHands 如何使用HuggingFace Inference API
我用了一下,界面这样子:
Github:https://github.com/All-Hands-AI/OpenHands
OpenHands 如何使用HuggingFace Inference API
huggingface/meta-llama/Llama-3.3-70B-Instruct 而不是 meta-llama/Llama-3.3-70B-Instruct
不要设置base URL,不起作用。
更多关于OpenHands 使用HuggingFace Inference API:https://docs.litellm.ai/docs/providers/huggingface
如果你的代理不是TUN模式,你可能还要尝试在docker启动命令中设置
-e https_proxy=http://host.docker.internal:7897
7897,你的代理端口
另外,仓库README提供的docker run启动命令添加了–rm参数,Ctrl + c 容器退出后,容器会被删除。
24/12/23 03:34更新
- 它目前会崩溃,当task执行了很长时间之后。
- 它挺厉害的,所有的操作都在另一个容器里运行,于是它执行了apt更新、添加apt特定软件包的源、安装了mysql、甚至还想启动其他docker容器、拉取了很多github仓库的代码、使用wget下载了一些pip包,它折腾了几个小时,然后崩溃了。
有时候是因为上下文被占用而崩溃,它当时一直在cat output.log那是它按照我的要求从一个接口读取的数据,但是放在output.log中我没这样说,这是一个很大的文件,约39M,它cat了非常多的次数,可能得几十次,以至于占满了131K的上下文,这是一个非常厉害的LLM,具有131K输入131K输出,但是因为上下文超出限制而 task 失败。
有时候是因为它执行了太多的操作,不知道为什么,可能是因为llm的输出不符合OpenHands的格式要求?导致OpenHands的LLM agent部分的代码崩溃。 - 它会把一件事情变复杂,它没有一个靠谱的行为规范。