You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
Q1: LLM4AD 在解决具体算法设计问题时效果如何?
对于具体问题,LLM4D 的效果取决于多种因素。除了模板设计,更关键的是您如何从算法设计中抽象出关键组件(例如启发式规则或公式)供大语言模型处理。我们的经验表明,让大语言模型设计关键的算法模块(比如一些启发式的规则或者核心的算法策略和算子等),通常比让模型设计整个算法框架能获得更好的结果。
Q2: 为什么 deepseek-v3 接口可以正常运行,而 r1 接口会失败?
r1 接口可能会因为其响应时间超过了平台为大模型响应设置的默认时限而失败。我们建议在平台上调高响应时间的限制来解决此问题。请注意,响应时间会因具体的任务设计和模型类型而异,因此对于 r1 接口,建议设置一个较大的超时值。
Q3: 如何修改 HttpsApi 中的超时设置?
您可以通过将 HttpsApi 中的超时设置修改为一个足够大的值来解决。如果您是直接运行
run_gui或 GitHub 上的某个程序,您应该在相应的配置部分进行此修改。Q4: OpenAI API 请求失败可能有哪些原因?
OpenAI API 请求失败的常见原因包括1)错误的 URL 地址,2)不稳定的网络连接VPN等,3)欠费,4)API服务商故障。根据用户反馈,网络不稳定是频繁出现的原因,并且在解决了连接问题后,问题通常能成功解决。
Q5: 如何为我自己的问题编写测试功能?
需要创建两个主要文件:
evaluation.py和template.py。在evaluation.py中,实现一个继承自llm4ad.base.Evaluation的类,并重写evaluate_program函数,该函数定义了算法的评分方式(分数越高越好)。在初始化该类时,将template_program传递给其父类,以规范化函数风格,确保生成的算法符合特定格式(函数名、参数列表、文档字符串等)。可以参考 B站上的视频教程获取详细指导。Q6: 为什么在设置好大语言模型后,尽管运行日志正常,GUI 界面却显示空结果?
这很可能是因为大语言模型的响应时间较长,结果尚未返回。请检查
samples/samples_1~200.json路径下是否存在示例文件。如果文件不存在,则表明大语言模型尚未返回响应。请注意,samples文件夹和run_log.txt文件通常位于同一目录。Q7:
randsample.py中运行示例的设置应该在哪里配置?文档可能已过时,代码仓库中的一些调整尚未同步更新。如果您想尝试搜索方法,可以参考
run_eoh.py文件。如果您倾向于使用随机采样方法,可以尝试我们在 Colab 上的公开教程笔记本:online_bin_packing_tutorial.ipynb。Q8: 在 OpenAI 和 DeepSeek 中生成的 API 密钥可以直接用于 LLM4AD 平台进行测试吗?
如果您购买了 DeepSeek API 的额度,您可能需要将相应的主机地址修改为
api.deepseek.com,并设置 API 密钥和模型名称(例如deepseek-chat)。是否需要充值取决于您所使用的大模型平台的具体政策。如果您在 Colab 上运行教程笔记本,测试会很快,因为默认的样本量通常是 10。Q9: 大语言模型在算法设计方面有哪些优势?
在算法设计方面,大语言模型并不总是优于神经网络、模拟退火或专家经验。然而,与神经网络相比,大语言模型具有以下优势:
Q10: 是否有将大语言模型应用于解决现实世界中实际问题的案例或工作?
有大量的实际应用案例。您可以根据自己感兴趣的领域进行搜索,以找到相关的例子。此外,我们撰写了一篇关于算法设计应用的综述,您可能会感兴趣。
Q11: 为什么即使在
run_gui.py中设置了 host、key 和 model,GUI 界面仍然显示“请配置大语言模型的设置”?您需要在 GUI 界面本身配置 host、key 和 model,而不是在
run_gui.py文件中。Q12: LLM4AD 中的 EoH 实现与原始的 EoH 有何不同?
EoH 代码和 LLM4AD 平台中的实现基本相同,仅有两点细微差异:
我们建议使用 LLM4AD 的实现,因为它更健壮且模块化。
Q13: 如何设置目标函数是最大化还是最小化?
LLM4AD 平台默认是最大化目标。如果您想最小化,可以在
evaluation中返回的值前面加上一个负号。Q14:
template.py中的所有注释都有助于 EoH 生成提示词吗?注释对 EoH 有帮助,但其主要目的是清晰地解释输入和输出是什么。虽然清晰度很重要,但在解释了基本要素之后,越简单越好。
Q15: 为什么
template.py和evaluation.py中有不同的pack_circles()函数定义?EoH 使用的是
template.py中的函数定义。evaluation.py中if __name__ == '__main__':下的内容除了用于调试外,没有其他作用。Q16:
template.py中初始函数定义的选择或设计遵循什么原则?初始定义的原则是尽可能保持简单,或者在有常见简单算法的情况下使用它们作为初始值。EoH 实际上并不需要这个初始值,它只需要一个模板。关于复杂度,运行算法有时间限制,超过此限制的算法将被丢弃(例如,
task = CirclePackingEvaluation(timeout_seconds=1200)意味着运行时间超过 1200 秒的算法将被丢弃;您可以修改此timeout_seconds来限制算法的最大运行时间)。Q17: EoH 优化后,优化过的结果保存在哪里?
它们保存在
log_dir中。例如,如果设置了profiler=EoHProfiler(log_dir='logs/eoh', log_style='simple'),它们将被保存在logs/eoh目录中。Q18: 如何添加已有的算法或者手工设计的算法进入种群?
我们在这个路径提供了一个在初始种群加入种子算法的例子: https://github.com/Optima-CityU/LLM4AD/tree/main/example/method_add_seeds
Q19: 如何基于跑了一半的结果或者已有结果续算?
我们在这个路径提供了一个续算的例子: https://github.com/Optima-CityU/LLM4AD/tree/main/example/method_Resume
Beta Was this translation helpful? Give feedback.
All reactions