llm.py 1.1 KB

123456789101112131415161718192021222324252627282930313233
  1. """
  2. 大模型配置
  3. """
  4. # 大模型 API 配置 (千问、llama-server 等 OpenAI 兼容接口)
  5. LLM_CONFIG = {
  6. # API 连接
  7. 'api_host': 'localhost', # API 主机地址
  8. 'api_port': 8111, # API 端口
  9. 'api_key': '', # API Key (如需要)
  10. 'use_https': False, # 是否使用 HTTPS
  11. # 模型配置
  12. 'model': 'Qwen2.5-VL-7B-Instruct', # 模型名称
  13. # 请求配置
  14. 'timeout': 30, # 超时时间(秒)
  15. 'max_retries': 3, # 最大重试次数
  16. 'retry_delay': 1.0, # 重试延迟(秒)
  17. }
  18. # 安全分析配置 (大模型判断)
  19. LLM_SAFETY_CONFIG = {
  20. 'enabled': True, # 是否启用大模型判断
  21. 'use_llm_for_safety': True, # 使用大模型判断安全状态
  22. 'use_llm_for_number': True, # 使用大模型识别编号
  23. # 判断策略
  24. 'strategy': 'hybrid', # 'llm'(仅大模型), 'rule'(仅规则), 'hybrid'(混合)
  25. # 混合模式下,当 YOLO 检测到安全装备时是否仍用大模型验证
  26. 'verify_with_llm': True,
  27. }