yjzh-sq-prod.yaml 7.8 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166
  1. # 数据源配置
  2. spring:
  3. datasource:
  4. type: com.alibaba.druid.pool.DruidDataSource
  5. # 动态数据源文档 https://www.kancloud.cn/tracy5546/dynamic-datasource/content
  6. dynamic:
  7. # 性能分析插件(有性能损耗 不建议生产环境使用)
  8. p6spy: true
  9. # 设置默认的数据源或者数据源组,默认值即为 master
  10. primary: master
  11. datasource:
  12. # 主库数据源
  13. master:
  14. driverClassName: org.postgresql.Driver
  15. url: jdbc:postgresql://10.11.230.131:54032/yjzh?useUnicode=true&characterEncoding=utf8&zeroDateTimeBehavior=convertToNull&useSSL=true&serverTimezone=GMT%2B8&autoReconnect=true
  16. username: huashe
  17. password: huashe@2021
  18. # 从库数据源
  19. slave:
  20. lazy: true
  21. driverClassName: org.postgresql.Driver
  22. url: jdbc:postgresql://10.11.208.200:5872/dbplugin?useUnicode=true&characterEncoding=UTF-8&serverTimezone=Asia/Shanghai
  23. username: dbplugin
  24. password: db(456)plu!!
  25. druid:
  26. # 初始连接数
  27. initialSize: 5
  28. # 最小连接池数量
  29. minIdle: 10
  30. # 最大连接池数量
  31. maxActive: 20
  32. # 配置获取连接等待超时的时间
  33. maxWait: 60000
  34. # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
  35. timeBetweenEvictionRunsMillis: 60000
  36. # 配置一个连接在池中最小生存的时间,单位是毫秒
  37. minEvictableIdleTimeMillis: 300000
  38. # 配置一个连接在池中最大生存的时间,单位是毫秒
  39. maxEvictableIdleTimeMillis: 900000
  40. # 配置检测连接是否有效
  41. validationQuery: SELECT 1
  42. testWhileIdle: true
  43. testOnBorrow: false
  44. testOnReturn: false
  45. # 注意这个值和druid原生不一致,默认启动了stat
  46. filters: stat
  47. --- # druid 配置
  48. spring:
  49. datasource:
  50. druid:
  51. webStatFilter:
  52. enabled: true
  53. statViewServlet:
  54. enabled: true
  55. # 设置白名单,不填则允许所有访问
  56. allow:
  57. url-pattern: /druid/*
  58. # 控制台管理用户名和密码
  59. login-username: ruoyi
  60. login-password: 123456
  61. filter:
  62. stat:
  63. enabled: true
  64. # 慢SQL记录
  65. log-slow-sql: true
  66. slow-sql-millis: 1000
  67. merge-sql: true
  68. wall:
  69. config:
  70. multi-statement-allow: true
  71. --- # redis 配置
  72. spring:
  73. redis:
  74. # 地址
  75. host: 10.11.230.132
  76. # 端口,默认为6379
  77. port: 6379
  78. # 数据库索引
  79. database: 10
  80. # 密码
  81. password: superman
  82. # 连接超时时间
  83. timeout: 10s
  84. # 是否开启ssl
  85. ssl: false
  86. redisson:
  87. # 线程池数量
  88. threads: 16
  89. # Netty线程池数量
  90. nettyThreads: 32
  91. # 传输模式
  92. transportMode: "NIO"
  93. # 单节点配置
  94. singleServerConfig:
  95. # 客户端名称
  96. clientName: ${ruoyi.name}
  97. # 最小空闲连接数
  98. connectionMinimumIdleSize: 32
  99. # 连接池大小
  100. connectionPoolSize: 64
  101. # 连接空闲超时,单位:毫秒
  102. idleConnectionTimeout: 10000
  103. # 命令等待超时,单位:毫秒
  104. timeout: 3000
  105. # 如果尝试在此限制之内发送成功,则开始启用 timeout 计时。
  106. retryAttempts: 3
  107. # 命令重试发送时间间隔,单位:毫秒
  108. retryInterval: 1500
  109. # 发布和订阅连接的最小空闲连接数
  110. subscriptionConnectionMinimumIdleSize: 1
  111. # 发布和订阅连接池大小
  112. subscriptionConnectionPoolSize: 50
  113. # 单个连接最大订阅数量
  114. subscriptionsPerConnection: 5
  115. # DNS监测时间间隔,单位:毫秒
  116. dnsMonitoringInterval: 5000
  117. --- # kafaka 配置
  118. spring:
  119. kafka:
  120. # 指定kafkaserver的地址,集群配多个,中间,逗号隔开
  121. bootstrap-servers: 10.11.230.139:9092
  122. producer:
  123. #procedure要求leader在考虑完成请求之前收到的确认数,用于控制发送记录在服务端的持久化,其值可以为如下:
  124. #acks = 0 如果设置为零,则生产者将不会等待来自服务器的任何确认,该记录将立即添加到套接字缓冲区并视为已发送。在这种情况下,无法保证服务器已收到记录,并且重试配置将不会生效(因为客户端通常不会知道任何故障),为每条记录返回的偏移量始终设置为-1。
  125. #acks = 1 这意味着leader会将记录写入其本地日志,但无需等待所有副本服务器的完全确认即可做出回应,在这种情况下,如果leader在确认记录后立即失败,但在将数据复制到所有的副本服务器之前,则记录将会丢失。
  126. #acks = all 这意味着leader将等待完整的同步副本集以确认记录,这保证了只要至少一个同步副本服务器仍然存活,记录就不会丢失,这是最强有力的保证,这相当于acks = -1的设置。
  127. #可以设置的值为:all, -1, 0, 1
  128. acks: 1
  129. # 每次批量发送消息的数量,produce积累到一定数据,一次发送
  130. batch-size: 16384
  131. # produce积累数据一次发送,缓存大小达到buffer.memory就发送数据
  132. buffer-memory: 33554432
  133. # 写入失败时,重试次数。当leader节点失效,一个repli节点会替代成为leader节点,此时可能出现写入失败,
  134. # 当retris为0时,produce不会重复。retirs重发,此时repli节点完全成为leader节点,不会产生消息丢失。
  135. retries: 0
  136. # 指定消息key和消息体的编解码方式
  137. key-serializer: org.apache.kafka.common.serialization.StringSerializer
  138. value-serializer: org.apache.kafka.common.serialization.StringSerializer
  139. consumer:
  140. # 默认的消费组ID
  141. group-id: huashe-consumer-group
  142. enable-auto-commit: true
  143. auto-offset-reset: latest
  144. key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  145. value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  146. auto-commit-interval: 1000
  147. ---
  148. ruoyi:
  149. # 文件路径 示例( Windows配置D:/tocc/uploadPath,Linux配置 /xintong/server/uploadPath)
  150. profile: /home/tocc
  151. third:
  152. dhAuthorize: http://10.55.134.3:6699/videoService/accounts/authorize # 大华鉴权创建用户会话
  153. keepalive: http://10.55.134.3:6699/videoService/accounts/token/keepalive # 大华会话保活
  154. dhDeviceTree: http://10.55.134.3:6699/videoService/devicesManager/deviceTree # 大华设备树
  155. incidentUrl: https://tocc.jtj.suqian.gov.cn:30030/sqmb/#/status/3/detaillite?id=#incidentId&taskid=#taskId # 移动端待办跳转链接
  156. incidentDetailUrl: https://tocc.jtj.suqian.gov.cn:30030/sqmb/#/status/3/detail?id=#incidentId # 事件详情页面
  157. resourceUrl: https://tocc.jtj.suqian.gov.cn:30030/sqmb/#/warehouse/list?taskid=#taskId # 移动端资源跳转链接
  158. chemicalUrl: https://tocc.jtj.suqian.gov.cn:30030/sqmb/#/chemical/detail?id= # 危化品详情页面
  159. dhVideoUserName: huashe2
  160. dhPCUserName: huashe3
  161. fileUrl: http://10.11.230.159:32905 # 第三方文件系统访问地址