yjzh-sq-dev.yaml 8.0 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168
  1. # 数据源配置
  2. spring:
  3. datasource:
  4. type: com.alibaba.druid.pool.DruidDataSource
  5. # 动态数据源文档 https://www.kancloud.cn/tracy5546/dynamic-datasource/content
  6. dynamic:
  7. # 性能分析插件(有性能损耗 不建议生产环境使用)
  8. p6spy: true
  9. # 设置默认的数据源或者数据源组,默认值即为 master
  10. primary: master
  11. datasource:
  12. # 主库数据源
  13. # master:
  14. # driverClassName: com.mysql.cj.jdbc.Driver
  15. # url: jdbc:mysql://cd-cdb-mrgi4hig.sql.tencentcdb.com:63225/tocc-sq?useUnicode=true&characterEncoding=utf8&zeroDateTimeBehavior=convertToNull&useSSL=true&serverTimezone=GMT%2B8&autoReconnect=true
  16. # username: tocc_sq
  17. # password: tocc_sq1
  18. master:
  19. driverClassName: org.postgresql.Driver
  20. url: jdbc:postgresql://xt.wenhq.top:8284/tocc-sq?useUnicode=true&characterEncoding=utf8&zeroDateTimeBehavior=convertToNull&useSSL=true&serverTimezone=GMT%2B8&autoReconnect=true
  21. username: postgres
  22. password: postgres
  23. # 从库数据源
  24. slave:
  25. lazy: true
  26. driverClassName: org.postgresql.Driver
  27. url: jdbc:postgresql://10.11.208.200:5872/dbplugin?useUnicode=true&characterEncoding=UTF-8&serverTimezone=Asia/Shanghai
  28. username: dbplugin
  29. password: db(456)plu!!
  30. druid:
  31. # 初始连接数
  32. initialSize: 5
  33. # 最小连接池数量
  34. minIdle: 10
  35. # 最大连接池数量
  36. maxActive: 20
  37. # 配置获取连接等待超时的时间
  38. maxWait: 60000
  39. # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
  40. timeBetweenEvictionRunsMillis: 60000
  41. # 配置一个连接在池中最小生存的时间,单位是毫秒
  42. minEvictableIdleTimeMillis: 300000
  43. # 配置一个连接在池中最大生存的时间,单位是毫秒
  44. maxEvictableIdleTimeMillis: 900000
  45. # 配置检测连接是否有效
  46. validationQuery: SELECT 1
  47. testWhileIdle: true
  48. testOnBorrow: false
  49. testOnReturn: false
  50. # 注意这个值和druid原生不一致,默认启动了stat
  51. filters: stat
  52. --- # druid 配置
  53. spring:
  54. datasource:
  55. druid:
  56. webStatFilter:
  57. enabled: true
  58. statViewServlet:
  59. enabled: true
  60. # 设置白名单,不填则允许所有访问
  61. allow:
  62. url-pattern: /druid/*
  63. # 控制台管理用户名和密码
  64. login-username: ruoyi
  65. login-password: 123456
  66. filter:
  67. stat:
  68. enabled: true
  69. # 慢SQL记录
  70. log-slow-sql: true
  71. slow-sql-millis: 1000
  72. merge-sql: true
  73. wall:
  74. config:
  75. multi-statement-allow: true
  76. --- # redis 配置
  77. spring:
  78. redis:
  79. # 地址
  80. host: 200.200.19.121
  81. # 端口,默认为6379
  82. port: 30379
  83. # 数据库索引
  84. database: 10
  85. # 密码
  86. password:
  87. # 连接超时时间
  88. timeout: 10s
  89. # 是否开启ssl
  90. ssl: false
  91. redisson:
  92. # 线程池数量
  93. threads: 16
  94. # Netty线程池数量
  95. nettyThreads: 32
  96. # 传输模式
  97. transportMode: "NIO"
  98. # 单节点配置
  99. singleServerConfig:
  100. # 客户端名称
  101. clientName: ${ruoyi.name}
  102. # 最小空闲连接数
  103. connectionMinimumIdleSize: 32
  104. # 连接池大小
  105. connectionPoolSize: 64
  106. # 连接空闲超时,单位:毫秒
  107. idleConnectionTimeout: 10000
  108. # 命令等待超时,单位:毫秒
  109. timeout: 3000
  110. # 如果尝试在此限制之内发送成功,则开始启用 timeout 计时。
  111. retryAttempts: 3
  112. # 命令重试发送时间间隔,单位:毫秒
  113. retryInterval: 1500
  114. # 发布和订阅连接的最小空闲连接数
  115. subscriptionConnectionMinimumIdleSize: 1
  116. # 发布和订阅连接池大小
  117. subscriptionConnectionPoolSize: 50
  118. # 单个连接最大订阅数量
  119. subscriptionsPerConnection: 5
  120. # DNS监测时间间隔,单位:毫秒
  121. dnsMonitoringInterval: 5000
  122. --- # kafaka 配置
  123. spring:
  124. kafka:
  125. # 指定kafkaserver的地址,集群配多个,中间,逗号隔开
  126. bootstrap-servers: 10.1.154.115:9092
  127. producer:
  128. #procedure要求leader在考虑完成请求之前收到的确认数,用于控制发送记录在服务端的持久化,其值可以为如下:
  129. #acks = 0 如果设置为零,则生产者将不会等待来自服务器的任何确认,该记录将立即添加到套接字缓冲区并视为已发送。在这种情况下,无法保证服务器已收到记录,并且重试配置将不会生效(因为客户端通常不会知道任何故障),为每条记录返回的偏移量始终设置为-1。
  130. #acks = 1 这意味着leader会将记录写入其本地日志,但无需等待所有副本服务器的完全确认即可做出回应,在这种情况下,如果leader在确认记录后立即失败,但在将数据复制到所有的副本服务器之前,则记录将会丢失。
  131. #acks = all 这意味着leader将等待完整的同步副本集以确认记录,这保证了只要至少一个同步副本服务器仍然存活,记录就不会丢失,这是最强有力的保证,这相当于acks = -1的设置。
  132. #可以设置的值为:all, -1, 0, 1
  133. acks: 1
  134. # 每次批量发送消息的数量,produce积累到一定数据,一次发送
  135. batch-size: 16384
  136. # produce积累数据一次发送,缓存大小达到buffer.memory就发送数据
  137. buffer-memory: 33554432
  138. # 写入失败时,重试次数。当leader节点失效,一个repli节点会替代成为leader节点,此时可能出现写入失败,
  139. # 当retris为0时,produce不会重复。retirs重发,此时repli节点完全成为leader节点,不会产生消息丢失。
  140. retries: 0
  141. # 指定消息key和消息体的编解码方式
  142. key-serializer: org.apache.kafka.common.serialization.StringSerializer
  143. value-serializer: org.apache.kafka.common.serialization.StringSerializer
  144. consumer:
  145. # 默认的消费组ID
  146. group-id: defaultConsumerGroup
  147. enable-auto-commit: true
  148. auto-offset-reset: latest
  149. key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  150. value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  151. auto-commit-interval: 1000
  152. ---
  153. ruoyi:
  154. # 文件路径 示例( Windows配置D:/tocc/uploadPath,Linux配置 /xintong/server/uploadPath)
  155. profile: /home/tocc
  156. third:
  157. dhAuthorize: http://10.211.55.3:6699/videoService/accounts/authorize # 大华鉴权创建用户会话
  158. keepalive: http://10.211.55.3:6699/videoService/accounts/token/keepalive # 大华会话保活
  159. dhDeviceTree: http://10.211.55.3:6699/videoService/devicesManager/deviceTree # 大华设备树
  160. incidentUrl: http://sqmb.xt.wenhq.top:8083/#/status/3/detaillite?id=#incidentId&taskid=#taskId # 移动端待办跳转链接
  161. incidentDetailUrl: http://sqmb.xt.wenhq.top:8083/#/status/3/detail?id=#incidentId # 事件详情页面
  162. resourceUrl: http://sqmb.xt.wenhq.top:8083/#/warehouse/detail # 移动端资源跳转链接
  163. chemicalUrl: http://sqmb.xt.wenhq.top:8083/#/chemical/detail?id= # 危化品详情页面