application-test1.yml 4.8 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114
  1. platomix:
  2. etl:
  3. enabled: true
  4. flinkHome: /opt/bigdata/flink-1.15.4
  5. flinkVersion: 1.15.4
  6. flinkWebInterfaceUrls:
  7. - http://localhost:8081
  8. flinkResourceProvider: STANDALONE
  9. seatunnelHome: /opt/bigdata/apache-seatunnel-2.3.2
  10. seatunnelVersion: 2.3.2
  11. tempWorkspace: /opt/bigdata/temp
  12. clusterCredentialPath: /opt/bigdata/temp
  13. preview-redis:
  14. host: 121.204.253.223
  15. port: 6379
  16. auth: ltbiydhao5
  17. database: 4
  18. sftp:
  19. host: 121.204.253.223
  20. port: 22
  21. user: root
  22. password: kk30@123
  23. uploadDir: /opt/bigdata/upload
  24. dsy: #数据同步的datax环境
  25. dataxHome: /opt/bigdata/datax
  26. dataxExecHome: /opt/bigdata/datax_data
  27. sshServers:
  28. - ip: 121.204.249.37
  29. user: root
  30. password: 993fNeaQ
  31. xxl:
  32. job:
  33. enabled: true
  34. ### xxl-job, access token
  35. accessToken: platomix_token
  36. admin:
  37. addresses: http://windata.platomix.net/xxl-job-admin
  38. executor:
  39. ### xxl-job executor address
  40. appname: platomix-etl
  41. groupid: 2 #对应appname的id值
  42. ip: ''
  43. port: 6972
  44. ### xxl-job log retention days
  45. logretentiondays: 30
  46. ### xxl-job log path
  47. logpath: /opt/bigdata/xxl-job/jobhandler
  48. spring:
  49. cloud.discovery.client.simple:
  50. # 配置BI服务「system-bi」的ip和端口
  51. instances:
  52. system-service:
  53. - host: localhost #地址
  54. port: 6161 #端口
  55. datasource:
  56. dynamic:
  57. druid:
  58. #初始化大小,最小,最大
  59. initial-size: 0
  60. min-idle: 5
  61. max-active: 5
  62. #获取连接时最大等待时间,单位毫秒。配置了maxWait之后,缺省启用公平锁,
  63. max-wait: 30000
  64. #执行查询的超时时间【单位:秒,最终应用到Statement对象的超时】
  65. #query-timeout: 10
  66. #一个事务的超时时间
  67. #transaction-query-timeout: 20
  68. #申请连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能。
  69. test-on-borrow: false
  70. #归还连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能
  71. test-on-return: false
  72. #设置从连接池获取连接时是否检查连接有效性,true时,如果连接空闲时间超过minEvictableIdleTimeMillis进行检查,否则不检查;false时,不检查
  73. test-while-idle: true
  74. #检查连接的方式和超时时间
  75. validation-query: "select 1"
  76. validation-query-timeout: 2000
  77. #配置间隔多久启动一次DestroyThread,对连接池内的连接才进行一次检测,单位是毫秒。
  78. #检测时: 1.如果连接空闲并且超过minIdle以外的连接,如果空闲时间超过minEvictableIdleTimeMillis设置的值则直接物理关闭。
  79. # 2.在minIdle以内的不处理。
  80. time-between-eviction-runs-millis: 10000
  81. #配置一个连接在池中最小生存的时间
  82. min-evictable-idle-time-millis: 60000
  83. #是否超时关闭连接 默认为false 【若为true 就算数据库恢复连接,也无法连接上】
  84. #break-after-acquire-failure: false
  85. #connection-error-retry-attempts: 1
  86. #time-between-connect-error-millis: 500
  87. #打开KeepAlive之后的效果
  88. #1>初始化连接池时会填充到minIdle数量。
  89. #2>连接池中的minIdle数量以内的连接,空闲时间超过minEvictableIdleTimeMillis,则会执行keepAlive操作。
  90. #3>当网络断开等原因产生的由ExceptionSorter检测出来的死连接被清除后,自动补充连接到minIdle数量。
  91. #连接池中的minIdle数量以内的连接,空闲时间超过minEvictableIdleTimeMillis,则会执行keepAlive操作
  92. #每次检查强制验证连接有效性 https://github.com/alibaba/druid/wiki/KeepAlive_cn
  93. keepAlive: true
  94. #2次keepAlive操作的时间间隔
  95. #空闲保活时间,超过时间需要保活,默认2*60s
  96. keep-alive-between-time-millis: 120000
  97. filters: slf4j
  98. primary: master #设置默认的数据源或者数据源组,默认值即为master
  99. datasource:
  100. master:
  101. driver-class-name: com.mysql.cj.jdbc.Driver
  102. url: jdbc:mysql://localhost:3306/digital_operation?useSSL=false&useUnicode=true&characterEncoding=utf-8&autoReconnect=true&allowPublicKeyRetrieval=true
  103. username: root
  104. password: Platomix@mysql123
  105. apimngr:
  106. insertUrl: http://121.204.252.205:8081/api/apimngr/insertNoAuth