• FastDFS配置文件(tracker.conf)


    1. # ===========================基本配置====================================
    2. # 该配置文件是否生效
    3. # false:生效
    4. # true:无效
    5. disabled=false
    6. # 绑定IP
    7. # 后面为绑定的IP地址 (常用于服务器有多个IP但只希望一个IP提供服务)。
    8. # 如果不填则表示所有的(一般不填就OK),相信较熟练的SA都常用到类似功能,
    9. # 很多系统和应用都有
    10. bind_addr=
    11. # 服务端口
    12. port=22122
    13. # 连接超时(秒)
    14. # 默认值 30s
    15. connect_timeout=30
    16. # 网络超时(秒)
    17. # 默认值 30s
    18. network_timeout=60
    19. # Tracker数据/日志目录地址
    20. # ${base_path}
    21. # |__data
    22. # | |__storage_groups.dat:存储分组信息
    23. # | |__storage_servers.dat:存储服务器列表
    24. # |__logs
    25. # |__trackerd.log:tracker server日志文件
    26. base_path=/home/yuqing/fastdfs
    27. # 数据文件storage_groups.dat和storage_servers.dat中的记录之间以换行符( )分隔,字段之间以西文逗号(,)分隔。
    28. # storage_groups.dat中的字段依次为:
    29. # 1. group_name:组名
    30. # 2. storage_port:storage server端口号
    31. #
    32. # storage_servers.dat中记录storage server相关信息,字段依次为:
    33. # 1. group_name:所属组名
    34. # 2. ip_addr:ip地址
    35. # 3. status:状态
    36. # 4. sync_src_ip_addr:向该storage server同步已有数据文件的源服务器
    37. # 5. sync_until_timestamp:同步已有数据文件的截至时间(UNIX时间戳)
    38. # 6. stat.total_upload_count:上传文件次数
    39. # 7. stat.success_upload_count:成功上传文件次数
    40. # 8. stat.total_set_meta_count:更改meta data次数
    41. # 9. stat.success_set_meta_count:成功更改meta data次数
    42. # 10. stat.total_delete_count:删除文件次数
    43. # 11. stat.success_delete_count:成功删除文件次数
    44. # 12. stat.total_download_count:下载文件次数
    45. # 13. stat.success_download_count:成功下载文件次数
    46. # 14. stat.total_get_meta_count:获取meta data次数
    47. # 15. stat.success_get_meta_count:成功获取meta data次数
    48. # 16. stat.last_source_update:最近一次源头更新时间(更新操作来自客户端)
    49. # 17. stat.last_sync_update:最近一次同步更新时间(更新操作来自其他storage server的同步)
    50. # 最大连接数
    51. max_connections=256
    52. # w线程数,通常设置CPU数,值 <= 最大连接数
    53. # 默认值 4
    54. work_threads=4
    55. # 上传文件的选组方式,如果在应用层指定了上传到一个固定组,那么这个参数被绕过
    56. # 0: 表示轮询
    57. # 1: 表示指定组
    58. # 2: 表示存储负载均衡(选择剩余空间最大的组)
    59. store_lookup=2
    60. # 指定上传的组,如果在应用层指定了具体的组,那么这个参数将不会起效。
    61. # 另外如果store_lookup如果是0或2,则此参数无效
    62. store_group=group2
    63. # 选择哪个storage server 进行上传操作
    64. # 一个文件被上传后,这个storage server就相当于这个文件的storage server源,
    65. # 会对同组的storage server推送这个文件达到同步效果
    66. # 0: 轮询方式(默认)
    67. # 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者)
    68. # 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority),优先级值越小优先级越高。
    69. store_server=0
    70. # 上传路径的选择方式。storage server可以有多个存放文件的base path(可以理解为多个磁盘)
    71. # 0: 轮流方式,多个目录依次存放文件
    72. # 2: 选择剩余空间最大的目录存放文件(注意:剩余磁盘空间是动态的,因此存储到的目录或磁盘可能也是变化的)
    73. store_path=0
    74. # 选择哪个 storage server 作为下载服务器
    75. # 0: 轮询方式,可以下载当前文件的任一storage server
    76. # 1: 哪个为源storage server就用哪一个,就是之前上传到哪个storage server服务器就是哪个了
    77. download_server=0
    78. # storage server上保留的空间,保证系统或其他应用需求空间。
    79. # 可以用绝对值或者百分比(V4开始支持百分比方式)
    80. # 如果同组的服务器的硬盘大小一样,以最小的为准
    81. # a group <= reserved_storage_space,
    82. # no file can be uploaded to this group.
    83. # bytes unit can be one of follows:
    84. ### G or g for gigabyte(GB)
    85. ### M or m for megabyte(MB)
    86. ### K or k for kilobyte(KB)
    87. ### no unit for byte(B)
    88. ### XX.XX% as ratio such as reserved_storage_space = 10%
    89. reserved_storage_space = 10%
    90. # 选择日志级别
    91. ### emerg for emergency
    92. ### alert
    93. ### crit for critical
    94. ### error
    95. ### warn for warning
    96. ### notice
    97. ### info
    98. ### debug
    99. log_level=info
    100. # 指定运行该程序的用户组(不填 就是当前用户组,哪个启动进程就是哪个)
    101. run_by_group=
    102. # 操作系统运行FastDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)
    103. run_by_user=
    104. # 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server)
    105. # "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
    106. # host[01-08,20-25].domain.com, for example:
    107. # allow_hosts=10.0.1.[1-15,20]
    108. # allow_hosts=host[01-08,20-25].domain.com
    109. allow_hosts=*
    110. # 同步或刷新日志信息到硬盘的时间间隔,单位为秒
    111. # 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。
    112. sync_log_buff_interval = 10
    113. # 检测 storage server 存活的时间隔,单位为秒。
    114. # storage server定期向tracker server 发心跳,
    115. # 如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,
    116. # 那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。
    117. # 通常配置为storage server心跳时间间隔的2倍或3倍。
    118. check_active_interval = 120
    119. # 线程栈的大小。FastDFS server端采用了线程方式。
    120. # 更正一下,tracker server线程栈不应小于64KB,不是512KB。
    121. # 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程可以适当降低本参数值。
    122. thread_stack_size = 64KB
    123. # 这个参数控制当storage server IP地址改变时,集群是否自动调整。
    124. # 注:只有在storage server进程重启时才完成自动调整。
    125. storage_ip_changed_auto_adjust = true
    126. # ===========================同步======================================
    127. # V2.0引入的参数。存储服务器之间同步文件的最大延迟时间,缺省为1天。根据实际情况进行调整
    128. # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值)
    129. # default value is 86400 seconds (one day)
    130. storage_sync_file_max_delay = 86400
    131. # V2.0引入的参数。存储服务器同步一个文件需要消耗的最大时间,缺省为300s,即5分钟。
    132. # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值)
    133. storage_sync_file_max_time = 300
    134. # ===========================trunk 和 slot============================
    135. # V3.0引入的参数。是否使用小文件合并存储特性,缺省是关闭的。
    136. use_trunk_file = false
    137. # V3.0引入的参数。
    138. # trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。
    139. # the min slot size, should <= 4KB
    140. # default value is 256 bytes
    141. slot_min_size = 256
    142. # V3.0引入的参数。
    143. # 只有文件大小<=这个参数值的文件,才会合并存储。
    144. # 如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。
    145. slot_max_size = 16MB
    146. # V3.0引入的参数。
    147. # 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。
    148. trunk_file_size = 64MB
    149. # 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。
    150. # default value is false
    151. # since V3.06
    152. trunk_create_file_advance = false
    153. # 提前创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点
    154. # the time format: HH:MM
    155. # default value is 02:00
    156. # since V3.06
    157. trunk_create_file_time_base = 02:00
    158. # 创建trunk file的时间间隔,单位为秒。如果每天只提前创建一次,则设置为86400
    159. # default value is 38400 (one day)
    160. # since V3.06
    161. trunk_create_file_interval = 86400
    162. # 提前创建trunk file时,需要达到的空闲trunk大小
    163. # 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。
    164. # default value is 0
    165. # since V3.06
    166. trunk_create_file_space_threshold = 20G
    167. # trunk初始化时,是否检查可用空间是否被占用
    168. # if check trunk space occupying when loading trunk free spaces
    169. # the occupied spaces will be ignored
    170. # default value is false
    171. # since V3.09
    172. # NOTICE: set this parameter to true will slow the loading of trunk spaces
    173. # when startup. you should set this parameter to true when neccessary.
    174. trunk_init_check_occupying = false
    175. # 是否无条件从trunk binlog中加载trunk可用空间信息
    176. # FastDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间,
    177. # 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载
    178. # if ignore storage_trunk.dat, reload from trunk binlog
    179. # default value is false
    180. # since V3.10
    181. # set to true once for version upgrade when your version less than V3.10
    182. trunk_init_reload_from_binlog = false
    183. # 是否使用server ID作为storage server标识
    184. # since V4.00
    185. use_storage_id = false
    186. # use_storage_id 设置为true,才需要设置本参数
    187. # 在文件中设置组名、server ID和对应的IP地址,参见源码目录下的配置示例:conf/storage_ids.conf
    188. # since V4.00
    189. storage_ids_filename = storage_ids.conf
    190. # 存储服务器的文件名中的id类型,取值如下
    191. ## IP:存储服务器的IP地址
    192. ## id:被存储服务器的服务器标识
    193. # 只有当use_storage_id设置为true时此参数是有效的
    194. # 默认值是IP
    195. # since V4.03
    196. id_type_in_filename = ip
    197. # 存储从文件是否采用symbol link(符号链接)方式
    198. # 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。
    199. # if store slave file use symbol link
    200. # default value is false
    201. # since V4.01
    202. store_slave_file_use_link = false
    203. # 是否定期轮转error log,目前仅支持一天轮转一次
    204. # if rotate the error log every day
    205. # default value is false
    206. # since V4.02
    207. rotate_error_log = false
    208. # error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
    209. # rotate error log time base, time format: Hour:Minute
    210. # Hour from 0 to 23, Minute from 0 to 59
    211. # default value is 00:00
    212. # since V4.02
    213. error_log_rotate_time=00:00
    214. # error log按大小轮转
    215. # 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
    216. # rotate error log when the log file exceeds this size
    217. # 0 means never rotates log file by log file size
    218. # default value is 0
    219. # since V4.02
    220. rotate_error_log_size = 0
    221. # 是否使用连接池
    222. # default value is false
    223. # since V4.05
    224. use_connection_pool = false
    225. # 连接的空闲时间超过这个时间将被关闭,单位:秒
    226. # default value is 3600
    227. # since V4.05
    228. connection_pool_max_idle_time = 3600
    229. # ===========================HTTP 相关=================================
    230. # HTTP是否生效
    231. # true 失效
    232. # false 生效
    233. http.disabled=false
    234. # tracker server上的HTTP服务器端口号
    235. http.server_port=8090
    236. # 检查storage http server存活的间隔时间,单位为秒
    237. # <= 0 for never check
    238. # default value is 30
    239. http.check_alive_interval=30
    240. # 检查storage http server存活的方式
    241. # tcp:连接到storage server的http端口,不进行request和response。
    242. # http:storage check alive url must return http status 200.
    243. #note:只有http.disabled=false时才生效
    244. # default value is tcp
    245. http.check_alive_type=tcp
    246. # 检查storage http server是否alive的uri/url
    247. # NOTE: storage embed HTTP server support uri: /status.html
    248. http.check_alive_uri=/status.html
    249. # 如果需要查找的内容类型格式的文件扩展名
    250. http.need_find_content_type=true
    251. # HTTP服务的其他配置文件
    252. #include http.con





  • 相关阅读:
    学习redis-安装和基本一些命令
    Eclipse启动报错Java was started but returned exit code=13
    踩过的坑系列之InputStream.read(byte[])方法
    <<深入Java虚拟机>>-虚拟机类加载机制-学习笔记
    <<深入Java虚拟机>>-第三章-垃圾收集器与内存分配策略-学习笔记
    <<深入Java虚拟机>>-第二章-Java内存区域-学习笔记
    创建线程的两种方式比较Thread VS Runnable
    Java设计模式之--代理模式学习
    shell脚本中$参数的介绍
    (转)使用DataTime这个类来获取当前的时间
  • 原文地址:https://www.cnblogs.com/LiZhiW/p/4279281.html
Copyright © 2020-2023  润新知