本帖最后由 Jnu2021 于 2024-10-30 16:58 编辑 用greatsql官网的docker命令依次启动,为什么看不了日志啊?是要用greatsql-automake.sh 开启吗? 是因为greatsql默认屏蔽构建过程中的屏幕输出内容吗? 命令如下: root@lavm-5e5kztdhpl ~]# docker logs greatsqlMAXPERF invalid 主要是我更换了cnf文件到容器里面再打包成镜像然后启动的时候,就会启动失败,报错MAXPERF invalid, 因为没有错误日志我也不知道哪里出问题了,下附我更改后的my.cnf,只动了基本的参数 服务器可用总内存为2c4g [client] socket = /data/GreatSQL/mysql.sock [mysql] loose-skip-binary-as-hex prompt="(\\D)[\\u@GreatSQL][\\d]>" no-auto-rehash [mysqld] user = mysql port = 3305 server_id = 3305 basedir = /usr/ datadir = /data/GreatSQL socket = /data/GreatSQL/mysql.sock pid-file = mysql.pid character-set-server = UTF8MB4 skip_name_resolve = 1 #掽运行在境外,根据实际情况调整本参数 default_time_zone = "+8:00" #performance setttings # 锁等待超时时间(s) lock_wait_timeout = 3600 # 系统允许的最大打开文件数,调低至适合小内存的值 open_files_limit = 1024 # 连接排队等待的最大请求数 back_log = 512 # 最大连接数 max_connections = 512 # 最大连接错误数 max_connect_errors = 10000 # 表缓存和表定义缓存 table_open_cache = 512 table_definition_cache = 512 # 排序和连接缓存大小 sort_buffer_size = 1M join_buffer_size = 1M # 读取缓存 read_buffer_size = 2M read_rnd_buffer_size = 2M # 批量插入缓存大小 bulk_insert_buffer_size = 16M # 线程缓存 thread_cache_size = 50 # # 交互式超时时间 interactive_timeout = 300 wait_timeout = 300 # 临时表大小和最大堆表大小 tmp_table_size = 96M max_heap_table_size = 96M #log settings # 时间戳设置 log_timestamps = SYSTEM # 错误日志路径 log_error = /data/GreatSQL/error.log # 错误日志详细等级 log_error_verbosity = 3 # 慢查询日志开关 slow_query_log = 1 # 慢查询日志增加额外信息 log_slow_extra = 1 # 慢查询日志文件路径 slow_query_log_file = /data/GreatSQL/slow.log # 慢查询的时间阈值 long_query_time = 0.1 # 记录未使用索引的查询 log_queries_not_using_indexes = 1 # 对未使用索引查询的日志写入进行限流 log_throttle_queries_not_using_indexes = 60 # 设置记录慢查询的最低检查行数 min_examined_row_limit = 100 # 记录慢速管理语句 log_slow_admin_statements = 1 # 记录慢速的从库语句 log_slow_slave_statements = 1 # 慢查询日志详细级别,保留为FULL log_slow_verbosity = FULL # 启用二进制日志并设置文件路径 log_bin = /data/GreatSQL/binlog # 二进制日志格式设置为 ROW 格式 binlog_format = ROW # 同步二进制日志的频率(s),设置为较低值以降低写频率 sync_binlog = 10 # 二进制日志缓存大小,保持为小值 binlog_cache_size = 1M # 二进制日志缓存的最大大小,减小上限以适应内存 max_binlog_cache_size = 256M # 单个二进制日志文件的最大大小 max_binlog_size = 128M # 记录行查询日志事件 binlog_rows_query_log_events = 1 # 二进制日志过期时间 binlog_expire_logs_seconds = 604800 # 二进制日志的校验方式 binlog_checksum = CRC32 # 二进制日志提交顺序,关闭有助于提升写入性能 binlog_order_commits = OFF # 启用 GTID 并确保一致性,保留原值 gtid_mode = ON enforce_gtid_consistency = TRUE #myisam settings key_buffer_size = 32M myisam_sort_buffer_size = 128M #replication settings # 启用 relay log 自动恢复 relay_log_recovery = 1 # 并行复制类型, slave_parallel_type = LOGICAL_CLOCK #并行复制线程数可以设置为逻辑CPU数量的1或2倍 slave_parallel_workers = 2 # 二进制日志事务依赖跟踪 binlog_transaction_dependency_tracking = WRITESET # 保持提交顺序, slave_preserve_commit_order = 1 # 从库检查点周期 slave_checkpoint_period = 2 #启用InnoDB并行查询优化功能 loose-force_parallel_execute = OFF #设置每个SQL语句的并行查询最大并发度 loose-parallel_default_dop = 2 #设置系统中总的并行查询线程数,可以和最大逻辑CPU数量一样 loose-parallel_max_threads = 4 #并行执行时leader线程和worker线程使用的总内存大小上限,可以设置物理内存的5-10%左右 loose-parallel_memory_limit = 256M #mgr settings # MGR 插件加载 loose-plugin_load_add = 'mysql_clone.so' loose-plugin_load_add = 'group_replication.so' # MGR组名 loose-group_replication_group_name = "aaaaaaaa-aaaa-aaaa-aaaa-aaaaaaaaaaa1" #MGR本地节点IPORT,请自行替换 loose-group_replication_local_address = "116.198.205.6:33051" #MGR集群所有节点IPORT,请自行替换 loose-group_replication_group_seeds = '116.198.205.6:33051' # 设置为随服务器启动时自动加入集群 loose-group_replication_start_on_boot = ON # 初次启动时不自动引导群集 loose-group_replication_bootstrap_group = OFF # 如果发生故障,将节点设置为只读模式 loose-group_replication_exit_state_action = READ_ONLY # 关闭流量控制模式以减少延迟 loose-group_replication_flow_control_mode = "DISABLED" # 启用单主模式 loose-group_replication_single_primary_mode = ON # 设置MGR多数决 loose-group_replication_majority_after_mode = ON # 最大消息大小,适应小内存服务器 loose-group_replication_communication_max_message_size = 1M # 禁用仲裁节点 loose-group_replication_arbitrator = 0 # 单主快速切换 loose-group_replication_single_primary_fast_mode = 1 # 请求的时间阈值 loose-group_replication_request_time_threshold = 100 # 主节点选举模式 loose-group_replication_primary_election_mode = GTID_FIRST # 超时设置 loose-group_replication_unreachable_majority_timeout = 0 loose-group_replication_member_expel_timeout = 5 loose-group_replication_autorejoin_tries = 288 loose-group_replication_recovery_get_public_key = ON # 设置报告 IP report_host = "16.198.205.6" #innodb settings # InnoDB 缓冲池大小:建议设为内存的 50%-70%,如 1.5G innodb_buffer_pool_size = 1.2G # 缓冲池实例数量,设置为 1 因为内存较小,多个实例会造成内存开销 innodb_buffer_pool_instances = 1 # InnoDB 数据文件路径,保持自动扩展 innodb_data_file_path = ibdata1:12M:autoextend # 日志刷新设置 innodb_flush_log_at_trx_commit = 1 # 日志缓冲大小,减小至 8M 以节省内存 innodb_log_buffer_size = 8M # 日志文件大小,设置为较小的 128M,减少内存占用 innodb_log_file_size = 128M # 日志文件组数量 innodb_log_files_in_group = 2 # doublewrite 文件数量 innodb_doublewrite_files = 1 # 最大撤销日志文件大小,适当减小为 512M innodb_max_undo_log_size = 512M # 根据服务器IOPS能力适当调整 # 一般配普通SSD盘的话,可以调整到 10000 - 20000 # 配置高端PCIe SSD卡的话,则可以调整的更高,比如 50000 - 80000 # IOPS 能力,根据小服务器设置为较低值 innodb_io_capacity = 1000 innodb_io_capacity_max = 2000 # InnoDB 打开的文件数量,适当减小以节省资源 innodb_open_files = 512 # 日志刷新方法,保留为 O_DIRECT innodb_flush_method = O_DIRECT # LRU 扫描深度 innodb_lru_scan_depth = 1024 # 锁等待超时时间,保留原值 innodb_lock_wait_timeout = 10 # 超时回滚事务 innodb_rollback_on_timeout = 1 # 打印死锁日志 innodb_print_all_deadlocks = 1 # 在线 DDL 日志最大大小,减小到 512M 以节省内存 innodb_online_alter_log_max_size = 512M # 打印 DDL 日志 innodb_print_ddl_logs = 1 # 启用 InnoDB 状态文件 innodb_status_file = 1 # 关闭 InnoDB 状态输出 innodb_status_output = 0 # 打印锁信息 innodb_status_output_locks = 1 # 排序缓存,减小为 8M innodb_sort_buffer_size = 8M # 自适应哈希索引,关闭以减少内存占用 innodb_adaptive_hash_index = 0 # NUMA 内存互交,保持关闭 innodb_numa_interleave = OFF # 自旋等待延迟,保留原值 innodb_spin_wait_delay = 20 #innodb monitor settings #innodb_monitor_enable = "module_innodb,module_server,module_dml,module_ddl,module_trx,module_os,module_purge,module_log,module_lock,module_buffer,module_index,module_ibuf_system,module_buffer_page,module_adaptive_hash" #pfs settings # 启用 Performance Schema 以监控数据库性能 performance_schema = 0 #performance_schema_instrument = '%memory%=on' # 监控锁相关事件,减少资源消耗 performance_schema_instrument = '%lock%=on' |
Jnu2021
2024-10-31 09:53:59
| ||
yejr
2024-10-31 23:18:01
| ||
合作电话:010-64087828
社区邮箱:greatsql@greatdb.com