GreatSQL社区

搜索

[待回复] 关于docker镜像包无法查看日志的问题

92 3 5 天前
本帖最后由 Jnu2021 于 2024-10-30 16:58 编辑

用greatsql官网的docker命令依次启动,为什么看不了日志啊?是要用greatsql-automake.sh 开启吗?
是因为greatsql默认屏蔽构建过程中的屏幕输出内容吗?

命令如下:
root@lavm-5e5kztdhpl ~]# docker logs greatsqlMAXPERF invalid


主要是我更换了cnf文件到容器里面再打包成镜像然后启动的时候,就会启动失败,报错MAXPERF invalid,
因为没有错误日志我也不知道哪里出问题了,下附我更改后的my.cnf,只动了基本的参数
服务器可用总内存为2c4g
[client]
socket = /data/GreatSQL/mysql.sock
[mysql]
loose-skip-binary-as-hex
prompt="(\\D)[\\u@GreatSQL][\\d]>"
no-auto-rehash
[mysqld]
user = mysql
port = 3305
server_id = 3305
basedir = /usr/
datadir = /data/GreatSQL
socket = /data/GreatSQL/mysql.sock
pid-file = mysql.pid
character-set-server = UTF8MB4
skip_name_resolve = 1
#掽运行在境外,根据实际情况调整本参数
default_time_zone = "+8:00"
#performance setttings
# 锁等待超时时间(s)
lock_wait_timeout = 3600
# 系统允许的最大打开文件数,调低至适合小内存的值
open_files_limit = 1024
# 连接排队等待的最大请求数
back_log = 512
# 最大连接数
max_connections = 512
# 最大连接错误数
max_connect_errors = 10000
# 表缓存和表定义缓存
table_open_cache = 512
table_definition_cache = 512
# 排序和连接缓存大小
sort_buffer_size = 1M
join_buffer_size = 1M
# 读取缓存
read_buffer_size = 2M
read_rnd_buffer_size = 2M
# 批量插入缓存大小
bulk_insert_buffer_size = 16M
# 线程缓存
thread_cache_size = 50
# # 交互式超时时间
interactive_timeout = 300
wait_timeout = 300
# 临时表大小和最大堆表大小
tmp_table_size = 96M
max_heap_table_size = 96M
#log settings
# 时间戳设置
log_timestamps = SYSTEM
# 错误日志路径
log_error = /data/GreatSQL/error.log
# 错误日志详细等级
log_error_verbosity = 3
# 慢查询日志开关
slow_query_log = 1
# 慢查询日志增加额外信息
log_slow_extra = 1
# 慢查询日志文件路径
slow_query_log_file = /data/GreatSQL/slow.log
# 慢查询的时间阈值
long_query_time = 0.1
# 记录未使用索引的查询
log_queries_not_using_indexes = 1
# 对未使用索引查询的日志写入进行限流
log_throttle_queries_not_using_indexes = 60
# 设置记录慢查询的最低检查行数
min_examined_row_limit = 100
# 记录慢速管理语句
log_slow_admin_statements = 1
# 记录慢速的从库语句
log_slow_slave_statements = 1
# 慢查询日志详细级别,保留为FULL
log_slow_verbosity = FULL
# 启用二进制日志并设置文件路径
log_bin = /data/GreatSQL/binlog
# 二进制日志格式设置为 ROW 格式
binlog_format = ROW
# 同步二进制日志的频率(s),设置为较低值以降低写频率
sync_binlog = 10
# 二进制日志缓存大小,保持为小值
binlog_cache_size = 1M
# 二进制日志缓存的最大大小,减小上限以适应内存
max_binlog_cache_size = 256M
# 单个二进制日志文件的最大大小
max_binlog_size = 128M
# 记录行查询日志事件
binlog_rows_query_log_events = 1
# 二进制日志过期时间
binlog_expire_logs_seconds = 604800
# 二进制日志的校验方式
binlog_checksum = CRC32
# 二进制日志提交顺序,关闭有助于提升写入性能
binlog_order_commits = OFF
# 启用 GTID 并确保一致性,保留原值
gtid_mode = ON
enforce_gtid_consistency = TRUE
#myisam settings
key_buffer_size = 32M
myisam_sort_buffer_size = 128M
#replication settings
# 启用 relay log 自动恢复
relay_log_recovery = 1
# 并行复制类型,
slave_parallel_type = LOGICAL_CLOCK
#并行复制线程数可以设置为逻辑CPU数量的1或2倍
slave_parallel_workers = 2
# 二进制日志事务依赖跟踪
binlog_transaction_dependency_tracking = WRITESET
# 保持提交顺序,
slave_preserve_commit_order = 1
# 从库检查点周期
slave_checkpoint_period = 2
#启用InnoDB并行查询优化功能
loose-force_parallel_execute = OFF
#设置每个SQL语句的并行查询最大并发度
loose-parallel_default_dop = 2
#设置系统中总的并行查询线程数,可以和最大逻辑CPU数量一样
loose-parallel_max_threads = 4
#并行执行时leader线程和worker线程使用的总内存大小上限,可以设置物理内存的5-10%左右
loose-parallel_memory_limit = 256M
#mgr settings
# MGR 插件加载
loose-plugin_load_add = 'mysql_clone.so'
loose-plugin_load_add = 'group_replication.so'
# MGR组名
loose-group_replication_group_name = "aaaaaaaa-aaaa-aaaa-aaaa-aaaaaaaaaaa1"
#MGR本地节点IPORT,请自行替换
loose-group_replication_local_address = "116.198.205.6:33051"
#MGR集群所有节点IPORT,请自行替换
loose-group_replication_group_seeds = '116.198.205.6:33051'
# 设置为随服务器启动时自动加入集群
loose-group_replication_start_on_boot = ON
# 初次启动时不自动引导群集
loose-group_replication_bootstrap_group = OFF
# 如果发生故障,将节点设置为只读模式
loose-group_replication_exit_state_action = READ_ONLY
# 关闭流量控制模式以减少延迟
loose-group_replication_flow_control_mode = "DISABLED"
# 启用单主模式
loose-group_replication_single_primary_mode = ON
# 设置MGR多数决
loose-group_replication_majority_after_mode = ON
# 最大消息大小,适应小内存服务器
loose-group_replication_communication_max_message_size = 1M
# 禁用仲裁节点
loose-group_replication_arbitrator = 0
# 单主快速切换
loose-group_replication_single_primary_fast_mode = 1
# 请求的时间阈值
loose-group_replication_request_time_threshold = 100
# 主节点选举模式
loose-group_replication_primary_election_mode = GTID_FIRST
# 超时设置
loose-group_replication_unreachable_majority_timeout = 0
loose-group_replication_member_expel_timeout = 5
loose-group_replication_autorejoin_tries = 288
loose-group_replication_recovery_get_public_key = ON
# 设置报告 IP
report_host = "16.198.205.6"
#innodb settings
# InnoDB 缓冲池大小:建议设为内存的 50%-70%,如 1.5G
innodb_buffer_pool_size = 1.2G
# 缓冲池实例数量,设置为 1 因为内存较小,多个实例会造成内存开销
innodb_buffer_pool_instances = 1
# InnoDB 数据文件路径,保持自动扩展
innodb_data_file_path = ibdata1:12M:autoextend
# 日志刷新设置
innodb_flush_log_at_trx_commit = 1
# 日志缓冲大小,减小至 8M 以节省内存
innodb_log_buffer_size = 8M
# 日志文件大小,设置为较小的 128M,减少内存占用
innodb_log_file_size = 128M
# 日志文件组数量
innodb_log_files_in_group = 2
# doublewrite 文件数量
innodb_doublewrite_files = 1
# 最大撤销日志文件大小,适当减小为 512M
innodb_max_undo_log_size = 512M
# 根据服务器IOPS能力适当调整
# 一般配普通SSD盘的话,可以调整到 10000 - 20000
# 配置高端PCIe SSD卡的话,则可以调整的更高,比如 50000 - 80000
# IOPS 能力,根据小服务器设置为较低值
innodb_io_capacity = 1000
innodb_io_capacity_max = 2000
# InnoDB 打开的文件数量,适当减小以节省资源
innodb_open_files = 512
# 日志刷新方法,保留为 O_DIRECT
innodb_flush_method = O_DIRECT
# LRU 扫描深度
innodb_lru_scan_depth = 1024
# 锁等待超时时间,保留原值
innodb_lock_wait_timeout = 10
# 超时回滚事务
innodb_rollback_on_timeout = 1
# 打印死锁日志
innodb_print_all_deadlocks = 1
# 在线 DDL 日志最大大小,减小到 512M 以节省内存
innodb_online_alter_log_max_size = 512M
# 打印 DDL 日志
innodb_print_ddl_logs = 1
# 启用 InnoDB 状态文件
innodb_status_file = 1
# 关闭 InnoDB 状态输出
innodb_status_output = 0
# 打印锁信息
innodb_status_output_locks = 1
# 排序缓存,减小为 8M
innodb_sort_buffer_size = 8M
# 自适应哈希索引,关闭以减少内存占用
innodb_adaptive_hash_index = 0
# NUMA 内存互交,保持关闭
innodb_numa_interleave = OFF
# 自旋等待延迟,保留原值
innodb_spin_wait_delay = 20
#innodb monitor settings
#innodb_monitor_enable = "module_innodb,module_server,module_dml,module_ddl,module_trx,module_os,module_purge,module_log,module_lock,module_buffer,module_index,module_ibuf_system,module_buffer_page,module_adaptive_hash"
#pfs settings
# 启用 Performance Schema 以监控数据库性能
performance_schema = 0
#performance_schema_instrument = '%memory%=on'
# 监控锁相关事件,减少资源消耗
performance_schema_instrument = '%lock%=on'

全部回复(3)
yejr 5 天前
可以先进入docker容器,日志文件是 /data/GreatSQL/error.log ,在容器中
Jnu2021 4 天前
yejr 发表于 2024-10-30 17:16
可以先进入docker容器,日志文件是 /data/GreatSQL/error.log ,在容器中

主要是下面那个,启动后修改配置重新打镜像然后启动不了,也看不到错误原因,这个时候容器没启动,所以也看不到为什么启动不了
yejr 4 天前
Jnu2021 发表于 2024-10-31 09:53
主要是下面那个,启动后修改配置重新打镜像然后启动不了,也看不到错误原因,这个时候容器没启动,所以也 ...

修改了啥,你怎么启动的,错误日志是什么(docker logs xx查看),这些都请提供详细信息
Jnu2021

1

主题

0

博客

3

贡献

新手上路

Rank: 1

积分
5

合作电话:010-64087828

社区邮箱:greatsql@greatdb.com

社区公众号
社区小助手
QQ群
GMT+8, 2024-11-4 23:07 , Processed in 0.019543 second(s), 12 queries , Redis On.
快速回复 返回顶部 返回列表