当前位置: 首页 > news >正文

ORA-48913: Writing into trace file failed, file size limit [50000000] reached

检查某环境的alert_orcl1.log时,发现有很多的ORA-48913报错,细节如下

Sat Jul 22 19:34:04 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_138010.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Sat Jul 22 20:08:08 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_151573.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Sun Jul 23 20:08:17 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_270006.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Mon Jul 24 20:08:01 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_388027.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Tue Jul 25 20:08:20 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_47733.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Wed Jul 26 20:08:12 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_165947.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Thu Aug 03 20:08:10 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_196174.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Fri Aug 04 20:08:05 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_314448.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...
Sat Aug 05 20:08:11 2023
Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_432215.trc"
Error message: ORA-48913: Writing into trace file failed, file size limit [50000000] reached
Writing to the above trace file is disabled for now on...

查看其中一个trc文件,发现是有备份引起的问题

[root@db1 trace]#  strings orcl1_dw00_432215.trc|more
Trace file /u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_432215.trc
Oracle Database 11g Enterprise Edition Release 11.2.0.4.0 - 64bit Production
With the Partitioning, Real Application Clusters, Automatic Storage Management, OLAP,
Data Mining and Real Application Testing options
ORACLE_HOME = /u01/app/oracle/product/11.2.0/db_1
System name:    Linux
Node name:    db1
Release:    4.1.12-124.16.4.el6uek.x86_64
Version:    #2 SMP Thu Jun 14 18:55:52 PDT 2018
Machine:    x86_64
Instance name: orcl1
Redo thread mounted by this instance: 1
Oracle process number: 131
Unix process pid: 432215, image: oracle@db1 (DW00)
*** 2023-08-05 20:05:04.951
*** SESSION ID:(433.37713) 2023-08-05 20:05:04.951
*** CLIENT ID:() 2023-08-05 20:05:04.951
*** SERVICE NAME:(SYS$BACKGROUND) 2023-08-05 20:05:04.951
*** MODULE NAME:() 2023-08-05 20:05:04.951
*** ACTION NAME:() 2023-08-05 20:05:04.951
KUPP:20:05:04.950: Current trace/debug flags: 00480300 = 4719360
*** MODULE NAME:(Data Pump Worker) 2023-08-05 20:05:04.952
*** ACTION NAME:(SYS_EXPORT_FULL_01) 2023-08-05 20:05:04.952
KUPW:20:05:04.952: 0: ALTER SESSION ENABLE PARALLEL DML called.
KUPW:20:05:04.952: 0: ALTER SESSION ENABLE PARALLEL DML returned.
KUPC:20:05:05.085: Setting remote flag for this process to FALSE
KUPW:20:05:05.189: 0: KUPP$PROC.WHATS_MY_ID called.
KUPW:20:05:05.189: 1: KUPP$PROC.WHATS_MY_ID returned.
KUPW:20:05:05.191: 1: worker max message number: 1000
KUPW:20:05:05.192: 1: Cluster access disabled - all workers and slaves local
KUPW:20:05:05.193: 1: Original job start time: 23-AUG-05 08:05:03 PM
KUPW:20:05:05.199: 1: Seqno 235 is DATABASE_EXPORT/SCHEMA/TABLE/TABLE_DATA
KUPW:20:05:05.199: 1: Seqno 434 is DATABASE_EXPORT/SCHEMA/TABLE/INDEX/DOMAIN_INDEX/SECONDARY_TABLE/INDEX/TABLE_DATA
KUPW:20:05:05.199: 1: KUPP$PROC.WHATS_MY_NAME called.
KUPW:20:05:05.199: 1: KUPP$PROC.WHATS_MY_NAME returned. Process name: DW00
KUPW:20:05:05.199: 1: KUPV$FT_INT.GET_INSTANCE_ID called.
KUPW:20:05:05.200: 1: KUPV$FT_INT.GET_INSTANCE_ID returned. Instance name: db1:orcl1
KUPW:20:05:05.201: 1: ALTER SESSION ENABLE RESUMABLE called.
KUPW:20:05:05.202: 1: ALTER SESSION ENABLE RESUMABLE returned.
KUPW:20:05:05.203: 1: KUPF$FILE.INIT called.
KUPW:20:05:05.216: 1: KUPF$FILE.INIT returned.
KUPW:20:05:05.216: 1: KUPF$FILE.GET_MAX_CSWIDTH called.
KUPW:20:05:05.217: 1: KUPF$FILE.GET_MAX_CSWIDTH returned.
KUPW:20:05:05.217: 1: Max character width: 4
KUPW:20:05:05.217: 1: Max clob fetch: 8181
KUPW:20:05:05.217: 1: Max varchar2a size: 8181
KUPW:20:05:05.217: 1: Max varchar2 size: 1990
KUPW:20:05:05.217: 1: In procedure GET_PARAMETERS
KUPW:20:05:05.217: 1: In procedure GET_METADATA_FILTERS
KUPW:20:05:05.218: 1: In procedure GET_METADATA_TRANSFORMS
KUPW:20:05:05.219: 1: In procedure GET_DATA_FILTERS
KUPW:20:05:05.219: 1: In procedure GET_DATA_REMAPS
KUPW:20:05:05.220: 1: In procedure CREATE_MSG
KUPW:20:05:05.220: 1: KUPV$FT.MESSAGE_TEXT called.
KUPW:20:05:05.220: 1: KUPV$FT.MESSAGE_TEXT returned.
KUPW:20:05:05.220: 1: In procedure PRINT_MT_PARAMS
KUPW:20:05:05.220: 1: Master table             : "SYS"."SYS_EXPORT_FULL_01"
KUPW:20:05:05.220: 1: Metadata job mode        : DATABASE_EXPORT
KUPW:20:05:05.220: 1: Debug enable             : TRUE
KUPW:20:05:05.220: 1: Profile enable           : FALSE
KUPW:20:05:05.220: 1: Transportable enable     : FALSE
KUPW:20:05:05.220: 1: Metrics enable           : TRUE
KUPW:20:05:05.220: 1: db version               : 11.2.0.4.0
KUPW:20:05:05.220: 1: job version              : 11.2.0.4.0
KUPW:20:05:05.220: 1: service name             :
KUPW:20:05:05.220: 1: Current Edition          : ORA$BASE
KUPW:20:05:05.220: 1: Job Edition              :
KUPW:20:05:05.220: 1: Abort Step               : 0
KUPW:20:05:05.220: 1: Access Method            : AUTOMATIC
KUPW:20:05:05.220: 1: Data Options             : 0
KUPW:20:05:05.220: 1: Dumper directory         :
KUPW:20:05:05.220: 1: Master only              : FALSE
KUPW:20:05:05.220: 1: Data Only                : FALSE
KUPW:20:05:05.220: 1: Metadata Only            : FALSE

处理办法

1、查看max_dump_file_size的值为50m,确实不够大,调整max_dump_file_size的值到512M

SQL> show parameter max_dump_file_size

NAME                                     TYPE     VALUE
------------------------------------ ----------- ------------------------------
max_dump_file_size                         string     50M
SQL> alter system set max_dump_file_size='512m' scope=both;

System altered.

SQL> show parameter max_dump_file_size

NAME                                     TYPE     VALUE
------------------------------------ ----------- ------------------------------
max_dump_file_size                         string     512M
-----------------------------------------

2、手动执行expdp备份不再报错,但trc文件有60M。打开备份脚本查看发现备份命令加了METRICS=Y TRACE=480300参数,删除参数后再次备份,trc很小了。

[root@db1 trace]#  du -sh orcl1_dw00_286274.trc
60M    orcl1_dw00_286274.trc


 

相关文章:

ORA-48913: Writing into trace file failed, file size limit [50000000] reached

检查某环境的alert_orcl1.log时,发现有很多的ORA-48913报错,细节如下 Sat Jul 22 19:34:04 2023 Non critical error ORA-48913 caught while writing to trace file "/u01/app/oracle/diag/rdbms/orcl/orcl1/trace/orcl1_dw00_138010.trc" E…...

线上Zookeeper问题解决记录

zookeeper问题: 日志目录: /home/cmccdata/app/zookeeper/logs dataDir/home/cmccdata/app/zookeeper/data/zoodata dataLogDir/home/cmccdata/app/zookeeper/data/zoolog 问题0: 2023-08-03 17:15:43,139 [myid:1] - WARN [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:…...

Docker极速安装Jenkins

安装 Jenkins 是一个常见的任务,使用 Docker 进行安装可以简化该过程并确保环境一致性。以下是在 Docker 中安装 Jenkins 的详细步骤: 安装 Docker: 首先,请确保您已在目标机器上安装了 Docker。根据您的操作系统,可以在 Docker 官…...

TransnormerLLM 中 FlashLinearAttention 的纯pytorch实现

Github 仓库:https://github.com/One-sixth/flash-linear-attention-pytorch flash-linear-attention-pytorch 纯 Pytorch 实现 TransnormerLLM 中快速线性注意力算子。 用于学习目的。 如果你希望用于训练模型,你可能要修改为 CUDA 或 Triton 的实现&…...

从NPM注册中心获取包

目录 1、搜索和选择要下载的包 1.1 为什么使用 1.2 工作原理 1、质量 2、维护 3、受欢迎程度 4、名气 1.1、开始搜索包 2、在本地安装下载和安装软件包 2.1 安装未限定作用域的包 2.2 安装有作用域的公共包 2.3 安装私有包 2.4 测试包安装 2.5 已安装的软件包版本…...

Elastic的下载

文章目录 ElasticSearch的下载扩展1(ElasticSearch 与 JDK 版本 适配)扩展2(访问 http://192.168.1.200:9200 没有显示信息)扩展3(免密登录) ElasticSearch的下载 官方下载网址:https://www.el…...

day52-Redis

Redis 1.Redis 1.1 RESP连接Redis 1.2 定义:是一个高性能的key-value数据库(非关系型数据库) 1.3 数据类型: key键的类型是字符串类型; 值的类型有五种:字符串String,哈希hash&#xff0…...

高效处理矢量大数据的高可用解决方案

高效处理矢量大数据的高可用解决方案 解决方案目标 存储海量矢量数据实时分析海量矢量数据实现海量矢量数据的可视化提供高可用、高性能和高可拓展性解决方案概述 海量数据查询与可视化 系统技术流程 方案一 数据存储: PostgreSQL+PostGIS(矢量数据存储和空间分析)数据服务…...

Docker Compose构建lnmp

目录 Compose的优点 编排和部署 Compose原理 Compose应用案例 安装docker-ce 阿里云镜像加速器 安装docker-compose docker-compose用法 Yaml简介 验证LNMP环境 Compose的优点 先来了解一下我们平时是怎么样使用docker的?把它进行拆分一下: 1…...

Flutter开发问题记录

1. Q:Mac电脑通过AndroidStudio运行软件到iphone报错 automatically assigning platform iOS with version 10.0 on target Runner because no platform was specified. A:项目中ios目录下,Podfile文件第2行 platform :ios, ‘11.0’,取消注释 2. Q:Mac电脑通过And…...

如何使用本地mock数据

当后端同事接口数据还未完成,我们前端开发需要使用数据时,怎么办呢?这里可以自己本地mock数据先用着啦!仅在开发时使用 1. 创建一个 xxx.js文件,对外暴露一个数组; 对新建js文件编写导出,返回数…...

XXL-JOB定时任务框架(Oracle定制版)

特点 xxl-job是一个轻量级、易扩展的分布式任务调度平台,能够快速开发和简单学习。开放源代码并被多家公司线上产品使用,开箱即用。尽管其确实非常好用,但我在工作中使用的是Oracle数据库,因为xxl-job是针对MySQL设计的&#xff…...

SpringBoot + ajax 实现分页和增删查改

0目录 1.SpringBoot 2.SpringBoot分页;增删改查 1.SpringBoot分页 创建数据库和表 创建SpringBoot工程,引入springboot下的分页依赖 配置application.yml 实体类 Mapper接口 Mapper.xml Service接口 Service实现类 控制层 测试 加…...

ProxyGenerator-代理类生成器

ProxyGenerator是JDK-sun包下提供的用于生成动态代理类信息的类,其唯一向外透出的是其静态方法-generateProxyClass(…)。 public class ProxyGenerator { ... }学习本篇文章,就是想学习ProxyGenerator如何生成代理类信息的过程。 一、唯一入口-公开静…...

ARM 内存屏障指令

ARM 内存屏障指令 1. dmb (Data Memory Barrier) 数据内存栅栏2. dsb (Data Synchronization Barrier) 数据同步栅栏3. isb (Instruction Synchronization Barrier) 指令同步栅栏4. ARM 内存屏障指令如何选择使用?5. 使用示例5.1. DMB指令示例:5.2. DSB指…...

了解Linux 的 mmap --- 笔记

学习这篇博客,进行了一些归纳Linux下mmap_linux mmap_一个山里的少年的博客-CSDN博客https://blog.csdn.net/qq_56999918/article/details/127070280 >>读取文件 读取文件方法:由操作系统提供的两个方法,read和write来读写文件。 由…...

docker删除容器(步骤详解)

要在Docker中删除容器,需要使用命令docker rm。 下面是详细步骤: 1. 首先,使用docker ps命令查看当前正在运行的容器。这个命令会列出所有正在运行的容器的ID、名称、状态等信息。 如果没有正在运行的容器可以通过docker ps -a 查看当前所…...

boost beast http server 测试

boost beast http client boost http server boost beast 是一个非常好用的库&#xff0c;带上boost的协程&#xff0c;好很多东西是比较好用的&#xff0c;以下程序使用四个线程开启协程处理进入http协议处理。协议支持http get 和 http post #include <boost/beast/cor…...

Android 10.0 系统开启禁用adb push和adb pull传输文件功能

1.使用场景 在进行10.0的系统开发中,在一些产品中由于一些开发的功能比较重要,防止技术点外泄在出货产品中,禁用 adb pull 和adb push等命令 来获取系统system下的jar 和apk 等文件,所以需要禁用这些命令 2.系统开启禁用adb push和adb pull传输文件功能的分析 看了下系统…...

浙大数据结构第七周之07-图4 哈利·波特的考试

基础知识&#xff1a;&#xff08;最短路的前提都是在图中两条边之间的权值非定值&#xff09; &#xff08;一&#xff09;Dijkstra方法 算法实现&#xff1a; …...

C++初阶-list的底层

目录 1.std::list实现的所有代码 2.list的简单介绍 2.1实现list的类 2.2_list_iterator的实现 2.2.1_list_iterator实现的原因和好处 2.2.2_list_iterator实现 2.3_list_node的实现 2.3.1. 避免递归的模板依赖 2.3.2. 内存布局一致性 2.3.3. 类型安全的替代方案 2.3.…...

Linux链表操作全解析

Linux C语言链表深度解析与实战技巧 一、链表基础概念与内核链表优势1.1 为什么使用链表&#xff1f;1.2 Linux 内核链表与用户态链表的区别 二、内核链表结构与宏解析常用宏/函数 三、内核链表的优点四、用户态链表示例五、双向循环链表在内核中的实现优势5.1 插入效率5.2 安全…...

Unity3D中Gfx.WaitForPresent优化方案

前言 在Unity中&#xff0c;Gfx.WaitForPresent占用CPU过高通常表示主线程在等待GPU完成渲染&#xff08;即CPU被阻塞&#xff09;&#xff0c;这表明存在GPU瓶颈或垂直同步/帧率设置问题。以下是系统的优化方案&#xff1a; 对惹&#xff0c;这里有一个游戏开发交流小组&…...

【解密LSTM、GRU如何解决传统RNN梯度消失问题】

解密LSTM与GRU&#xff1a;如何让RNN变得更聪明&#xff1f; 在深度学习的世界里&#xff0c;循环神经网络&#xff08;RNN&#xff09;以其卓越的序列数据处理能力广泛应用于自然语言处理、时间序列预测等领域。然而&#xff0c;传统RNN存在的一个严重问题——梯度消失&#…...

定时器任务——若依源码分析

分析util包下面的工具类schedule utils&#xff1a; ScheduleUtils 是若依中用于与 Quartz 框架交互的工具类&#xff0c;封装了定时任务的 创建、更新、暂停、删除等核心逻辑。 createScheduleJob createScheduleJob 用于将任务注册到 Quartz&#xff0c;先构建任务的 JobD…...

376. Wiggle Subsequence

376. Wiggle Subsequence 代码 class Solution { public:int wiggleMaxLength(vector<int>& nums) {int n nums.size();int res 1;int prediff 0;int curdiff 0;for(int i 0;i < n-1;i){curdiff nums[i1] - nums[i];if( (prediff > 0 && curdif…...

C++八股 —— 单例模式

文章目录 1. 基本概念2. 设计要点3. 实现方式4. 详解懒汉模式 1. 基本概念 线程安全&#xff08;Thread Safety&#xff09; 线程安全是指在多线程环境下&#xff0c;某个函数、类或代码片段能够被多个线程同时调用时&#xff0c;仍能保证数据的一致性和逻辑的正确性&#xf…...

dify打造数据可视化图表

一、概述 在日常工作和学习中&#xff0c;我们经常需要和数据打交道。无论是分析报告、项目展示&#xff0c;还是简单的数据洞察&#xff0c;一个清晰直观的图表&#xff0c;往往能胜过千言万语。 一款能让数据可视化变得超级简单的 MCP Server&#xff0c;由蚂蚁集团 AntV 团队…...

Android第十三次面试总结(四大 组件基础)

Activity生命周期和四大启动模式详解 一、Activity 生命周期 Activity 的生命周期由一系列回调方法组成&#xff0c;用于管理其创建、可见性、焦点和销毁过程。以下是核心方法及其调用时机&#xff1a; ​onCreate()​​ ​调用时机​&#xff1a;Activity 首次创建时调用。​…...

HDFS分布式存储 zookeeper

hadoop介绍 狭义上hadoop是指apache的一款开源软件 用java语言实现开源框架&#xff0c;允许使用简单的变成模型跨计算机对大型集群进行分布式处理&#xff08;1.海量的数据存储 2.海量数据的计算&#xff09;Hadoop核心组件 hdfs&#xff08;分布式文件存储系统&#xff09;&a…...