当前位置: 首页 > news >正文

【扒网络架构】backbone、ccff

backbone 

CCFF 

还不知道网络连接方式,只是知道了每一层

 

backbone

  1. backbone.backbone.conv1.weight torch.Size([64, 3, 7, 7])
  2. backbone.backbone.layer1.0.conv1.weight torch.Size([64, 64, 1, 1])
  3. backbone.backbone.layer1.0.conv2.weight torch.Size([64, 64, 3, 3])
  4. backbone.backbone.layer1.0.conv3.weight torch.Size([256, 64, 1, 1])
  5. backbone.backbone.layer1.0.downsample.0.weight torch.Size([256, 64, 1, 1])
  6. backbone.backbone.layer1.1.conv1.weight torch.Size([64, 256, 1, 1])
  7. backbone.backbone.layer1.1.conv2.weight torch.Size([64, 64, 3, 3])
  8. backbone.backbone.layer1.1.conv3.weight torch.Size([256, 64, 1, 1])
  9. backbone.backbone.layer1.2.conv1.weight torch.Size([64, 256, 1, 1])
  10. backbone.backbone.layer1.2.conv2.weight torch.Size([64, 64, 3, 3])
  11. backbone.backbone.layer1.2.conv3.weight torch.Size([256, 64, 1, 1])
  12. backbone.backbone.layer2.0.conv1.weight torch.Size([128, 256, 1, 1])
  13. backbone.backbone.layer2.0.conv2.weight torch.Size([128, 128, 3, 3])
  14. backbone.backbone.layer2.0.conv3.weight torch.Size([512, 128, 1, 1])
  15. backbone.backbone.layer2.0.downsample.0.weight torch.Size([512, 256, 1, 1])
  16. backbone.backbone.layer2.1.conv1.weight torch.Size([128, 512, 1, 1])
  17. backbone.backbone.layer2.1.conv2.weight torch.Size([128, 128, 3, 3])
  18. backbone.backbone.layer2.1.conv3.weight torch.Size([512, 128, 1, 1])
  19. backbone.backbone.layer2.2.conv1.weight torch.Size([128, 512, 1, 1])
  20. backbone.backbone.layer2.2.conv2.weight torch.Size([128, 128, 3, 3])
  21. backbone.backbone.layer2.2.conv3.weight torch.Size([512, 128, 1, 1])
  22. backbone.backbone.layer2.3.conv1.weight torch.Size([128, 512, 1, 1])
  23. backbone.backbone.layer2.3.conv2.weight torch.Size([128, 128, 3, 3])
  24. backbone.backbone.layer2.3.conv3.weight torch.Size([512, 128, 1, 1])
  25. backbone.backbone.layer3.0.conv1.weight torch.Size([256, 512, 1, 1])
  26. backbone.backbone.layer3.0.conv2.weight torch.Size([256, 256, 3, 3])
  27. backbone.backbone.layer3.0.conv3.weight torch.Size([1024, 256, 1, 1])
  28. backbone.backbone.layer3.0.downsample.0.weight torch.Size([1024, 512, 1, 1])
  29. backbone.backbone.layer3.1.conv1.weight torch.Size([256, 1024, 1, 1])
  30. backbone.backbone.layer3.1.conv2.weight torch.Size([256, 256, 3, 3])
  31. backbone.backbone.layer3.1.conv3.weight torch.Size([1024, 256, 1, 1])
  32. backbone.backbone.layer3.2.conv1.weight torch.Size([256, 1024, 1, 1])
  33. backbone.backbone.layer3.2.conv2.weight torch.Size([256, 256, 3, 3])
  34. backbone.backbone.layer3.2.conv3.weight torch.Size([1024, 256, 1, 1])
  35. backbone.backbone.layer3.3.conv1.weight torch.Size([256, 1024, 1, 1])
  36. backbone.backbone.layer3.3.conv2.weight torch.Size([256, 256, 3, 3])
  37. backbone.backbone.layer3.3.conv3.weight torch.Size([1024, 256, 1, 1])
  38. backbone.backbone.layer3.4.conv1.weight torch.Size([256, 1024, 1, 1])
  39. backbone.backbone.layer3.4.conv2.weight torch.Size([256, 256, 3, 3])
  40. backbone.backbone.layer3.4.conv3.weight torch.Size([1024, 256, 1, 1])
  41. backbone.backbone.layer3.5.conv1.weight torch.Size([256, 1024, 1, 1])
  42. backbone.backbone.layer3.5.conv2.weight torch.Size([256, 256, 3, 3])
  43. backbone.backbone.layer3.5.conv3.weight torch.Size([1024, 256, 1, 1])
  44. backbone.backbone.layer4.0.conv1.weight torch.Size([512, 1024, 1, 1])
  45. backbone.backbone.layer4.0.conv2.weight torch.Size([512, 512, 3, 3])
  46. backbone.backbone.layer4.0.conv3.weight torch.Size([2048, 512, 1, 1])
  47. backbone.backbone.layer4.0.downsample.0.weight torch.Size([2048, 1024, 1, 1])
  48. backbone.backbone.layer4.1.conv1.weight torch.Size([512, 2048, 1, 1])
  49. backbone.backbone.layer4.1.conv2.weight torch.Size([512, 512, 3, 3])
  50. backbone.backbone.layer4.1.conv3.weight torch.Size([2048, 512, 1, 1])
  51. backbone.backbone.layer4.2.conv1.weight torch.Size([512, 2048, 1, 1])
  52. backbone.backbone.layer4.2.conv2.weight torch.Size([512, 512, 3, 3])
  53. backbone.backbone.layer4.2.conv3.weight torch.Size([2048, 512, 1, 1])
  54. backbone.backbone.fc.weight torch.Size([1000, 2048])
  55. backbone.backbone.fc.bias torch.Size([1000])

ccf

  1. ccff.conv1.conv.weight torch.Size([3584, 3584, 1, 1])
  2. ccff.conv1.norm.weight torch.Size([3584])
  3. ccff.conv1.norm.bias torch.Size([3584])
  4. ccff.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  5. ccff.conv2.norm.weight torch.Size([3584])
  6. ccff.conv2.norm.bias torch.Size([3584])
  7. ccff.bottlenecks.0.conv1.conv.weight torch.Size([3584, 3584, 3, 3])
  8. ccff.bottlenecks.0.conv1.norm.weight torch.Size([3584])
  9. ccff.bottlenecks.0.conv1.norm.bias torch.Size([3584])
  10. ccff.bottlenecks.0.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  11. ccff.bottlenecks.0.conv2.norm.weight torch.Size([3584])
  12. ccff.bottlenecks.0.conv2.norm.bias torch.Size([3584])
  13. ccff.bottlenecks.1.conv1.conv.weight torch.Size([3584, 3584, 3, 3])
  14. ccff.bottlenecks.1.conv1.norm.weight torch.Size([3584])
  15. ccff.bottlenecks.1.conv1.norm.bias torch.Size([3584])
  16. ccff.bottlenecks.1.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  17. ccff.bottlenecks.1.conv2.norm.weight torch.Size([3584])
  18. ccff.bottlenecks.1.conv2.norm.bias torch.Size([3584])
  19. ccff.bottlenecks.2.conv1.conv.weight torch.Size([3584, 3584, 3, 3])
  20. ccff.bottlenecks.2.conv1.norm.weight torch.Size([3584])
  21. ccff.bottlenecks.2.conv1.norm.bias torch.Size([3584])
  22. ccff.bottlenecks.2.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  23. ccff.bottlenecks.2.conv2.norm.weight torch.Size([3584])
  24. ccff.bottlenecks.2.conv2.norm.bias torch.Size([3584])

input_proj

  1. input_proj.weight torch.Size([256, 3584, 1, 1])
  2. input_proj.bias torch.Size([256])

encoder

  1. encoder.layers.0.norm1.weight torch.Size([256])
  2. encoder.layers.0.norm1.bias torch.Size([256])
  3. encoder.layers.0.norm2.weight torch.Size([256])
  4. encoder.layers.0.norm2.bias torch.Size([256])
  5. encoder.layers.0.self_attn.in_proj_weight torch.Size([768, 256])
  6. encoder.layers.0.self_attn.in_proj_bias torch.Size([768])
  7. encoder.layers.0.self_attn.out_proj.weight torch.Size([256, 256])
  8. encoder.layers.0.self_attn.out_proj.bias torch.Size([256])
  9. encoder.layers.0.mlp.linear1.weight torch.Size([2048, 256])
  10. encoder.layers.0.mlp.linear1.bias torch.Size([2048])
  11. encoder.layers.0.mlp.linear2.weight torch.Size([256, 2048])
  12. encoder.layers.0.mlp.linear2.bias torch.Size([256])
  13. encoder.layers.1.norm1.weight torch.Size([256])
  14. encoder.layers.1.norm1.bias torch.Size([256])
  15. encoder.layers.1.norm2.weight torch.Size([256])
  16. encoder.layers.1.norm2.bias torch.Size([256])
  17. encoder.layers.1.self_attn.in_proj_weight torch.Size([768, 256])
  18. encoder.layers.1.self_attn.in_proj_bias torch.Size([768])
  19. encoder.layers.1.self_attn.out_proj.weight torch.Size([256, 256])
  20. encoder.layers.1.self_attn.out_proj.bias torch.Size([256])
  21. encoder.layers.1.mlp.linear1.weight torch.Size([2048, 256])
  22. encoder.layers.1.mlp.linear1.bias torch.Size([2048])
  23. encoder.layers.1.mlp.linear2.weight torch.Size([256, 2048])
  24. encoder.layers.1.mlp.linear2.bias torch.Size([256])
  25. encoder.layers.2.norm1.weight torch.Size([256])
  26. encoder.layers.2.norm1.bias torch.Size([256])
  27. encoder.layers.2.norm2.weight torch.Size([256])
  28. encoder.layers.2.norm2.bias torch.Size([256])
  29. encoder.layers.2.self_attn.in_proj_weight torch.Size([768, 256])
  30. encoder.layers.2.self_attn.in_proj_bias torch.Size([768])
  31. encoder.layers.2.self_attn.out_proj.weight torch.Size([256, 256])
  32. encoder.layers.2.self_attn.out_proj.bias torch.Size([256])
  33. encoder.layers.2.mlp.linear1.weight torch.Size([2048, 256])
  34. encoder.layers.2.mlp.linear1.bias torch.Size([2048])
  35. encoder.layers.2.mlp.linear2.weight torch.Size([256, 2048])
  36. encoder.layers.2.mlp.linear2.bias torch.Size([256])
  37. encoder.norm.weight torch.Size([256])
  38. encoder.norm.bias torch.Size([256])

ope

  1. ope.iterative_adaptation.layers.0.norm1.weight torch.Size([256])
  2. ope.iterative_adaptation.layers.0.norm1.bias torch.Size([256])
  3. ope.iterative_adaptation.layers.0.norm2.weight torch.Size([256])
  4. ope.iterative_adaptation.layers.0.norm2.bias torch.Size([256])
  5. ope.iterative_adaptation.layers.0.norm3.weight torch.Size([256])
  6. ope.iterative_adaptation.layers.0.norm3.bias torch.Size([256])
  7. ope.iterative_adaptation.layers.0.self_attn.in_proj_weight torch.Size([768, 256])
  8. ope.iterative_adaptation.layers.0.self_attn.in_proj_bias torch.Size([768])
  9. ope.iterative_adaptation.layers.0.self_attn.out_proj.weight torch.Size([256, 256])
  10. ope.iterative_adaptation.layers.0.self_attn.out_proj.bias torch.Size([256])
  11. ope.iterative_adaptation.layers.0.enc_dec_attn.in_proj_weight torch.Size([768, 256])
  12. ope.iterative_adaptation.layers.0.enc_dec_attn.in_proj_bias torch.Size([768])
  13. ope.iterative_adaptation.layers.0.enc_dec_attn.out_proj.weight torch.Size([256, 256])
  14. ope.iterative_adaptation.layers.0.enc_dec_attn.out_proj.bias torch.Size([256])
  15. ope.iterative_adaptation.layers.0.mlp.linear1.weight torch.Size([2048, 256])
  16. ope.iterative_adaptation.layers.0.mlp.linear1.bias torch.Size([2048])
  17. ope.iterative_adaptation.layers.0.mlp.linear2.weight torch.Size([256, 2048])
  18. ope.iterative_adaptation.layers.0.mlp.linear2.bias torch.Size([256])
  19. ope.iterative_adaptation.layers.1.norm1.weight torch.Size([256])
  20. ope.iterative_adaptation.layers.1.norm1.bias torch.Size([256])
  21. ope.iterative_adaptation.layers.1.norm2.weight torch.Size([256])
  22. ope.iterative_adaptation.layers.1.norm2.bias torch.Size([256])
  23. ope.iterative_adaptation.layers.1.norm3.weight torch.Size([256])
  24. ope.iterative_adaptation.layers.1.norm3.bias torch.Size([256])
  25. ope.iterative_adaptation.layers.1.self_attn.in_proj_weight torch.Size([768, 256])
  26. ope.iterative_adaptation.layers.1.self_attn.in_proj_bias torch.Size([768])
  27. ope.iterative_adaptation.layers.1.self_attn.out_proj.weight torch.Size([256, 256])
  28. ope.iterative_adaptation.layers.1.self_attn.out_proj.bias torch.Size([256])
  29. ope.iterative_adaptation.layers.1.enc_dec_attn.in_proj_weight torch.Size([768, 256])
  30. ope.iterative_adaptation.layers.1.enc_dec_attn.in_proj_bias torch.Size([768])
  31. ope.iterative_adaptation.layers.1.enc_dec_attn.out_proj.weight torch.Size([256, 256])
  32. ope.iterative_adaptation.layers.1.enc_dec_attn.out_proj.bias torch.Size([256])
  33. ope.iterative_adaptation.layers.1.mlp.linear1.weight torch.Size([2048, 256])
  34. ope.iterative_adaptation.layers.1.mlp.linear1.bias torch.Size([2048])
  35. ope.iterative_adaptation.layers.1.mlp.linear2.weight torch.Size([256, 2048])
  36. ope.iterative_adaptation.layers.1.mlp.linear2.bias torch.Size([256])
  37. ope.iterative_adaptation.layers.2.norm1.weight torch.Size([256])
  38. ope.iterative_adaptation.layers.2.norm1.bias torch.Size([256])
  39. ope.iterative_adaptation.layers.2.norm2.weight torch.Size([256])
  40. ope.iterative_adaptation.layers.2.norm2.bias torch.Size([256])
  41. ope.iterative_adaptation.layers.2.norm3.weight torch.Size([256])
  42. ope.iterative_adaptation.layers.2.norm3.bias torch.Size([256])
  43. ope.iterative_adaptation.layers.2.self_attn.in_proj_weight torch.Size([768, 256])
  44. ope.iterative_adaptation.layers.2.self_attn.in_proj_bias torch.Size([768])
  45. ope.iterative_adaptation.layers.2.self_attn.out_proj.weight torch.Size([256, 256])
  46. ope.iterative_adaptation.layers.2.self_attn.out_proj.bias torch.Size([256])
  47. ope.iterative_adaptation.layers.2.enc_dec_attn.in_proj_weight torch.Size([768, 256])
  48. ope.iterative_adaptation.layers.2.enc_dec_attn.in_proj_bias torch.Size([768])
  49. ope.iterative_adaptation.layers.2.enc_dec_attn.out_proj.weight torch.Size([256, 256])
  50. ope.iterative_adaptation.layers.2.enc_dec_attn.out_proj.bias torch.Size([256])
  51. ope.iterative_adaptation.layers.2.mlp.linear1.weight torch.Size([2048, 256])
  52. ope.iterative_adaptation.layers.2.mlp.linear1.bias torch.Size([2048])
  53. ope.iterative_adaptation.layers.2.mlp.linear2.weight torch.Size([256, 2048])
  54. ope.iterative_adaptation.layers.2.mlp.linear2.bias torch.Size([256])
  55. ope.iterative_adaptation.norm.weight torch.Size([256])
  56. ope.iterative_adaptation.norm.bias torch.Size([256])

ope.shape_or_objectness

  1. ope.shape_or_objectness.0.weight torch.Size([64, 2])
  2. ope.shape_or_objectness.0.bias torch.Size([64])
  3. ope.shape_or_objectness.2.weight torch.Size([256, 64])
  4. ope.shape_or_objectness.2.bias torch.Size([256])
  5. ope.shape_or_objectness.4.weight torch.Size([2304, 256])
  6. ope.shape_or_objectness.4.bias torch.Size([2304])

回归头

  1. regression_head.regressor.0.layer.0.weight torch.Size([128, 256, 3, 3])
  2. regression_head.regressor.0.layer.0.bias torch.Size([128])
  3. regression_head.regressor.1.layer.0.weight torch.Size([64, 128, 3, 3])
  4. regression_head.regressor.1.layer.0.bias torch.Size([64])
  5. regression_head.regressor.2.layer.0.weight torch.Size([32, 64, 3, 3])
  6. regression_head.regressor.2.layer.0.bias torch.Size([32])
  7. regression_head.regressor.3.weight torch.Size([1, 32, 1, 1])
  8. regression_head.regressor.3.bias torch.Size([1])

辅助头

  1. aux_heads.0.regressor.0.layer.0.weight torch.Size([128, 256, 3, 3])
  2. aux_heads.0.regressor.0.layer.0.bias torch.Size([128])
  3. aux_heads.0.regressor.1.layer.0.weight torch.Size([64, 128, 3, 3])
  4. aux_heads.0.regressor.1.layer.0.bias torch.Size([64])
  5. aux_heads.0.regressor.2.layer.0.weight torch.Size([32, 64, 3, 3])
  6. aux_heads.0.regressor.2.layer.0.bias torch.Size([32])
  7. aux_heads.0.regressor.3.weight torch.Size([1, 32, 1, 1])
  8. aux_heads.0.regressor.3.bias torch.Size([1])
  9. aux_heads.1.regressor.0.layer.0.weight torch.Size([128, 256, 3, 3])
  10. aux_heads.1.regressor.0.layer.0.bias torch.Size([128])
  11. aux_heads.1.regressor.1.layer.0.weight torch.Size([64, 128, 3, 3])
  12. aux_heads.1.regressor.1.layer.0.bias torch.Size([64])
  13. aux_heads.1.regressor.2.layer.0.weight torch.Size([32, 64, 3, 3])
  14. aux_heads.1.regressor.2.layer.0.bias torch.Size([32])
  15. aux_heads.1.regressor.3.weight torch.Size([1, 32, 1, 1])
  16. aux_heads.1.regressor.3.bias torch.Size([1])


Total number of parameters in LOCA: 447974251

Total number of parameters in CCFF: 411099136(这个模块,参数量好大)

相关文章:

【扒网络架构】backbone、ccff

backbone CCFF 还不知道网络连接方式,只是知道了每一层 backbone backbone.backbone.conv1.weight torch.Size([64, 3, 7, 7])backbone.backbone.layer1.0.conv1.weight torch.Size([64, 64, 1, 1])backbone.backbone.layer1.0.conv2.weight torch.Size([64, 64,…...

linux进程

exit()函数正常结束进程 man ps aux 是在使用 ps 命令时常用的一个选项组合,用于显示系统中所有进程的详细信息。aux 不是 ps 命令的一个正式选项,而是三个选项的组合:a, u, 和 x。这三个选项分别代表不同的含义&#…...

PRVF-4037 : CRS is not installed on any of the nodes

描述:公司要求替换centos,重新安装ORACLE LINUX RAC的数据库做备库,到时候切换成主库,安装Linux7GRID 19C 11G Oracle,顺利安装grid 19c,安装11G数据库软件的时候检测报如题错误:**PRVF-4037 …...

整理 酷炫 Flutter 开源UI框架 FAB

flutter_villains 灵活且易于使用的页面转换。 项目地址:https://github.com/Norbert515/flutter_villains 项目Demo:https://download.csdn.net/download/qq_36040764/89631324...

Unity 编写自己的aar库,接收Android广播(broadcastReceiver)并传递到Unity

编写本文是因为找了很多文章,都比较片段,不容易理解,对于Android新手来说理解起来不友好。我这里写了一个针对比较小白的文章,希望有所帮助。 Android端 首先还是先来写Android端,我们新建一个Android空项目&#xf…...

Mysql cast函数、cast用法、字符串转数字、字符串转日期、数据类型转换

文章目录 一、语法二、示例2.1、复杂示例 三、cast与convert的区别 CAST 函数是 SQL 中的一种类型转换函数,它用于将一个数据类型转换为另一个数据类型,这篇文章主要介绍了Mysql中Cast()函数的用法,需要的朋友可以参考下。 Mysql提供了两种将值转换成指…...

微信小程序开发之组件复用机制

新建复用文件,另外需要注册 behavior 例如: 在behavior.js文件中写入方法,并向外暴露出去 写法一: module.exportsBehavior({data: {num: 1},lifetimes: {created() {console.log(1);}} })写法二: const behavior …...

数据结构--线性表

数据结构分类 集合 线性结构(一对一) 树形结构(一对多) 图结构(多对多) 数据结构三要素 1、逻辑结构 2、数据的运算 3、存储结构(物理结构) 线性表分类 1、顺序表 2、链表 3、栈 4、队列 5、串 线性表--顺序表 顺序表的特点 顺序表的删除和插入…...

深入探针:PHP与DTrace的动态追踪艺术

标题:深入探针:PHP与DTrace的动态追踪艺术 在高性能的PHP应用开发中,深入理解代码的执行流程和性能瓶颈是至关重要的。DTrace,作为一种强大的动态追踪工具,为开发者提供了对PHP脚本运行时行为的深入洞察。本文将详细介…...

黑龙江日报报道第5届中国计算机应用技术大赛,赛氪提供赛事支持

2024年7月17日,黑龙江日报、极光新闻对在哈尔滨市举办的第5届中国计算机应用技术大赛全国总决赛进行了深入报道。此次大赛由中国计算机学会主办,中国计算机学会计算机应用专业委员会与赛氪网共同承办,吸引了来自全国各地的顶尖技术团队和选手…...

【计算机网络】LVS四层负载均衡器

https://mobian.blog.csdn.net/article/details/141093263 https://blog.csdn.net/weixin_42175752/article/details/139966198 《高并发的哲学原理》 (基本来自本书) 《亿级流量系统架构设计与实战》 LVS 章文嵩博士创造 LVS(IPVS) 章⽂嵩发…...

Java 守护线程练习 (2024.8.12)

DaemonExercise package DaemonExercise20240812;public class DaemonExercise {public static void main(String[] args) {// 守护线程// 当普通线程执行完毕之后,守护线程没有继续执行的必要,所以说会逐步关闭(并非瞬间关闭)//…...

C#小桌面程序调试出错,如何解决??

🏆本文收录于《CSDN问答解惑-专业版》专栏,主要记录项目实战过程中的Bug之前因后果及提供真实有效的解决方案,希望能够助你一臂之力,帮你早日登顶实现财富自由🚀;同时,欢迎大家关注&&收…...

Seatunnel Mysql数据同步到Mysql

环境 mysql-connector-java-8.0.28.jar、connector-cdc-mysql 配置 env {# You can set SeaTunnel environment configuration hereexecution.parallelism 2job.mode "STREAMING"# 10秒检查一次,可以适当加大这个值checkpoint.interval 10000#execu…...

Java Web —— 第五天(请求响应1)

postman Postman是一款功能强大的网页调试与发送网页HTTP请求的Chrome插件 作用:常用于进行接口测试 简单参数 原始方式 在原始的web程序中,获取请求参数,需要通过HttpServletRequest 对象手动获 http://localhost:8080/simpleParam?nameTom&a…...

【LLMOps】手摸手教你把 Dify 接入微信生态

作者:韩方圆 "Dify on WeChat"开源项目作者 概述 微信作为最热门即时通信软件,拥有巨大的流量。 微信友好的聊天窗口是天然的AI应用LUI(Language User Interface)/CUI(Conversation User Interface)。 微信不仅有个人微信,同时提供…...

Ftrans文件摆渡方案:重塑文件传输与管控的科技先锋

一、哪些行业会用到文件摆渡相关方案 文件摆渡相关的产品和方案通常用于需要在不同的网络、安全域、网段之间传输数据的场景,主要是一些有核心数据需要保护的行业,做了网络隔离和划分。以下是一些应用比较普遍的行业: 金融行业:…...

LaTeX中的除号表示方法详解

/除号 LaTeX中的除号表示方法详解1. 使用斜杠 / 表示除号优点缺点 2. 使用 \frac{} 表示分数形式的除法优点缺点 3. 使用 \div 表示标准除号优点缺点 4. 使用 \over 表示分数形式的除法优点缺点 5. 使用 \dfrac{} 和 \tfrac{} 表示大型和小型分数优点缺点 总结 LaTeX中的除号表…...

DID、DID文档、VC、VP分别是什么 有什么关系

DID(去中心化身份) 定义:DID 是一种去中心化的唯一标识符,用于表示个体、组织或设备的身份。DID 不依赖于中央管理机构,而是由去中心化网络(如区块链)生成和管理。 用途:DID 允许用…...

网络安全应急响应

前言\n在网络安全领域,有一句广为人知的话:“没有绝对的安全”。这意味着任何系统都有可能被攻破。安全攻击的发生并不可怕,可怕的是从头到尾都毫无察觉。当系统遭遇攻击时,企业的安全人员需要立即进行应急响应,以将影…...

Linux 文件类型,目录与路径,文件与目录管理

文件类型 后面的字符表示文件类型标志 普通文件:-(纯文本文件,二进制文件,数据格式文件) 如文本文件、图片、程序文件等。 目录文件:d(directory) 用来存放其他文件或子目录。 设备…...

转转集团旗下首家二手多品类循环仓店“超级转转”开业

6月9日,国内领先的循环经济企业转转集团旗下首家二手多品类循环仓店“超级转转”正式开业。 转转集团创始人兼CEO黄炜、转转循环时尚发起人朱珠、转转集团COO兼红布林CEO胡伟琨、王府井集团副总裁祝捷等出席了开业剪彩仪式。 据「TMT星球」了解,“超级…...

Keil 中设置 STM32 Flash 和 RAM 地址详解

文章目录 Keil 中设置 STM32 Flash 和 RAM 地址详解一、Flash 和 RAM 配置界面(Target 选项卡)1. IROM1(用于配置 Flash)2. IRAM1(用于配置 RAM)二、链接器设置界面(Linker 选项卡)1. 勾选“Use Memory Layout from Target Dialog”2. 查看链接器参数(如果没有勾选上面…...

数据库分批入库

今天在工作中,遇到一个问题,就是分批查询的时候,由于批次过大导致出现了一些问题,一下是问题描述和解决方案: 示例: // 假设已有数据列表 dataList 和 PreparedStatement pstmt int batchSize 1000; // …...

根据万维钢·精英日课6的内容,使用AI(2025)可以参考以下方法:

根据万维钢精英日课6的内容,使用AI(2025)可以参考以下方法: 四个洞见 模型已经比人聪明:以ChatGPT o3为代表的AI非常强大,能运用高级理论解释道理、引用最新学术论文,生成对顶尖科学家都有用的…...

企业如何增强终端安全?

在数字化转型加速的今天,企业的业务运行越来越依赖于终端设备。从员工的笔记本电脑、智能手机,到工厂里的物联网设备、智能传感器,这些终端构成了企业与外部世界连接的 “神经末梢”。然而,随着远程办公的常态化和设备接入的爆炸式…...

使用LangGraph和LangSmith构建多智能体人工智能系统

现在,通过组合几个较小的子智能体来创建一个强大的人工智能智能体正成为一种趋势。但这也带来了一些挑战,比如减少幻觉、管理对话流程、在测试期间留意智能体的工作方式、允许人工介入以及评估其性能。你需要进行大量的反复试验。 在这篇博客〔原作者&a…...

【MATLAB代码】基于最大相关熵准则(MCC)的三维鲁棒卡尔曼滤波算法(MCC-KF),附源代码|订阅专栏后可直接查看

文章所述的代码实现了基于最大相关熵准则(MCC)的三维鲁棒卡尔曼滤波算法(MCC-KF),针对传感器观测数据中存在的脉冲型异常噪声问题,通过非线性加权机制提升滤波器的抗干扰能力。代码通过对比传统KF与MCC-KF在含异常值场景下的表现,验证了后者在状态估计鲁棒性方面的显著优…...

MyBatis中关于缓存的理解

MyBatis缓存 MyBatis系统当中默认定义两级缓存:一级缓存、二级缓存 默认情况下,只有一级缓存开启(sqlSession级别的缓存)二级缓存需要手动开启配置,需要局域namespace级别的缓存 一级缓存(本地缓存&#…...

华为OD最新机试真题-数组组成的最小数字-OD统一考试(B卷)

题目描述 给定一个整型数组,请从该数组中选择3个元素 组成最小数字并输出 (如果数组长度小于3,则选择数组中所有元素来组成最小数字)。 输入描述 行用半角逗号分割的字符串记录的整型数组,0<数组长度<= 100,0<整数的取值范围<= 10000。 输出描述 由3个元素组成…...