当前位置: 首页 > news >正文

【扒网络架构】backbone、ccff

backbone 

CCFF 

还不知道网络连接方式,只是知道了每一层

 

backbone

  1. backbone.backbone.conv1.weight torch.Size([64, 3, 7, 7])
  2. backbone.backbone.layer1.0.conv1.weight torch.Size([64, 64, 1, 1])
  3. backbone.backbone.layer1.0.conv2.weight torch.Size([64, 64, 3, 3])
  4. backbone.backbone.layer1.0.conv3.weight torch.Size([256, 64, 1, 1])
  5. backbone.backbone.layer1.0.downsample.0.weight torch.Size([256, 64, 1, 1])
  6. backbone.backbone.layer1.1.conv1.weight torch.Size([64, 256, 1, 1])
  7. backbone.backbone.layer1.1.conv2.weight torch.Size([64, 64, 3, 3])
  8. backbone.backbone.layer1.1.conv3.weight torch.Size([256, 64, 1, 1])
  9. backbone.backbone.layer1.2.conv1.weight torch.Size([64, 256, 1, 1])
  10. backbone.backbone.layer1.2.conv2.weight torch.Size([64, 64, 3, 3])
  11. backbone.backbone.layer1.2.conv3.weight torch.Size([256, 64, 1, 1])
  12. backbone.backbone.layer2.0.conv1.weight torch.Size([128, 256, 1, 1])
  13. backbone.backbone.layer2.0.conv2.weight torch.Size([128, 128, 3, 3])
  14. backbone.backbone.layer2.0.conv3.weight torch.Size([512, 128, 1, 1])
  15. backbone.backbone.layer2.0.downsample.0.weight torch.Size([512, 256, 1, 1])
  16. backbone.backbone.layer2.1.conv1.weight torch.Size([128, 512, 1, 1])
  17. backbone.backbone.layer2.1.conv2.weight torch.Size([128, 128, 3, 3])
  18. backbone.backbone.layer2.1.conv3.weight torch.Size([512, 128, 1, 1])
  19. backbone.backbone.layer2.2.conv1.weight torch.Size([128, 512, 1, 1])
  20. backbone.backbone.layer2.2.conv2.weight torch.Size([128, 128, 3, 3])
  21. backbone.backbone.layer2.2.conv3.weight torch.Size([512, 128, 1, 1])
  22. backbone.backbone.layer2.3.conv1.weight torch.Size([128, 512, 1, 1])
  23. backbone.backbone.layer2.3.conv2.weight torch.Size([128, 128, 3, 3])
  24. backbone.backbone.layer2.3.conv3.weight torch.Size([512, 128, 1, 1])
  25. backbone.backbone.layer3.0.conv1.weight torch.Size([256, 512, 1, 1])
  26. backbone.backbone.layer3.0.conv2.weight torch.Size([256, 256, 3, 3])
  27. backbone.backbone.layer3.0.conv3.weight torch.Size([1024, 256, 1, 1])
  28. backbone.backbone.layer3.0.downsample.0.weight torch.Size([1024, 512, 1, 1])
  29. backbone.backbone.layer3.1.conv1.weight torch.Size([256, 1024, 1, 1])
  30. backbone.backbone.layer3.1.conv2.weight torch.Size([256, 256, 3, 3])
  31. backbone.backbone.layer3.1.conv3.weight torch.Size([1024, 256, 1, 1])
  32. backbone.backbone.layer3.2.conv1.weight torch.Size([256, 1024, 1, 1])
  33. backbone.backbone.layer3.2.conv2.weight torch.Size([256, 256, 3, 3])
  34. backbone.backbone.layer3.2.conv3.weight torch.Size([1024, 256, 1, 1])
  35. backbone.backbone.layer3.3.conv1.weight torch.Size([256, 1024, 1, 1])
  36. backbone.backbone.layer3.3.conv2.weight torch.Size([256, 256, 3, 3])
  37. backbone.backbone.layer3.3.conv3.weight torch.Size([1024, 256, 1, 1])
  38. backbone.backbone.layer3.4.conv1.weight torch.Size([256, 1024, 1, 1])
  39. backbone.backbone.layer3.4.conv2.weight torch.Size([256, 256, 3, 3])
  40. backbone.backbone.layer3.4.conv3.weight torch.Size([1024, 256, 1, 1])
  41. backbone.backbone.layer3.5.conv1.weight torch.Size([256, 1024, 1, 1])
  42. backbone.backbone.layer3.5.conv2.weight torch.Size([256, 256, 3, 3])
  43. backbone.backbone.layer3.5.conv3.weight torch.Size([1024, 256, 1, 1])
  44. backbone.backbone.layer4.0.conv1.weight torch.Size([512, 1024, 1, 1])
  45. backbone.backbone.layer4.0.conv2.weight torch.Size([512, 512, 3, 3])
  46. backbone.backbone.layer4.0.conv3.weight torch.Size([2048, 512, 1, 1])
  47. backbone.backbone.layer4.0.downsample.0.weight torch.Size([2048, 1024, 1, 1])
  48. backbone.backbone.layer4.1.conv1.weight torch.Size([512, 2048, 1, 1])
  49. backbone.backbone.layer4.1.conv2.weight torch.Size([512, 512, 3, 3])
  50. backbone.backbone.layer4.1.conv3.weight torch.Size([2048, 512, 1, 1])
  51. backbone.backbone.layer4.2.conv1.weight torch.Size([512, 2048, 1, 1])
  52. backbone.backbone.layer4.2.conv2.weight torch.Size([512, 512, 3, 3])
  53. backbone.backbone.layer4.2.conv3.weight torch.Size([2048, 512, 1, 1])
  54. backbone.backbone.fc.weight torch.Size([1000, 2048])
  55. backbone.backbone.fc.bias torch.Size([1000])

ccf

  1. ccff.conv1.conv.weight torch.Size([3584, 3584, 1, 1])
  2. ccff.conv1.norm.weight torch.Size([3584])
  3. ccff.conv1.norm.bias torch.Size([3584])
  4. ccff.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  5. ccff.conv2.norm.weight torch.Size([3584])
  6. ccff.conv2.norm.bias torch.Size([3584])
  7. ccff.bottlenecks.0.conv1.conv.weight torch.Size([3584, 3584, 3, 3])
  8. ccff.bottlenecks.0.conv1.norm.weight torch.Size([3584])
  9. ccff.bottlenecks.0.conv1.norm.bias torch.Size([3584])
  10. ccff.bottlenecks.0.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  11. ccff.bottlenecks.0.conv2.norm.weight torch.Size([3584])
  12. ccff.bottlenecks.0.conv2.norm.bias torch.Size([3584])
  13. ccff.bottlenecks.1.conv1.conv.weight torch.Size([3584, 3584, 3, 3])
  14. ccff.bottlenecks.1.conv1.norm.weight torch.Size([3584])
  15. ccff.bottlenecks.1.conv1.norm.bias torch.Size([3584])
  16. ccff.bottlenecks.1.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  17. ccff.bottlenecks.1.conv2.norm.weight torch.Size([3584])
  18. ccff.bottlenecks.1.conv2.norm.bias torch.Size([3584])
  19. ccff.bottlenecks.2.conv1.conv.weight torch.Size([3584, 3584, 3, 3])
  20. ccff.bottlenecks.2.conv1.norm.weight torch.Size([3584])
  21. ccff.bottlenecks.2.conv1.norm.bias torch.Size([3584])
  22. ccff.bottlenecks.2.conv2.conv.weight torch.Size([3584, 3584, 1, 1])
  23. ccff.bottlenecks.2.conv2.norm.weight torch.Size([3584])
  24. ccff.bottlenecks.2.conv2.norm.bias torch.Size([3584])

input_proj

  1. input_proj.weight torch.Size([256, 3584, 1, 1])
  2. input_proj.bias torch.Size([256])

encoder

  1. encoder.layers.0.norm1.weight torch.Size([256])
  2. encoder.layers.0.norm1.bias torch.Size([256])
  3. encoder.layers.0.norm2.weight torch.Size([256])
  4. encoder.layers.0.norm2.bias torch.Size([256])
  5. encoder.layers.0.self_attn.in_proj_weight torch.Size([768, 256])
  6. encoder.layers.0.self_attn.in_proj_bias torch.Size([768])
  7. encoder.layers.0.self_attn.out_proj.weight torch.Size([256, 256])
  8. encoder.layers.0.self_attn.out_proj.bias torch.Size([256])
  9. encoder.layers.0.mlp.linear1.weight torch.Size([2048, 256])
  10. encoder.layers.0.mlp.linear1.bias torch.Size([2048])
  11. encoder.layers.0.mlp.linear2.weight torch.Size([256, 2048])
  12. encoder.layers.0.mlp.linear2.bias torch.Size([256])
  13. encoder.layers.1.norm1.weight torch.Size([256])
  14. encoder.layers.1.norm1.bias torch.Size([256])
  15. encoder.layers.1.norm2.weight torch.Size([256])
  16. encoder.layers.1.norm2.bias torch.Size([256])
  17. encoder.layers.1.self_attn.in_proj_weight torch.Size([768, 256])
  18. encoder.layers.1.self_attn.in_proj_bias torch.Size([768])
  19. encoder.layers.1.self_attn.out_proj.weight torch.Size([256, 256])
  20. encoder.layers.1.self_attn.out_proj.bias torch.Size([256])
  21. encoder.layers.1.mlp.linear1.weight torch.Size([2048, 256])
  22. encoder.layers.1.mlp.linear1.bias torch.Size([2048])
  23. encoder.layers.1.mlp.linear2.weight torch.Size([256, 2048])
  24. encoder.layers.1.mlp.linear2.bias torch.Size([256])
  25. encoder.layers.2.norm1.weight torch.Size([256])
  26. encoder.layers.2.norm1.bias torch.Size([256])
  27. encoder.layers.2.norm2.weight torch.Size([256])
  28. encoder.layers.2.norm2.bias torch.Size([256])
  29. encoder.layers.2.self_attn.in_proj_weight torch.Size([768, 256])
  30. encoder.layers.2.self_attn.in_proj_bias torch.Size([768])
  31. encoder.layers.2.self_attn.out_proj.weight torch.Size([256, 256])
  32. encoder.layers.2.self_attn.out_proj.bias torch.Size([256])
  33. encoder.layers.2.mlp.linear1.weight torch.Size([2048, 256])
  34. encoder.layers.2.mlp.linear1.bias torch.Size([2048])
  35. encoder.layers.2.mlp.linear2.weight torch.Size([256, 2048])
  36. encoder.layers.2.mlp.linear2.bias torch.Size([256])
  37. encoder.norm.weight torch.Size([256])
  38. encoder.norm.bias torch.Size([256])

ope

  1. ope.iterative_adaptation.layers.0.norm1.weight torch.Size([256])
  2. ope.iterative_adaptation.layers.0.norm1.bias torch.Size([256])
  3. ope.iterative_adaptation.layers.0.norm2.weight torch.Size([256])
  4. ope.iterative_adaptation.layers.0.norm2.bias torch.Size([256])
  5. ope.iterative_adaptation.layers.0.norm3.weight torch.Size([256])
  6. ope.iterative_adaptation.layers.0.norm3.bias torch.Size([256])
  7. ope.iterative_adaptation.layers.0.self_attn.in_proj_weight torch.Size([768, 256])
  8. ope.iterative_adaptation.layers.0.self_attn.in_proj_bias torch.Size([768])
  9. ope.iterative_adaptation.layers.0.self_attn.out_proj.weight torch.Size([256, 256])
  10. ope.iterative_adaptation.layers.0.self_attn.out_proj.bias torch.Size([256])
  11. ope.iterative_adaptation.layers.0.enc_dec_attn.in_proj_weight torch.Size([768, 256])
  12. ope.iterative_adaptation.layers.0.enc_dec_attn.in_proj_bias torch.Size([768])
  13. ope.iterative_adaptation.layers.0.enc_dec_attn.out_proj.weight torch.Size([256, 256])
  14. ope.iterative_adaptation.layers.0.enc_dec_attn.out_proj.bias torch.Size([256])
  15. ope.iterative_adaptation.layers.0.mlp.linear1.weight torch.Size([2048, 256])
  16. ope.iterative_adaptation.layers.0.mlp.linear1.bias torch.Size([2048])
  17. ope.iterative_adaptation.layers.0.mlp.linear2.weight torch.Size([256, 2048])
  18. ope.iterative_adaptation.layers.0.mlp.linear2.bias torch.Size([256])
  19. ope.iterative_adaptation.layers.1.norm1.weight torch.Size([256])
  20. ope.iterative_adaptation.layers.1.norm1.bias torch.Size([256])
  21. ope.iterative_adaptation.layers.1.norm2.weight torch.Size([256])
  22. ope.iterative_adaptation.layers.1.norm2.bias torch.Size([256])
  23. ope.iterative_adaptation.layers.1.norm3.weight torch.Size([256])
  24. ope.iterative_adaptation.layers.1.norm3.bias torch.Size([256])
  25. ope.iterative_adaptation.layers.1.self_attn.in_proj_weight torch.Size([768, 256])
  26. ope.iterative_adaptation.layers.1.self_attn.in_proj_bias torch.Size([768])
  27. ope.iterative_adaptation.layers.1.self_attn.out_proj.weight torch.Size([256, 256])
  28. ope.iterative_adaptation.layers.1.self_attn.out_proj.bias torch.Size([256])
  29. ope.iterative_adaptation.layers.1.enc_dec_attn.in_proj_weight torch.Size([768, 256])
  30. ope.iterative_adaptation.layers.1.enc_dec_attn.in_proj_bias torch.Size([768])
  31. ope.iterative_adaptation.layers.1.enc_dec_attn.out_proj.weight torch.Size([256, 256])
  32. ope.iterative_adaptation.layers.1.enc_dec_attn.out_proj.bias torch.Size([256])
  33. ope.iterative_adaptation.layers.1.mlp.linear1.weight torch.Size([2048, 256])
  34. ope.iterative_adaptation.layers.1.mlp.linear1.bias torch.Size([2048])
  35. ope.iterative_adaptation.layers.1.mlp.linear2.weight torch.Size([256, 2048])
  36. ope.iterative_adaptation.layers.1.mlp.linear2.bias torch.Size([256])
  37. ope.iterative_adaptation.layers.2.norm1.weight torch.Size([256])
  38. ope.iterative_adaptation.layers.2.norm1.bias torch.Size([256])
  39. ope.iterative_adaptation.layers.2.norm2.weight torch.Size([256])
  40. ope.iterative_adaptation.layers.2.norm2.bias torch.Size([256])
  41. ope.iterative_adaptation.layers.2.norm3.weight torch.Size([256])
  42. ope.iterative_adaptation.layers.2.norm3.bias torch.Size([256])
  43. ope.iterative_adaptation.layers.2.self_attn.in_proj_weight torch.Size([768, 256])
  44. ope.iterative_adaptation.layers.2.self_attn.in_proj_bias torch.Size([768])
  45. ope.iterative_adaptation.layers.2.self_attn.out_proj.weight torch.Size([256, 256])
  46. ope.iterative_adaptation.layers.2.self_attn.out_proj.bias torch.Size([256])
  47. ope.iterative_adaptation.layers.2.enc_dec_attn.in_proj_weight torch.Size([768, 256])
  48. ope.iterative_adaptation.layers.2.enc_dec_attn.in_proj_bias torch.Size([768])
  49. ope.iterative_adaptation.layers.2.enc_dec_attn.out_proj.weight torch.Size([256, 256])
  50. ope.iterative_adaptation.layers.2.enc_dec_attn.out_proj.bias torch.Size([256])
  51. ope.iterative_adaptation.layers.2.mlp.linear1.weight torch.Size([2048, 256])
  52. ope.iterative_adaptation.layers.2.mlp.linear1.bias torch.Size([2048])
  53. ope.iterative_adaptation.layers.2.mlp.linear2.weight torch.Size([256, 2048])
  54. ope.iterative_adaptation.layers.2.mlp.linear2.bias torch.Size([256])
  55. ope.iterative_adaptation.norm.weight torch.Size([256])
  56. ope.iterative_adaptation.norm.bias torch.Size([256])

ope.shape_or_objectness

  1. ope.shape_or_objectness.0.weight torch.Size([64, 2])
  2. ope.shape_or_objectness.0.bias torch.Size([64])
  3. ope.shape_or_objectness.2.weight torch.Size([256, 64])
  4. ope.shape_or_objectness.2.bias torch.Size([256])
  5. ope.shape_or_objectness.4.weight torch.Size([2304, 256])
  6. ope.shape_or_objectness.4.bias torch.Size([2304])

回归头

  1. regression_head.regressor.0.layer.0.weight torch.Size([128, 256, 3, 3])
  2. regression_head.regressor.0.layer.0.bias torch.Size([128])
  3. regression_head.regressor.1.layer.0.weight torch.Size([64, 128, 3, 3])
  4. regression_head.regressor.1.layer.0.bias torch.Size([64])
  5. regression_head.regressor.2.layer.0.weight torch.Size([32, 64, 3, 3])
  6. regression_head.regressor.2.layer.0.bias torch.Size([32])
  7. regression_head.regressor.3.weight torch.Size([1, 32, 1, 1])
  8. regression_head.regressor.3.bias torch.Size([1])

辅助头

  1. aux_heads.0.regressor.0.layer.0.weight torch.Size([128, 256, 3, 3])
  2. aux_heads.0.regressor.0.layer.0.bias torch.Size([128])
  3. aux_heads.0.regressor.1.layer.0.weight torch.Size([64, 128, 3, 3])
  4. aux_heads.0.regressor.1.layer.0.bias torch.Size([64])
  5. aux_heads.0.regressor.2.layer.0.weight torch.Size([32, 64, 3, 3])
  6. aux_heads.0.regressor.2.layer.0.bias torch.Size([32])
  7. aux_heads.0.regressor.3.weight torch.Size([1, 32, 1, 1])
  8. aux_heads.0.regressor.3.bias torch.Size([1])
  9. aux_heads.1.regressor.0.layer.0.weight torch.Size([128, 256, 3, 3])
  10. aux_heads.1.regressor.0.layer.0.bias torch.Size([128])
  11. aux_heads.1.regressor.1.layer.0.weight torch.Size([64, 128, 3, 3])
  12. aux_heads.1.regressor.1.layer.0.bias torch.Size([64])
  13. aux_heads.1.regressor.2.layer.0.weight torch.Size([32, 64, 3, 3])
  14. aux_heads.1.regressor.2.layer.0.bias torch.Size([32])
  15. aux_heads.1.regressor.3.weight torch.Size([1, 32, 1, 1])
  16. aux_heads.1.regressor.3.bias torch.Size([1])


Total number of parameters in LOCA: 447974251

Total number of parameters in CCFF: 411099136(这个模块,参数量好大)

相关文章:

【扒网络架构】backbone、ccff

backbone CCFF 还不知道网络连接方式,只是知道了每一层 backbone backbone.backbone.conv1.weight torch.Size([64, 3, 7, 7])backbone.backbone.layer1.0.conv1.weight torch.Size([64, 64, 1, 1])backbone.backbone.layer1.0.conv2.weight torch.Size([64, 64,…...

linux进程

exit()函数正常结束进程 man ps aux 是在使用 ps 命令时常用的一个选项组合,用于显示系统中所有进程的详细信息。aux 不是 ps 命令的一个正式选项,而是三个选项的组合:a, u, 和 x。这三个选项分别代表不同的含义&#…...

PRVF-4037 : CRS is not installed on any of the nodes

描述:公司要求替换centos,重新安装ORACLE LINUX RAC的数据库做备库,到时候切换成主库,安装Linux7GRID 19C 11G Oracle,顺利安装grid 19c,安装11G数据库软件的时候检测报如题错误:**PRVF-4037 …...

整理 酷炫 Flutter 开源UI框架 FAB

flutter_villains 灵活且易于使用的页面转换。 项目地址:https://github.com/Norbert515/flutter_villains 项目Demo:https://download.csdn.net/download/qq_36040764/89631324...

Unity 编写自己的aar库,接收Android广播(broadcastReceiver)并传递到Unity

编写本文是因为找了很多文章,都比较片段,不容易理解,对于Android新手来说理解起来不友好。我这里写了一个针对比较小白的文章,希望有所帮助。 Android端 首先还是先来写Android端,我们新建一个Android空项目&#xf…...

Mysql cast函数、cast用法、字符串转数字、字符串转日期、数据类型转换

文章目录 一、语法二、示例2.1、复杂示例 三、cast与convert的区别 CAST 函数是 SQL 中的一种类型转换函数,它用于将一个数据类型转换为另一个数据类型,这篇文章主要介绍了Mysql中Cast()函数的用法,需要的朋友可以参考下。 Mysql提供了两种将值转换成指…...

微信小程序开发之组件复用机制

新建复用文件,另外需要注册 behavior 例如: 在behavior.js文件中写入方法,并向外暴露出去 写法一: module.exportsBehavior({data: {num: 1},lifetimes: {created() {console.log(1);}} })写法二: const behavior …...

数据结构--线性表

数据结构分类 集合 线性结构(一对一) 树形结构(一对多) 图结构(多对多) 数据结构三要素 1、逻辑结构 2、数据的运算 3、存储结构(物理结构) 线性表分类 1、顺序表 2、链表 3、栈 4、队列 5、串 线性表--顺序表 顺序表的特点 顺序表的删除和插入…...

深入探针:PHP与DTrace的动态追踪艺术

标题:深入探针:PHP与DTrace的动态追踪艺术 在高性能的PHP应用开发中,深入理解代码的执行流程和性能瓶颈是至关重要的。DTrace,作为一种强大的动态追踪工具,为开发者提供了对PHP脚本运行时行为的深入洞察。本文将详细介…...

黑龙江日报报道第5届中国计算机应用技术大赛,赛氪提供赛事支持

2024年7月17日,黑龙江日报、极光新闻对在哈尔滨市举办的第5届中国计算机应用技术大赛全国总决赛进行了深入报道。此次大赛由中国计算机学会主办,中国计算机学会计算机应用专业委员会与赛氪网共同承办,吸引了来自全国各地的顶尖技术团队和选手…...

【计算机网络】LVS四层负载均衡器

https://mobian.blog.csdn.net/article/details/141093263 https://blog.csdn.net/weixin_42175752/article/details/139966198 《高并发的哲学原理》 (基本来自本书) 《亿级流量系统架构设计与实战》 LVS 章文嵩博士创造 LVS(IPVS) 章⽂嵩发…...

Java 守护线程练习 (2024.8.12)

DaemonExercise package DaemonExercise20240812;public class DaemonExercise {public static void main(String[] args) {// 守护线程// 当普通线程执行完毕之后,守护线程没有继续执行的必要,所以说会逐步关闭(并非瞬间关闭)//…...

C#小桌面程序调试出错,如何解决??

🏆本文收录于《CSDN问答解惑-专业版》专栏,主要记录项目实战过程中的Bug之前因后果及提供真实有效的解决方案,希望能够助你一臂之力,帮你早日登顶实现财富自由🚀;同时,欢迎大家关注&&收…...

Seatunnel Mysql数据同步到Mysql

环境 mysql-connector-java-8.0.28.jar、connector-cdc-mysql 配置 env {# You can set SeaTunnel environment configuration hereexecution.parallelism 2job.mode "STREAMING"# 10秒检查一次,可以适当加大这个值checkpoint.interval 10000#execu…...

Java Web —— 第五天(请求响应1)

postman Postman是一款功能强大的网页调试与发送网页HTTP请求的Chrome插件 作用:常用于进行接口测试 简单参数 原始方式 在原始的web程序中,获取请求参数,需要通过HttpServletRequest 对象手动获 http://localhost:8080/simpleParam?nameTom&a…...

【LLMOps】手摸手教你把 Dify 接入微信生态

作者:韩方圆 "Dify on WeChat"开源项目作者 概述 微信作为最热门即时通信软件,拥有巨大的流量。 微信友好的聊天窗口是天然的AI应用LUI(Language User Interface)/CUI(Conversation User Interface)。 微信不仅有个人微信,同时提供…...

Ftrans文件摆渡方案:重塑文件传输与管控的科技先锋

一、哪些行业会用到文件摆渡相关方案 文件摆渡相关的产品和方案通常用于需要在不同的网络、安全域、网段之间传输数据的场景,主要是一些有核心数据需要保护的行业,做了网络隔离和划分。以下是一些应用比较普遍的行业: 金融行业:…...

LaTeX中的除号表示方法详解

/除号 LaTeX中的除号表示方法详解1. 使用斜杠 / 表示除号优点缺点 2. 使用 \frac{} 表示分数形式的除法优点缺点 3. 使用 \div 表示标准除号优点缺点 4. 使用 \over 表示分数形式的除法优点缺点 5. 使用 \dfrac{} 和 \tfrac{} 表示大型和小型分数优点缺点 总结 LaTeX中的除号表…...

DID、DID文档、VC、VP分别是什么 有什么关系

DID(去中心化身份) 定义:DID 是一种去中心化的唯一标识符,用于表示个体、组织或设备的身份。DID 不依赖于中央管理机构,而是由去中心化网络(如区块链)生成和管理。 用途:DID 允许用…...

网络安全应急响应

前言\n在网络安全领域,有一句广为人知的话:“没有绝对的安全”。这意味着任何系统都有可能被攻破。安全攻击的发生并不可怕,可怕的是从头到尾都毫无察觉。当系统遭遇攻击时,企业的安全人员需要立即进行应急响应,以将影…...

智慧医疗能源事业线深度画像分析(上)

引言 医疗行业作为现代社会的关键基础设施,其能源消耗与环境影响正日益受到关注。随着全球"双碳"目标的推进和可持续发展理念的深入,智慧医疗能源事业线应运而生,致力于通过创新技术与管理方案,重构医疗领域的能源使用模式。这一事业线融合了能源管理、可持续发…...

阿里云ACP云计算备考笔记 (5)——弹性伸缩

目录 第一章 概述 第二章 弹性伸缩简介 1、弹性伸缩 2、垂直伸缩 3、优势 4、应用场景 ① 无规律的业务量波动 ② 有规律的业务量波动 ③ 无明显业务量波动 ④ 混合型业务 ⑤ 消息通知 ⑥ 生命周期挂钩 ⑦ 自定义方式 ⑧ 滚的升级 5、使用限制 第三章 主要定义 …...

java 实现excel文件转pdf | 无水印 | 无限制

文章目录 目录 文章目录 前言 1.项目远程仓库配置 2.pom文件引入相关依赖 3.代码破解 二、Excel转PDF 1.代码实现 2.Aspose.License.xml 授权文件 总结 前言 java处理excel转pdf一直没找到什么好用的免费jar包工具,自己手写的难度,恐怕高级程序员花费一年的事件,也…...

汇编常见指令

汇编常见指令 一、数据传送指令 指令功能示例说明MOV数据传送MOV EAX, 10将立即数 10 送入 EAXMOV [EBX], EAX将 EAX 值存入 EBX 指向的内存LEA加载有效地址LEA EAX, [EBX4]将 EBX4 的地址存入 EAX(不访问内存)XCHG交换数据XCHG EAX, EBX交换 EAX 和 EB…...

USB Over IP专用硬件的5个特点

USB over IP技术通过将USB协议数据封装在标准TCP/IP网络数据包中,从根本上改变了USB连接。这允许客户端通过局域网或广域网远程访问和控制物理连接到服务器的USB设备(如专用硬件设备),从而消除了直接物理连接的需要。USB over IP的…...

重启Eureka集群中的节点,对已经注册的服务有什么影响

先看答案,如果正确地操作,重启Eureka集群中的节点,对已经注册的服务影响非常小,甚至可以做到无感知。 但如果操作不当,可能会引发短暂的服务发现问题。 下面我们从Eureka的核心工作原理来详细分析这个问题。 Eureka的…...

C++使用 new 来创建动态数组

问题: 不能使用变量定义数组大小 原因: 这是因为数组在内存中是连续存储的,编译器需要在编译阶段就确定数组的大小,以便正确地分配内存空间。如果允许使用变量来定义数组的大小,那么编译器就无法在编译时确定数组的大…...

A2A JS SDK 完整教程:快速入门指南

目录 什么是 A2A JS SDK?A2A JS 安装与设置A2A JS 核心概念创建你的第一个 A2A JS 代理A2A JS 服务端开发A2A JS 客户端使用A2A JS 高级特性A2A JS 最佳实践A2A JS 故障排除 什么是 A2A JS SDK? A2A JS SDK 是一个专为 JavaScript/TypeScript 开发者设计的强大库&#xff…...

人机融合智能 | “人智交互”跨学科新领域

本文系统地提出基于“以人为中心AI(HCAI)”理念的人-人工智能交互(人智交互)这一跨学科新领域及框架,定义人智交互领域的理念、基本理论和关键问题、方法、开发流程和参与团队等,阐述提出人智交互新领域的意义。然后,提出人智交互研究的三种新范式取向以及它们的意义。最后,总结…...

scikit-learn机器学习

# 同时添加如下代码, 这样每次环境(kernel)启动的时候只要运行下方代码即可: # Also add the following code, # so that every time the environment (kernel) starts, # just run the following code: import sys sys.path.append(/home/aistudio/external-libraries)机…...