111qqz的小窝

老年咸鱼冲锋!

caffe 源码阅读笔记

blob layer net 激活函数 卷积 reshape slice loss function reduce eltwise argmax

2020 to do List

就..终于再次出现了to do list. 原因是之前一直不知道如何置顶文章…. 竟然一下子就2020年了… 学习模型量化 学习onn

k8s nodes is forbidden user cannot list resource nodes in api group at the cluster scope

继续将k8s用于模型转换和部署的自动化流程…然后发现之前安装k8s的文档不work了.. 时间是2020年5月7日,当前最新的k

caffe 源码学习笔记(11) argmax layer

背景 似乎没什么背景,继续看caffe代码 argmax的作用是返回一个blob某个维度或者batch_size之后的维度的top_k的inde

caffe 源码学习笔记(10) eltwise layer

背景 这个layer和reduce layer有一些相似,就干脆一起看了. 作用是输入至少两个blob,然后对每个blob中的元素所一些运算,最后

caffe 源码学习笔记(9) reduce layer

背景 其实没什么背景,继续啃caffe代码而已2333 reduce layer其实就是做reduce操作,把一个任意shape的blob通过某种运算变成一

Focal Loss for Dense Object Detection(RetinaNet) 学习笔记

先写个简略版的笔记..看之后的情况要不要读得更精细一点.. 背景 two stage的检测比one stage的检测效果好,原因是啥? 作者认为是正负样本

caffe 源码学习笔记(8) loss function

背景 虽然不太care 训练的过程,但是由于容易看懂的layer都看得差不多了 所以打算看一下这些loss function. Euclidean Loss (L2 loss) 一般用于“real-value

caffe 源码学习笔记(7) slice layer

背景 ocr组那边有个shuffle net 的网络,里面有个pytorch op叫chunk,转成的onnx对应的op是 split 作用是: Split a tensor into a list of tensors, along the

thinkpad t430 manjaro系统安装nvidia驱动

前几天装驱动把笔记本搞崩溃了..重新装了kde桌面环境的manjaro 首先根据 Configure NVIDIA (non-free) settings and load them on Startup 直接装驱动。 装之后mhwd -li命令会显示新

caffe 源码学习笔记(6) reshape layer

背景 最近在魔改 tensorRT 的caffe parser 之前caffe模型转到trt模型时,有一个修改是需要将reshape layer的param末尾补1,比较繁琐,

caffe 源码学习笔记(5) 卷积

caffe中卷积运算的实现 暴力实现的卷积大概是这样子的 for w in 1..W for h in 1..H for x in 1..K for y in 1..K for m in 1..M for d in 1..D output(w, h, m) += input(w+x, h+y, d) * filter(m, x, y, d) end end end end end end 这

tensorrt INT8 量化debug记录(cuda error 700)

背景是要把某个caffe model,转换成tensorrt的INT8 模型。 然后遇到如下报错: E0403 08:54:35.951987 5704 engine.h:62] engine.cpp (572) - Cuda Error in commonEmitTensor: 1 (invalid argument) E0403 08:54:35.952157 5704 engine.h:62] Failure while trying to emit debug

caffe 源码学习笔记(4) 激活函数

在看过caffe代码的三个核心部分,blob,layer,net之后,陷入了不知道以什么顺序继续看的困境。 blob,layer,net只是三

Faster Rcnn 目标检测算法

背景 2019年对了好几次faster rcnn,第一次是赛事之窗项目和北京的同事,对齐sdk和训练的实现。 第二次是被tensorRT4和ten

resnet 学习笔记

背景 基于Conv的方法在某年的ImageNet比赛上又重新被人想起之后,大家发现网络堆叠得越深,似乎在cv的各个任务上表现的越好。 然而事情当

tensorRT 模型兼容性说明

名词说明 CUDA. 一般来说指的是CUDA SDK. 目前经常使用的是CUDA 8.0和CUDA 10.1两个版本. 8.0和10.1都是SDK的版本号. CUDNN. The NVIDIA CUD

【施工完成】CSAPP archlab

背景 CSAPP:3e第四章配套的实验。 第四章是讲处理器架构的,章节的重点是实现一个六阶段流水线。 lab的内容也是,需要实现一个Y86-64的

【施工完成】CSAPP attacklab

背景 CSAPP 处理器那章快看完了,猛然发现竟然还有个attacklab.. 之前以为每一章只有一个lab 这个lab是教大家如何找到程序的漏洞并实施攻击

【施工完成】CSAPP bomb lab

背景 疫情肆虐,在家百无聊赖,于是开始拆炸弹. 炸弹分为6个阶段,每个阶段必须输入一个特定的字符串,否则炸弹就会爆炸. 提供给我们的是一个.c文件